Se ha debatido mucho sobre hasta qué punto la inteligencia artificial (IA) será una fuerza positiva para el mundo y hasta qué punto supone una amenaza para la humanidad.
Esto incluye cómo puede utilizarse la IA en el contexto de la guerra, no solo en el campo de batalla propiamente dicho, sino en el campo de batalla de la información y la desinformación.
- Ver más
Puntos clave
- El papel de la IA en la guerra está transformando la seguridad mundial, y la IA se está probando y aplicando ampliamente en contextos militares.
- Cuando se combine con la computación cuántica en el futuro, se prevé que la IA tenga profundas implicaciones para la seguridad mundial, dejando potencialmente obsoletas las estrategias militares tradicionales.
- El uso indebido de la IA para difundir desinformación y tecnologías falsas profundas requiere cooperación internacional, educación y medidas reguladoras.
- A lo largo de Davos, los paneles expresaron simultáneamente esperanza y temor por la nueva era en la que nos encontramos, frente a una nueva tecnología que podría ser tan transformadora como la imprenta.
Una cosa está clara: el a?o pasado fue fundamental en la transformación de la guerra con el uso de la IA, dijo ayer Dmytro Kuleba, Ministro de Asuntos Exteriores de Ucrania, en una mesa redonda en el Foro Económico Mundial de Davos.
?A lo largo de 2024, observaremos algunos -no debatidos públicamente- enormes esfuerzos para probar y aplicar la IA en el campo de batalla?, dijo Kuleba.
?Pero el poder de la IA es mucho más amplio que eso. Cuando surgieron las armas nucleares, cambió por completo la forma en que la humanidad entiende la arquitectura de la seguridad. En gran medida, fue un a?adido a la diplomacia y un restablecimiento completamente diferente de las reglas.
“Ahora la IA tendrá consecuencias aún mayores para la forma en que pensamos en la seguridad mundial. No necesitas mantener una flota a miles de kilómetros de tu país si tienes una flota de drones lo suficientemente inteligentes como para operar en la región.
?Y cuando llegue la computación cuántica, y coincida con la IA, las cosas empeorarán aún más con la seguridad global y la forma en que gestionamos el mundo?.
A modo de ejemplo, la IA se está utilizando para dirigir drones en la guerra entre Rusia y Ucrania para localizar objetivos con eficacia.
?Normalmente se necesitan hasta 10 disparos de artillería para alcanzar un objetivo debido a las correcciones que hay que hacer con cada nuevo disparo. Si tienes un dron conectado a una plataforma impulsada por IA, necesitarás un solo disparo, lo que tiene enormes consecuencias?, dijo Kuleba.
?Una de las mayores dificultades en la contraofensiva que emprendimos el verano pasado fue que ambos bandos -Ucrania y Rusia- utilizaban drones de vigilancia conectados a drones de ataque hasta tal punto que los soldados físicamente no podían moverse.
“Porque en el momento en que sales del bosque o de la trinchera, te detectan inmediatamente los drones de vigilancia, que envían un mensaje al dron de ataque, y estás muerto. Ya está teniendo un enorme efecto en la guerra?.
Cuando los gobiernos consideren el siguiente nivel de amenazas al que pueden enfrentarse, deben ser conscientes de que no todos los países del mundo estarán de acuerdo con el uso regulado y civilizado de la IA en la guerra, se?aló Kuleba.
?Estoy seguro de que habrá dos bandos, dos polos en el mundo en cuanto al enfoque de la IA, y cuando la gente habla de un mundo polarizado, lo estará aún más por la forma en que se tratará la IA.
?Todo esto cambiará enormemente la forma en que la humanidad imagina su seguridad, la forma en que los diplomáticos intentan mantener las cosas cuerdas y manejables y, lo que es más importante, la forma en que hacemos todo nuestro trabajo.
?La diplomacia como trabajo se volverá o extremadamente aburrida o tan emocionante como siempre tras la introducción de la IA?, dijo Kaleba.
?Cómo podemos hacer frente a los actores deshonestos?
En otra mesa redonda celebrada en Davos, Jeremy Hunt, Ministro de Hacienda del Reino Unido y ex Ministro de Asuntos Exteriores, destacó la importancia de la cooperación internacional:
?Tenemos que estar seguros de que un actor deshonesto no va a poder utilizar la IA para fabricar armas nucleares. Tenemos que tener los ojos bien abiertos, por eso fue tan importante la cumbre sobre la seguridad de la IA que organizó Rishi Sinak a finales del a?o pasado.
“Pero tenemos que hacerlo de forma ligera, porque tenemos que ser un poco humildes: hay mucho que desconocemos. Tenemos que comprender el potencial de adónde nos va a llevar esto, en una fase en la que nadie puede responder realmente a esa pregunta.
?Ahora tenemos opciones, y la opción que tenemos que tomar es cómo aprovecharlo para que sea una fuerza para el bien. Una de las formas en que sería una fuerza para el mal es si se convirtiera simplemente en una herramienta en una nueva carrera geoestratégica de superpotencias, con gran parte de la energía invertida en armas en lugar de en cosas que realmente podrían transformar nuestra vida cotidiana.
ésas son decisiones que tomamos, y una de las formas de evitar que eso ocurra es dialogando con países como China sobre puntos en común.
“Pero creo que deberíamos -siendo humildes por no poder predecir el futuro- recordar que sí tenemos control sobre las leyes, las normativas. Tenemos la capacidad de dar forma a este viaje?.
Volviendo al panel sobre el impacto de la IA en la geopolítica, la capacidad de los sistemas de IA para absorber y mercantilizar grandes cantidades de información, generar nueva información, hacerla ampliamente disponible y actuar en consecuencia ?va a ser masivamente desestabilizadora?, según Mustafa Suleyman, cofundador de DeepMind y cofundador y director ejecutivo (CEO) de Inflexion AI.
?Va a ser el momento más transformador no sólo en tecnología, sino en cultura y política de toda nuestra vida?.
La lucha contra el uso indebido de la IA en la política
El esfuerzo por implantar salvaguardias en torno a la IA es todo un reto, algo en lo que profundizó Sam Altman en Davos el jueves, del mismo modo que es difícil impedir que los malos actores hagan un uso indebido de los teléfonos móviles o los ordenadores portátiles.
Dijo Suleyman: ?Estas tecnologías no son tan diferentes. Dicho esto, hay capacidades específicas, por ejemplo, el entrenamiento en torno a poder fabricar un arma biológica o una bomba general.
?Evidentemente, nuestros modelos no deben facilitar que una persona normal sin conocimientos técnicos vaya y fabrique ántrax: eso sería ilegal y terrible para el mundo. Así que, tanto si son de código abierto como de código cerrado, podemos [restringir] esas capacidades en origen en lugar de confiar en que algún mal actor no sea malo.?
En cuanto al potencial de la IA para difundir desinformación, los malos actores pueden introducir desinformación en las fuentes de datos en volúmenes tales que pueden parecer un hecho o una opinión legítimos.
Esto también tiene consecuencias para los conflictos internacionales, se?aló Kuleba.
?Si soy un Estado delincuente y quiero demostrar que soy el único que tiene derecho a existir y que todos debéis hablar mi idioma, ?significa eso que si gasto miles de millones e involucro a productores de opinión automatizados como los bots, el chat llegará a la opinión que en realidad tiene sentido??
Los resultados de los motores de búsqueda están filtrados por algoritmos, y siguen ofreciendo enlaces diferentes a opiniones diferentes. Las redes sociales también muestran una variedad de opiniones.
Sin embargo, si los humanos entablan relaciones con asistentes o chatbots controlados por IA, es posible que sólo estén expuestos a una opinión.
Dijo Kuleba: ?Así pues, la transición que considero extremadamente delicada desde el punto de vista político -y también cultural- es la transición de un ser humano de buscar opiniones a confiar en la opinión de la inteligencia universal, como se considerará a la IA, y eso se convertirá en un problema en términos políticos.?
La IA y la información falsa
Los vídeos falsos profundos, que manipulan o generan contenido de vídeo y audio para enga?ar, son una preocupación cada vez mayor en política. El Taoiseach irlandés Leo Varadkar ha visto manipulada su imagen en vídeos fraudulentos en Internet en los últimos a?os.
En la última falsificación profunda, ha circulado por las redes sociales un anuncio que utiliza imágenes de Varadkar y de la presentadora de noticias de Virgin Media, Colette Fitzpatrick, con voces en off de IA que venden estafas de criptomonedas.
?Espero que la mayoría de la gente se dé cuenta de que eso no es lo que hago en realidad?, dijo Varadkar.
?Pero es preocupante porque se ha vuelto muy bueno, y sólo va a mejorar. Escucho audios de políticos que son claramente falsos, y la gente se los cree.
?El hecho de que el debate político, social y ético en torno a la IA generativa se esté produciendo paralelamente a la evolución de la tecnología es mucho más saludable que lo que hemos visto en los últimos 15-18 a?os, en los que ha habido una especie de explosión de las redes sociales.
?Y muchos gobiernos están decidiendo ahora qué tipo de salvaguardias y legislación deben establecer 15 a?os después de una gran oscilación del péndulo, que pasó de una especie de euforia y utopismo tecnológicos al pesimismo tecnológico. Es mucho mejor que esas cosas funcionen en paralelo?.
La educación es clave para restaurar la confianza
Educar al público e implantar marcas de agua es probablemente la clave para combatir la eficacia de las falsificaciones profundas.
La gente debe conocer y ser capaz de enfrentarse a los riesgos que pueden surgir de la tecnología, dijo Karoline Edtstadler, Ministra Federal para la UE y la Constitución de la Cancillería austriaca. ?Esta es nuestra tarea común y nuestra responsabilidad común?.
Restablecer la confianza socavada por el uso indebido de la IA requerirá poner en marcha herramientas para hacerle frente cuando ocurra, dijo Varadkar.
?Irónicamente, el uso de la IA y el mal uso de la IA en política podría tener dos consecuencias imprevistas: podría hacer que la gente valorara más las fuentes de información fiables. Podríamos asistir a una segunda era en la que los informadores tradicionales quisieran volver a obtener sus noticias de un servicio público de radiodifusión o de un periódico con un historial de 200 a?os de veracidad de los hechos.
?Ese podría ser un resultado imprevisto, y otro en política podría ser que la política volviera a ser más orgánica, y la gente quisiera ver al candidato físicamente con sus propios ojos, que volviera a llamar a su puerta, que estuviera fuera de su supermercado. Eso podría convertirse en una consecuencia involuntaria de que la gente se vuelva tan escéptica con lo que ve en formato electrónico.
?La detección va a ser realmente importante para que podamos averiguar de dónde procede. Las plataformas tienen la enorme responsabilidad de retirar los contenidos rápidamente. Algunas lo hacen mejor que otras, pero también las personas de las sociedades van a tener que adaptarse a esta nueva tecnología.
?Siempre que hay una nueva tecnología, la gente aprende a vivir con ella. Pero vamos a tener que intentar ayudar a nuestras sociedades a hacerlo… Eso es concienciación sobre la IA y educación sobre la IA.
“Pero como tecnología, creo que va a ser transformadora: va a cambiar nuestro mundo tanto como lo ha hecho Internet o incluso la imprenta; tenemos que verla en ese contexto.
Si no puedes detectar, no puedes regular, no puedes responder
Nick Clegg, Presidente de Asuntos Globales de Meta y ex Viceprimer Ministro del Reino Unido, coincidió en la importancia de verificar los contenidos:
?Si quieres regular este espacio, no puedes responder a algo, no puedes reaccionar a algo, y mucho menos regular algo si primero no puedes detectarlo.
?Si siguiera en política, lo primero que haría sería conseguir que toda la industria -las grandes plataformas ya están trabajando en ello, pero sobre todo también los actores más peque?os- acelerara el ritmo para conseguir normas comunes sobre cómo identificar y tener marcas de agua invisibles en las imágenes y vídeos que pueden generar las herramientas de IA generativa.
?Eso no existe en este momento; cada empresa hace lo suyo. Se están produciendo algunos debates interesantes… pero, en mi opinión, esa es la tarea más urgente a la que nos enfrentamos hoy?.
Clegg afirmó que la prevalencia de la incitación al odio en Facebook ha disminuido en los dos últimos a?os, ya que la IA se ha convertido en una herramienta eficaz para clasificar y eliminar los contenidos nocivos.
?Así que es una espada y un escudo?.
Abordar la desigualdad global
Clegg también hizo hincapié en la importancia de garantizar que los beneficios de la IA se extiendan más allá del mundo desarrollado.
?También tenemos que preguntarnos quién tiene acceso a estas tecnologías. Es insostenible y poco práctico aferrarse a la opinión de que sólo un pu?ado de empresas básicamente de la Costa Oeste con suficiente capacidad de GPU, suficientes bolsillos profundos y suficiente acceso a los datos pueden hacer funcionar esta tecnología fundacional. Somos grandes defensores del código abierto para democratizar esto.
?También deberíamos fijarnos en la historia -la revolución industrial, la revolución informática-, donde esas revoluciones tuvieron éxito fue donde los beneficios se distribuyeron uniformemente por toda la sociedad y no se concentraron en peque?os grupos.
?En el caso de la IA, yo diría que el reto es asegurarse de que los beneficios se extienden por todo el mundo -Norte y Sur, mundo en desarrollo y mundo desarrollado- y no sólo se concentran en las economías avanzadas, porque de lo contrario, eso ahondará algunas de las fracturas que ya nos están llevando en la dirección equivocada.?
Conclusión
De todo lo anterior, vamos a destacar lo que dijo el Taoiseach irlandés Leo Varadkar sobre la IA:
?Va a cambiar nuestro mundo tanto como lo ha hecho Internet, quizá incluso la imprenta?.
Puede que pasen a?os o décadas antes de que podamos echar la vista atrás y ver las buenas y malas decisiones tomadas en estos primeros días, así como ver cuánto ha cambiado la sociedad con la IA entre nosotros.
Son a?os cruciales para que las leyes y los reglamentos sean correctos, manteniendo la seguridad como máxima prioridad y sin perjudicar la innovación y los beneficios que pueden derivarse de ella.
Si esto puede ocurrir globalmente y con personas que sigan las normas es una pregunta que, hasta ahora, no tiene respuesta.