Los deepfakes están empezando a alterar lo que conocemos como real, desdibujando la línea entre realidad y ficción, y políticos y famosos se están convirtiendo en objetivos fáciles de los contenidos manipulados.
Desde el audio deepfake del alcalde de Londres, Sadiq Khan, que parece hacer comentarios incendiarios justo antes de que la nación conmemore el Día del Armisticio, hasta Taylor Swift, víctima de imágenes NSFW generadas por IA, el poder de manipular se está democratizando rápidamente para que lo utilice cualquiera, en cualquier lugar.
Y mientras OpenAI lanza Sora -sin duda una maravilla técnica en la creación de simulaciones avanzadas de vídeo del mundo real-, la capacidad de distinguir entre medios reales y falsos va a ser una cuestión difícil para 2024.
Dado el gran volumen de deepfakes que circulan, está claro que los vendedores, los reguladores y los usuarios tienen que mejorar a la hora de identificar y limitar la propagación de los deepfakes, y los consumidores necesitan toda la ayuda posible para distinguir la realidad que hay detrás de los contenidos.
?Qué está haciendo la industria de la inteligencia artificial (IA) para ayudar, y cómo podemos ayudarnos a nosotros mismos? Sigue leyendo para averiguarlo.
Puntos clave
- Los recientes incidentes de deepfake, como el audio de Sadiq Khan y las imágenes de Taylor Swift, ponen de relieve la creciente amenaza de los medios manipulados.
- El lanzamiento de Sora por OpenAI subraya el reto de distinguir entre contenido real y falso.
- Proveedores como Microsoft han aplicado restricciones a la creación de deepfakes de famosos, pero los usuarios aún pueden encontrar formas de eludir estas políticas.
- Están surgiendo iniciativas reguladoras en EE.UU. y la UE para hacer frente a los riesgos de las deepfakes, incluida la legislación dirigida a la pornografía deepfake y la desinformación electoral.
- Los usuarios pueden buscar indicios de deepfakes, como rasgos inusuales o incoherencias, y utilizar herramientas de detección de deepfakes, aunque estos métodos no siempre son infalibles.
- En última instancia, los usuarios deben seguir siendo escépticos ante los contenidos digitales, ya que es probable que los deepfakes persistan hasta que los vendedores y los reguladores apliquen estrategias de mitigación.
La crisis de los deepfakes y la respuesta de los proveedores de IA
Poco después de las repercusiones negativas de los deepfakes de Taylor Swift, Microsoft prohibió totalmente la creación de imágenes de famosos. Anteriormente, la organización había restringido la creación de imágenes de personajes públicos y de desnudos.
Muchos otros proveedores, como OpenAI y Google, mantienen políticas similares de moderación de contenidos para prohibir la creación de contenidos de personajes públicos con herramientas como DALL-E 3 e ImageFX.
Pero con algunas indicaciones creativas y jailbreaks, los usuarios pueden enga?ar a las herramientas de generación de imágenes y voz de IA para que generen contenidos que violen sus políticas de moderación de contenidos.
Por ejemplo, en los canales de Telegram en los que circulaban deepfakes de Swift, algunos usuarios escribieron mal deliberadamente los nombres de famosos y utilizaron otras palabras para insinuar desnudez, con el fin de enga?ar a los generadores de imágenes para que crearan imágenes falsas.
La realidad es que cada vez que los proveedores de IA crean nuevas políticas de moderación, los malos actores intentarán encontrar una solución. Aunque proveedores como OpenAI y Google están intentando aumentar estas políticas poniendo marcas de agua digitales a las imágenes generadas por IA, aún queda mucho camino por recorrer.
Leena Ammanath, líder de ética de confianza en IA y tecnología de Deloitte, dijo a Techopedia:
?A medida que la IA se vuelve más sofisticada, resulta más fácil crear y difundir este contenido malicioso, lo que puede causar un da?o significativo a la reputación.
Detectar y limitar la difusión de falsificaciones profundas y otros contenidos falsos es esencial para mantener a raya la desinformación, infundir confianza en los sistemas de IA y evitar da?os públicos.?
Un vistazo al panorama normativo actual
A día de hoy, el panorama legal y normativo en torno a la creación de deepfakes está en pa?ales, con reguladores en EE.UU. y en toda la UE que intentan frenar el desarrollo de pornografía y contenido electoral deepfake.
Al menos 14 estados de EE.UU. han introducido legislación para combatir el riesgo de que los deepfakes difundan desinformación en torno a las elecciones.
éstas van desde proyectos de ley sobre requisitos de divulgación, como los de Alaska, Florida y Colorado, que obligarían a colocar divulgaciones en los medios creados con IA que se emitan para influir en unas elecciones, hasta prohibiciones totales, como la de Nebraska, que impediría la difusión de deepfakes antes de unas elecciones.
En la Unión Europea, el Consejo y el Parlamento Europeo han acordado una propuesta para tipificar como delito el intercambio no consentido de imágenes íntimas, incluidos los deepfakes generados con IA. Asimismo, el Reino Unido tiene previsto penalizar el intercambio de imágenes deepfake en el marco de un proyecto de ley sobre seguridad en línea.
Aunque estos pasos son peque?os, ponen de relieve que los reguladores están estudiando más de cerca la regulación de los riesgos en torno a los contenidos generados por IA, aunque por ahora, en última instancia, depende de los usuarios reconocer los deepfakes cuando los ven.
Cómo detectar las deepfakes
Una forma en que los usuarios pueden protegerse contra los deepfakes es ser conscientes de algunos de los rasgos distintivos de las imágenes, vídeos y audio deepfake.
Algunos de los signos reveladores de una imagen deepfake incluyen:
- Representaciones inusuales de las manos
- Bordes rugosos alrededor de la cara
- Textura de la piel incoherente
- Secciones borrosas
- Iluminación o distorsión inusuales
Algunos de los signos reveladores de un vídeo deepfake son:
- Movimientos antinaturales de ojos y manos/cuerpo
- Si los movimientos de los labios están sincronizados con el audio
- Iluminación/sombras inusuales
En este ejemplo creado con Sora que aparece a continuación, puedes ver un movimiento antinatural en las piernas mientras la mujer de rojo camina.
Dicho esto, detectar deepfakes suele ser más fácil de decir que de hacer.
Ammanath dijo: ?Aunque a veces los humanos pueden detectar deepfakes, la tarea se está volviendo más difícil a medida que las tecnologías utilizadas para generar contenidos falsos son más capaces?.
?Los algoritmos avanzados de Al/ML -en particular las redes neuronales- pueden entrenarse para detectar deepfakes y otros contenidos falsos en tiempo real, limitando así su propagación. Las redes neuronales que han sido entrenadas para detectar deepfakes pueden reconocer patrones reveladores e incoherencias sutiles dentro de archivos multimedia manipulados.?
Para destacar cómo puede utilizarse la IA, Ammanath explicó que los algoritmos de detección basados en IA pueden captar sutiles desvanecimientos o píxeles en escala de grises alrededor de la cara de una persona en fotografías alteradas.
Por esta razón, el uso de detectores de falsificaciones profundas, que incorporan algoritmos de aprendizaje automático y redes neuronales entrenados en grandes conjuntos de datos de vídeos e imágenes legítimos y manipulados, es una forma excelente de identificar con mayor fiabilidad los contenidos falsos.
Lo que está en juego en a?o electoral
Con las elecciones estadounidenses que tendrán lugar a lo largo de 2024, los consumidores y las empresas deben estar preparados para un repunte de los contenidos generados por IA, ya que los actores deshonestos intentan explotar esta tecnología para promover sus argumentos o posiciones políticas.
Una de las formas más sencillas de que esto ocurra es creando deepfakes de figuras políticas en las que parezca que defienden o respaldan posturas políticas, en un intento de influir en la forma en que los votantes emiten su voto.
Ya lo hemos visto con la llamada falsa de Biden, en la que un mago de Nueva Orleans afirmó que un asesor de la campa?a de Dean Phillips le pagó para crear un audio falso del presidente Biden con el fin de disuadir a los votantes de votar en las primarias de Nuevo Hampshire del 23 de enero de 2023.
La clave para enfrentarse a este tipo de amenazas es repasar los signos reveladores de los deepfakes y, cuando sea posible, utilizar detectores de deepfakes para detectarlos y comprobar dos veces la fuente. Hacerlo ayudará a mitigar las posibles consecuencias del uso indebido de la IA durante la temporada electoral.
Conclusión
Los deepfakes están aquí para quedarse, y hasta que los proveedores de IA y los reguladores encuentren la forma de reducir su propagación, corresponde a los usuarios aprender a detectarlos. Ya no existe una bala de plata para poder confiar en la autenticidad de los contenidos digitales.
Aunque esto no mitigará la angustia o el da?o causado a quienes son víctimas de deepfakes, ayudará a evitar la propagación de la desinformación.