Este a?o, el tema de la inteligencia artificial (IA) ha dominado las conferencias de tecnología de todo el mundo. Los ejecutivos de las principales empresas de Silicon Valley han promovido constantemente el potencial transformador de la IA en un intento transparente de consolidar su papel en la narrativa general.
La IA se ha presentado como un copiloto, una fuerza del bien que democratizará el acceso a la información, mejorará la atención sanitaria e incluso resolverá el cambio climático. Muchos líderes son acusados de perpetuar el mito de que la IA no sustituirá a los puestos de trabajo humanos, al tiempo que proclaman que las consideraciones éticas son fundamentales para sus iniciativas de IA.
Pero si nos atrevemos a mirar detrás del telón, estas grandiosas declaraciones podrían ser más una cortina de humo que una realidad, lo que pone de manifiesto una importante desconexión entre la retórica y la acción.
Puntos clave
- La defensa pública de la IA ética por parte de las grandes tecnológicas contradice sus acciones internas, como despidos y cancelaciones de proyectos, lo que lleva a cuestionar su integridad y la necesidad de un verdadero marco ético.
- El cese por parte de Microsoft de su equipo de ética y Sociedad de la IA, a pesar de promover principios de IA responsable, puede parecer que tiene que ver con dar prioridad a la velocidad de comercialización frente a las salvaguardias éticas.
- El gobierno del Reino Unido ha disuelto su consejo asesor sobre ética de la IA, lo que supone un cambio para abordar los riesgos existenciales de la IA y un enfoque más integrador de la ética de la IA, aunque esto ha suscitado problemas de confianza en la comunidad tecnológica.
- “El compromiso con una IA responsable parece cada vez más cosmético cuando las empresas o los gobiernos desmantelan equipos especializados en ética bajo el pretexto de una reestructuración más amplia.”
?
Desajuste entre retórica y acción
A principios de este a?o, el Financial Times informó de una preocupante incoherencia entre los compromisos públicos de las principales empresas tecnológicas y sus decisiones operativas reales, especialmente en lo que respecta a la IA ética. Por ejemplo, Meta, Google, Amazon y Twitter han defendido enérgicamente la importancia de la IA ética, aunque han reducido sus equipos dedicados a la ética de la IA.
Esta reducción no se está produciendo de forma aislada, sino que coincide con una coyuntura crítica en la que las tecnologías de IA se están integrando profundamente en la vida de los consumidores, al tiempo que salen a la luz posibles usos indebidos.
A medida que Microsoft sigue ampliando agresivamente los límites de la IA, más recientemente con el despliegue de su ?Copilot? basado en ChatGPT para Microsoft 365 y Teams, su compromiso ético con la IA es cada vez más cuestionado.
El despido de unos 10.000 empleados, incluido el equipo de ética y Sociedad de la IA, ha levantado más de una ceja. Esta reducción masiva parece paradójica dado el enfoque declarado de la compa?ía en la IA responsable, que incluye principios como la responsabilidad y la inclusión.
El momento es increíblemente delicado, ya que coincide con el lanzamiento de importantes productos de IA y con una introspección en toda la industria sobre el despliegue ético de estas tecnologías. Aunque la Oficina de IA Responsable de Microsoft sigue funcionando, la disolución de un equipo especializado en ética corre el riesgo de crear un vacío en la supervisión ética cuando lo que está en juego es extraordinariamente importante.
La decisión estratégica de prescindir del capital humano técnico dedicado a las consideraciones éticas sugiere una preocupante priorización que puede favorecer la velocidad de comercialización y la destreza tecnológica por encima de las salvaguardias éticas integrales.
En un golpe de ironía, Elon Musk cuestionó estas acciones incluso cuando disolvió su equipo de ética de IA en X. Este cambio indica que, a pesar de toda su retórica, estas empresas consideran que las consideraciones éticas son negociables, a pesar de que afirman estar apostando por la IA responsable.
La disolución de estos equipos puede inclinar la balanza desde las consideraciones éticas hacia los imperativos publicitarios, con repercusiones sociales potencialmente graves.
Estas acciones podrían frustrar los crecientes llamamientos a la transparencia y la rendición de cuentas, ya que cada vez está más claro que dejar las prácticas de IA responsable en un segundo plano podría sentar las bases para consecuencias perjudiciales no deseadas, como la difusión de desinformación y los riesgos para las comunidades vulnerables.
Repensar la gobernanza de la IA: El Reino Unido disuelve su consejo asesor sobre ética
El Gobierno británico también ha disuelto recientemente su consejo asesor sobre ética de la IA. Este consejo formaba parte del Centro de ética e Innovación de Datos (CDEI). Se centraba en el impacto de la IA en sectores como el bienestar y la aplicación de la ley. Ahora, el gobierno está cambiando de enfoque. Le preocupan más los riesgos existenciales más importantes relacionados con la IA avanzada.
Un nuevo grupo, el Frontier AI Taskforce, dirigirá este esfuerzo. Dirigido por el inversor de capital riesgo Ian Hogarth, el grupo de trabajo pretende situar al Reino Unido a la cabeza en el tratamiento de los riesgos importantes de la IA, y el gobierno británico afirma que ahora consultará a una gama más amplia de expertos.
Esto podría hacer que su enfoque de la ética de la IA fuera más adaptable e inclusivo. Sin embargo, el abrupto final de la junta del CDEI plantea problemas. Pone en peligro el trabajo y los conocimientos previos y ha hecho tambalearse la confianza en la comunidad tecnológica.
A pesar de la reciente noticia de la disolución de su consejo asesor sobre ética, el Reino Unido acogerá irónicamente la primera cumbre mundial sobre seguridad de la IA los días 1 y 2 de noviembre, con el objetivo de erigirse en mediador entre grandes actores como Estados Unidos, China y la UE en este sector tecnológico en rápida evolución.
El Primer Ministro Rishi Sunak, que concibe el Reino Unido como centro neurálgico de la seguridad de la IA, advierte del posible uso indebido de la tecnología por parte de delincuentes y terroristas.
La cumbre, que tendrá lugar en Bletchley Park, reunirá a personalidades influyentes, entre ellas la Vicepresidenta de EE.UU. Kamala Harris y el CEO de Google DeepMind Demis Hassabis, para iniciar un diálogo internacional sobre la regulación de la IA.
Pero la iniciativa también plantea una dura disyuntiva. ?Debe el Reino Unido aspirar al liderazgo mundial en seguridad de la IA ignorando las preocupaciones locales inmediatas?
Ritmo frente a seguridad
El panorama competitivo de la IA está llevando a las empresas a priorizar la velocidad sobre la seguridad. Tecnologías de IA generativa como ChatGPT y DALL-E están surgiendo más rápido que nuestra comprensión colectiva de sus implicaciones éticas.
Esta loca carrera hacia la innovación puede sacrificar el tiempo y los recursos necesarios para llevar a cabo un escrutinio ético crítico, desencadenando potencialmente tecnologías cuyas consecuencias no estamos preparados para gestionar.
Algunos expertos del sector sostienen que la integración de consideraciones éticas en el desarrollo de productos de IA podría aportar mayores beneficios. Sin embargo, esto se hace a expensas de la disolución de unidades especializadas cuyo único objetivo son las dimensiones éticas de la IA.
La ausencia de estos centros concentrados de conocimientos especializados puede diluir la atención prestada a la ética, convirtiéndola en una consideración marginada en lugar de un elemento central del desarrollo.
La brecha entre el discurso público y las acciones empresariales es evidente. Las grandes tecnológicas abogan públicamente por una IA ética, pero sus empresas parecen contradecir estas declaraciones con acciones como despidos y cancelaciones de proyectos. Esto crea un debate público que no se ajusta a la realidad de la conducta empresarial.
Lo esencial
En la encrucijada de la innovación tecnológica y las consideraciones éticas, ya no puede ignorarse la creciente brecha entre las declaraciones públicas de las grandes tecnológicas y sus prácticas reales.
Su compromiso con una IA responsable parece cada vez más cosmético cuando desmantelan equipos especializados en ética bajo el pretexto de una reestructuración corporativa más amplia.
Esto rompe la ilusión de una gobernanza ética y corre el riesgo de erosionar la confianza del público, legitimando sus operaciones en la sociedad.
El descuido estratégico de la ética, considerada erróneamente como un “centro de costos”, expone una miopía que no se corresponde con el impacto generalizado y duradero que la IA está a punto de tener en nuestro mundo.
Al dar prioridad a las ganancias inmediatas del mercado sobre las consideraciones sociales a largo plazo, estas empresas se arriesgan a una reacción pública negativa y a posibles ramificaciones legales que podrían obstaculizar la innovación y el crecimiento futuros.
La discordancia entre la defensa pública de la ética por parte de las grandes tecnológicas y la toma de decisiones interna enturbia el discurso público y cuestiona la integridad de estas organizaciones. Esto crea un teatro de debate ético que se parece poco a la realidad entre bastidores.
A medida que seguimos integrando la IA en el tejido de nuestras vidas y sistemas sociales, el imperativo de un marco ético sólido y genuino nunca ha sido mayor.
Fracasar en este sentido no es sólo arriesgar la confianza de los ciudadanos, sino jugar con el paisaje moral de nuestro futuro.
A medida que se hacen más evidentes los fracasos del mantra de Silicon Valley de “moverse rápido y romper cosas”, abandonar el marco ético en torno a la IA no solo es arriesgado, sino que es una abdicación de nuestra responsabilidad colectiva de dirigir la tecnología hacia la mejora de la sociedad en lugar de hacia su detrimento.