Bruselas quiere que las plataformas digitales identifiquen los contenidos generados por IA para combatir la desinformación
La Comisión Europea multiplica los esfuerzos para combatir los potenciales efectos negativos de la IA generativa hasta que entre en vigor una legislación en la UE, previsiblemente en 2026
En pocas semanas, la Comisión Europea ha pisado el acelerador en materia de controles de los contenidos generados por inteligencia artificial (IA). Hasta tal punto, que empieza a haber un tanto de confusión sobre quién propone qué y en qué formato y para cuándo: que si un código de conducta voluntario global, que si un acuerdo previo a la legislación en vías de aprobación —la Ley IA actualmente en negociaciones en la Eur...
En pocas semanas, la Comisión Europea ha pisado el acelerador en materia de controles de los contenidos generados por inteligencia artificial (IA). Hasta tal punto, que empieza a haber un tanto de confusión sobre quién propone qué y en qué formato y para cuándo: que si un código de conducta voluntario global, que si un acuerdo previo a la legislación en vías de aprobación —la Ley IA actualmente en negociaciones en la Eurocámara— o, este mismo lunes, un compromiso de las plataformas digitales para identificar claramente, y de “inmediato”, los contenidos generados por IA para combatir la desinformación. Pese al barullo, una cosa queda clara: en Bruselas preocupa, y mucho, el potencial “lado oscuro” de estas nuevas tecnologías, sobre todo la IA generativa como es el ChatGTP, y le está faltando tiempo para intentar ponerle coto.
“Las nuevas tecnologías de IA (generativa) pueden ser una fuerza del bien y ofrecer nuevas posibilidades para incrementar la eficiencia y la expresión creativa. Pero también tienen un lado oscuro: suponen nuevos riesgos y un potencial de consecuencias negativas para la sociedad en materia de creación y diseminación de desinformación”, ha explicado la vicepresidenta de la Comisión Europea para Valores y Transparencia, Vera Jourová.
Por ello, ha anunciado, quiere que la IA generativa cuente con una vía “separada y dedicada” dentro del código voluntario de buenas prácticas para combatir la desinformación reforzado hace un año, pero que no preveía aún la fuerza de la IA generativa, y del que ya son signatarias 44 empresas, entre ellas Facebook, YouTube, Google o TikTok, aunque una de las más potentes, Twitter, acaba de abandonarlo.
Por un lado, Jourová propone que aquellos signatarios del código contra la desinformación que integren en sus servicios IA generativa, como es el caso, ha dicho, de Bing Chat de Microsoft o Bard de Google, creen las “salvaguardias necesarias” para impedir que “actores malignos” puedan usar sus sistemas “para generar desinformación”.
Además, las empresas firmantes deberán crear una tecnología que “reconozca” este tipo de contenidos en su sistema y que “indiquen claramente a los usuarios” que han sido creados no por una persona, sino por una máquina, poniendo una especie de etiqueta advirtiendo al respecto de los contenidos creados por IA. “Nuestra principal tarea es proteger la libertad de expresión, pero no veo por qué las máquinas deberían tener libertad de expresión”, ha indicado la comisaria checa.
La legislación europea relativa a las nuevas tecnologías avanza a pasos de gigante: el 25 de agosto entrará en vigor la La Directiva de Servicios Digitales (DSA por sus siglas en inglés), que establece obligaciones de transparencia y acceso sobre los algoritmos de las grandes plataformas digitales (las que tienen más de 45 millones de usuarios, el 10% del mercado potencial europeo). Esta normativa plantea entre otros la retirada rápida de contenidos ilegales, la protección de derechos fundamentales (restricciones al uso de datos de raza o religión) o multas que, en el caso de los gigantes tecnológicos, pueden llegar hasta el 6% de sus ingresos globales.
La DSA prevé ya el recurso a una especie de etiquetado, para “garantizar que un elemento de información, ya se trate de imagen, audio o vídeo generado o manipulado que se asemeja notablemente a personas, objetos, lugares u otras entidades o sucesos existentes y que puede inducir erróneamente a una persona a pensar que son auténticos o verídicos, se distinga mediante indicaciones destacadas cuando se presente en sus interfaces en línea”.
También la futura Ley de IA prevé exigencias más altas de transparencia para los modelos de IA generativa, que deberán dejar claro que sus contenidos han sido generados por IA.
Pero para que la DSA entre en vigor completamente faltan aún casi tres meses y, en el caso de la Ley de IA (AI Act), incluso años: el Parlamento Europeo debe aprobar su posición en el plenario de la semana que viene y solo entonces comenzarán las negociaciones para cerrar, con los Estados miembros, un texto común que Bruselas no cree pueda entrar totalmente en vigor antes de 2026. Todo ello, cuando la tecnología avanza sin parar.
Por ello, Jourová ha propuesto este lunes que la etiqueta para los contenidos generados por IA sea puesta en marcha “de inmediato” entre los signatarios del código contra la desinformación, en una manera de adelantar lo que ya será obligatorio a partir de finales de agosto.
“La etiqueta es una herramienta más rápida, queremos que las plataformas etiqueten la producción de IA de una manera tal que un usuario normal, que anda distraído con muchas cosas, vea claramente que no es un texto o imagen creada por gente real, sino que es un robot el que habla”, ha explicado. “Es importante que haya velocidad, con un etiquetado inmediato, y claridad”, ha insistido.
Muestra del fuerte ritmo que Bruselas quiere imponer es el hecho de que el principal responsable de la IA Act, el comisario de Mercado Interior, Thierry Breton, impulsa por su parte el denominado IA Pact, o Pacto IA, un “compromiso voluntario” de las empresas a cumplir de forma anticipada el máximo posible de normas previstas en la Ley de IA.
El Pacto, que fue acordado en mayo durante la visita a Bruselas del jefe de Google, Sundar Pichai, ha sido ya presentado oficialmente a los ministros del ramo de los Veintisiete y se espera que esté listo en el último trimestre del año para que pueda ser implementado hasta 2026. Según ha explicado también este lunes Breton a un grupo de periodistas, es una especie de “antecámara” de la Ley de IA que permitirá que las empresas que se adscriban a él tengan “acceso directo” a los equipos de la Comisión que prepararán la entrada en vigor del nuevo reglamento sobre IA, de manera que “comprendan qué implica y qué hábitos tienen que cambiar”, como la imposibilidad de introducir en la UE tecnología que permita los denominados sistemas de crédito social o los de identificación biométrica en espacios públicos como el reconocimiento facial.
El “error” de Twitter
Dos semanas después de que Twitter anunciara su retirada del código de buenas prácticas de la UE contra la desinformación en internet, que contiene unas 40 recomendaciones para una mejor cooperación con los servicios de verificación de información y evitar así la difusión de informaciones falsas, la comisaria Jourová ha calificado la decisión de “error” que podría tener consecuencias graves para el gigante online de Elon Musk, ha amenazado de forma velada.
“Creemos que es un error de Twitter, ha elegido la vía dura, la confrontación”, ha lamentado la responsable de Transparencia. Aunque ha reconocido que el código es voluntario, ha indicado de inmediato que salirse de él tiene sus consecuencias porque, a la larga, “quien quiera operar y hacer dinero en el mercado europeo, tendrá que ajustarse” a las leyes europeas.
“Que nadie se confunda: al abandonar el código, Twitter ha atraído mucha atención y sus acciones y cumplimiento con la legislación de la UE será objeto de escrutinio riguroso”, ha advertido.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.