Nadia Calviño: “Si la inteligencia artificial está sobrevalorada o no, solo el tiempo lo dirá”
La vicepresidenta primera y ministra de Asuntos Económicos y Transformación Digital, responde sobre usos, límites, manejo de los datos, sesgos, soberanía digital, el famoso ChatGPT y su nueva versión
Unos mil expertos han pedido al menos seis meses para hallar una respuesta cuando discutimos de inteligencia artificial. Las mentes digitales son tan poderosas que nadie sabe controlarlas ni hacia qué lugar nos llevan. Por una vez, la ética podría ralentizar el desarrollo infinito de la tecnología. Jamás en la historia de la ciencia (tal vez desde el átomo) el ser humano ha sentido que la tecnología esté sometida al beneficio social. En esta entrevista, a través del correo electrónico por motivos de una intensa agenda de la vicepresidenta primera, habita repleto ese pensamiento. Usos, límites, manejo de los datos, sesgos, soberanía digital, el famoso ChatGPT y su nueva versión. Preguntamos por todo ello a Nadia Calviño (La Coruña, 1968), vicepresidenta primera y ministra de Asuntos Económicos y Transformación Digital
Desde fuera, el famoso ChatGPT y similares son excelentes herramientas para estudiantes perezosos con profesores perezosos. ¿Cuál es su lectura?
Estamos inmersos en una revolución tecnológica que avanza de forma exponencial y que claramente ha de ser encauzada para que la tecnología esté al servicio de las personas y se protejan nuestros derechos y valores democráticos. Los chatbots son una de las aplicaciones más revolucionarias de la inteligencia artificial, con una rápida expansión por su claro valor añadido en muchas actividades económicas. El debate iniciado en el ámbito educativo, probablemente parecido al de épocas pasadas con la introducción de las calculadoras o enciclopedias, ilustra bien las oportunidades y los riesgos de las nuevas tecnologías.
En cualquier otra industria, el equivalente al fracaso de ChatGPT (con sus innumerables fallos) se habría considerado un error estrepitoso. Como una calculadora que se equivocara en sumas y restas...
Cualquier nueva tecnología puede registrar fallos iniciales. Esos errores nos han hecho ver también los riesgos que podemos correr si una inteligencia artificial se entrena mal. Justamente hace muy poco tiempo, en el Congreso Internacional de la Lengua Española en Cádiz, se habló mucho de la importancia de crear una inteligencia artificial ética, sin sesgos ni riesgos, que nos permita aprovechar sus beneficios sociales y económicos. El desarrollo tecnológico debe tener a las personas en el centro y en España hemos sido pioneros en recoger esta visión humanista en la Carta de Derechos Digitales, que ha servido de base para la Declaración de Principios y Derechos Digitales de la Unión Europea, la Carta Iberoamericana o el Pacto de Canarias, firmado entre los países miembros de la OCDE [la organización que reúne a las naciones más ricas del planeta].
Este debate subraya la importancia de tener un buen marco de regulación y supervisión del desarrollo algorítmico y de la inteligencia artificial (IA). En España lo estamos haciendo con la creación de la primera Agencia de Supervisión de la Inteligencia Artificial de la UE y el proyecto piloto de aplicación de la nueva normativa puesto en marcha con la Comisión Europea.
Una vez más, corremos el riesgo de que la inteligencia artificial esté en manos de Facebook, Apple, Microsoft, Amazon, Google... El capitalismo de plataformas estadounidense. ¿Cómo evitarlo?
En Estados Unidos los datos se ceden por consentimiento a las grandes tecnológicas; en otros países se los quedan los Gobiernos y en Europa queremos desarrollar un modelo en el que los ciudadanos sean dueños de sus datos. De hecho, recientemente hemos logrado, junto a Microsoft, traer a España la información de los niños españoles que se almacenó fuera durante la pandemia. Estamos desplegando inversiones públicas por 20.000 millones de euros con los fondos europeos Next Generation para que nuestras empresas y ciudadanos puedan aprovechar las oportunidades de la transformación digital. Hemos puesto en marcha proyectos emblemáticos, en computación cuántica o neurotecnología, que nos pondrán a la vanguardia en Europa en estos temas.
Los algoritmos funcionan con una inmensa cantidad de datos. Pueden usarse para salvar vidas humanas o para que una compañía de seguros niegue una póliza a un cliente de alto riesgo. ¿Dónde trazar la línea?
La protección de datos es fundamental para garantizar los derechos de las personas en los entornos digitales. Con la Carta de Derechos Digitales estamos liderando el establecimiento de marcos legales para la protección de estos derechos. Estamos inspirando un modelo que ha merecido que la Comisión Europea nos haya elegido para poner en marcha el piloto del futuro Reglamento de Inteligencia Artificial. Ese marco regulatorio de la inteligencia artificial y de los datos serán dos temas prioritarios de la presidencia española de la UE, en la segunda mitad del año.
Como sociedad debemos tomar decisiones sobre el lugar que la inteligencia artificial ocupa en nuestras vidas, su impacto colectivo, las democracias y las generaciones futuras. ¿Hemos hecho esa reflexión?
Hicimos esta reflexión nada más llegar al Gobierno. Teníamos muy claro que si queríamos el desarrollo de una sociedad digital libre, abierta e inclusiva, era necesario definir unas reglas justas para el crecimiento de la nueva economía digital, garantizando el carácter social de la transformación tecnológica. El desarrollo de la tecnología y de los entornos digitales deberá perseguir la sostenibilidad medioambiental y el compromiso con las generaciones futuras.
La inteligencia artificial no existe. Es fruto del ser humano y de su capacidad para desarrollar programación avanzada. ¿Cuáles son los límites éticos?
Es fundamental que las decisiones y actividades en el entorno digital respeten los principios éticos que guían el diseño y los usos de la inteligencia artificial. Por eso adoptamos la Carta de Derechos Digitales, que debe orientar nuestras propuestas jurídicas de futuro y asegurar que los derechos y libertades de los que gozamos los españoles son iguales en el mundo online y en el offline, y se incorporan en todos los grandes proyectos; pensemos en el ámbito de la neurociencia.
Es esencial que las nuevas tecnologías no reproduzcan sesgos de género, ideológicos o de lengua. Como los algoritmos de aprendizaje automático se alimentan con datos históricos, corremos el riesgo de perpetuar prejuicios del pasadoNadia Calviño, vicepresidenta primera y ministra de Asuntos Económicos y Transformación Digital
Una de las principales amenazas es la discriminación algorítmica. Por ejemplo, los sesgos por razón de género. ¿Cómo combatirla?
Es fundamental que las nuevas tecnologías no reproduzcan o agranden sesgos de género, ideológicos, geográficos, o de lengua. Como los algoritmos de aprendizaje automático se alimentan con datos históricos, corremos el riesgo de perpetuar prejuicios del pasado. Es también esencial incorporar a mujeres a carreras STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), para introducir su visión en la tecnología. No podemos dejar a nuestro talento femenino fuera del diseño de un modelo de país y de una tecnología que está aún por desarrollar todo su potencial. Y es básico que la inteligencia artificial entienda y piense en español y las otras lenguas cooficiales, que son parte de nuestra identidad. Por eso hemos lanzado el proyecto estratégico de la Nueva Economía de la Lengua.
Necesitamos talento. ¿Va a perderse el relato de las humanidades sumergido en todo este mundo avasallador de la ciencia de datos?
¡Al contrario! Justamente las nuevas tecnologías requieren una aproximación multidisciplinar. Es importante que incorporemos diferentes voces, como filósofos, científicos sociales, artistas y personas de las humanidades. No pueden quedar fuera. Por eso, hemos creado las cátedras ENIA [Estrategia Nacional de Inteligencia Artificial], para promover el desarrollo de la investigación científica en este ámbito desde una perspectiva multidisciplinar. También estamos terminando de perfilar los detalles de la convocatoria para la creación de la Red Española de Excelencia de Inteligencia Artificial, que permitirá potenciar el talento nacional, atraer el internacional y generar programas de investigación interdisciplinares, destinados a cruzar inteligencia artificial y ciencias sociales o IA e impacto ambiental, entre otras áreas.
Este universo requiere una aproximación multidisciplinar. Es importante que incorporemos diferentes voces, como filósofos, científicos sociales, artistas y personas de las humanidadesNadia Calviño, vicepresidenta primera y ministra de Asuntos Económicos y Transformación Digital
¿Cómo valora el uso militar de la inteligencia artificial? ¿Un mal necesario en época de incertidumbre?
La inteligencia artificial, como tantas otras, es una tecnología de doble uso. Puede ser utilizada tanto para fines civiles como militares, con beneficios y riesgos asociados. En el ámbito militar supone avances en seguridad nacional, ayudando a mejorar la capacidad de defensa de un país.
Todas las épocas tienen tecnologías que prometen cambiar el mundo. ¿La inteligencia artificial está sobrevalorada?
Si está sobrevalorada o no, solo el tiempo lo dirá. Nuestra obligación es trabajar para que, sea cual sea el futuro, estemos preparados. Para que nuestras infraestructuras digitales y redes de comunicaciones resulten las más resilientes y con más capacidad de crecimiento y expansión. Para que que nuestras empresas, independientemente de su tamaño, adopten las herramientas necesarias para mejorar su productividad y para que compitan local y globalmente y creen puestos de trabajo de calidad. Para que nuestros ciudadanos tengan todas las capacidades necesarias en el cambio digital. En definitiva, tenemos que asegurarnos de que la inteligencia artificial y cualquier otra tecnología ayuden a las personas a mejorar sus vidas. En ello trabajamos, utilizando los fondos europeos del Plan de Recuperación.