Inteligencia militar, por supuesto

El desarrollo de la robótica dispara una carrera de armamentos entre China, Rusia y Estados Unidos

Un dron de la Fuerza Aérea de Estados Unidos en el aeropuerto de Kandahar (Afganistán).Josh Smith (Reuters)

Las tres leyes de la robótica inventadas por el novelista Isaac Asimov a mediados del siglo XX, cuando aún no existía ni el robot de la cocina, llevan unos años pujando por saltar a la estantería de no ficción. Son simples y elegantes: un robot nunca dañará a un humano. Obedecerá a los humanos siempre que esto no viole lo anterior. Y se protegerá a sí mismo siempre que esto no viole nada de lo anterior. Los expertos en robótica reconocen desde hace décadas...

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

Suscríbete para seguir leyendo

Lee sin límites

Las tres leyes de la robótica inventadas por el novelista Isaac Asimov a mediados del siglo XX, cuando aún no existía ni el robot de la cocina, llevan unos años pujando por saltar a la estantería de no ficción. Son simples y elegantes: un robot nunca dañará a un humano. Obedecerá a los humanos siempre que esto no viole lo anterior. Y se protegerá a sí mismo siempre que esto no viole nada de lo anterior. Los expertos en robótica reconocen desde hace décadas que la tercera ley es útil, porque cualquier sistema autónomo debe autoprotegerse si no quiere desintegrarse o perecer. Eso es buena ingeniería. Pero lo que está en discusión ahora es la primera ley, que un robot no debe dañar a un humano, y eso no es tanto una cuestión de ingeniería como de ética y política internacional. Y es una cuestión bien importante.

Los propios científicos de la computación llevan desgañitándose para pedir una regulación internacional de la inteligencia artificial desde 2009, cuando la élite del campo celebró en Asilomar, en la bahía de Monterrey, California, una conferencia interesante. El propio lugar de la reunión ya era un signo deslumbrante de lo que pretendían, porque Asilomar fue justo el sitio donde 35 años antes se habían reunido los biólogos moleculares para recomendar unas normas de seguridad internacionales sobre la modificación genética de los virus y las bacterias. En 2009, la principal preocupación de sus herederos, los científicos de la computación, era el uso militar de la inteligencia artificial. Y sigue siéndolo, cada vez con más intensidad y mayores presiones políticas.

El Congreso de Estados Unidos creó hace dos años una Comisión de Seguridad Nacional sobre Inteligencia Artificial (NSCAI), que ha presentado en marzo su informe. Quien espere ahí una llamada a la regulación internacional del riesgo robótico se va a llevar el disgusto de su vida, porque lo que recomienda la NSCAI es acelerar las tecnologías de inteligencia artificial para preservar la seguridad nacional y no perder el primer set frente a China y Rusia. Esto recuerda a la idea clave que condujo a la creación del proyecto Manhattan: si la bomba atómica era posible, Estados Unidos debía construirla antes que Hitler. Las regulaciones ya vendrían después. Es la lógica militar, ¿no es cierto? La NSCAI defiende ahora “la integración de las tecnologías de inteligencia artificial en todas las facetas de la guerra”. ¡Más madera!

El contrapeso diplomático está viniendo de Europa, como de costumbre. En enero, el Parlamento Europeo emitió unas directrices que proponen que la inteligencia artificial de uso militar no debe sustituir en ningún caso a las decisiones humanas. Otra ley de Asimov, aunque sospecho que se puede reducir a las tres normas originales (lo dejo como deberes para el lector). La Comisión Europea publicó en abril el primer marco legal internacional para garantizar que la inteligencia artificial sea “segura y ética”. Los científicos de la computación están más bien del lado de Europa, y 4.500 de ellos se han pronunciado en contra de que un robot pueda tomar la decisión de matar a una persona. El problema son los que no pueden hablar porque trabajan para el Pentágono.

Más información

Archivado En