EL FUTURO LLEGÓ

Terminator entre nosotros: El riesgo de generar robots de guerra

Los sistemas de armas letales autónomas– armas robóticas con la capacidad de localizar, seleccionar y atacar objetivos humanos sin intervención humana– podrían ser una realidad. En julio, más de 3.000 de científicos en la investigación de inteligencia artificial y robótica firmamos una carta abierta pidiendo un tratado que prohíba las armas letales autónomas. Otros 17.000 signatarios de otros campos tan diversos como la física, la filosofía y el derecho, entre lo cuales se incluyen Stephen Hawking, Elon Musk, Steve Wozniak y Noam Chomsky, se unieron al reclamo.

¿El escenario de 'Terminator' a la vuelta de la esquina? El doctor Amnon Eden, líder del proyecto Sapience anticipa las amenazas que pueden cernirse para la humanidad con el desarrollo de un robot con inteligencia artificial, escribe 'The Daily Express'. El científico afirma que esta puede fácilmente esclavizar o acabar con la vida humana. Eden estima además que la humanidad se encuentra en un momento que puede ser irreversible: el mundo apocalíptico descrito en la saga protagonizada por Arnold Swarzenegger puede ser una realidad.
 
"Hoy en día la sociedad no tiene suficiente información acerca de los debates existentes en la comunidad científica a raíz de la creación y desarrollo de la inteligencia artificial y su influencia. En el año 2016 los gobiernos, corporaciones y políticos deben estar más atentos al análisis de los riesgos que aquella trae consigo".
 
Numerosas figuras del mundo de la alta tecnología, como Elon Musk y Steve Wozniak, confirman que la inteligencia artificial puede representar la principal amenaza a la existencia de la humanidad en el próximo futuro. Es una posición que comparte el profesor de la Universidad de Oxford Nick Bostrom, que llama la atención sobre el hecho de que no exista todavía una estricta regulación jurídica en ese campo. Bostrom denuncia que mientras los gobiernos dedican una significativa financiación al control sobre el cambio climático y la ingeniería genética, no hacen nada para controlar la evolución de la inteligencia artificial.   
 
Basta coin imaginar que al encender el televisor y vemos un campo de batalla urbano y distante donde unos robots persiguen y matan a niños desarmados. Es posible que esto parezca ciencia ficción, una escena salida del Exterminador, quizá. Pero, a menos que actuemos con rapidez, los sistemas de armas letales autónomas– armas robóticas con la capacidad de localizar, seleccionar y atacar objetivos humanos sin intervención humana– podrían ser una realidad.
 
En julio, más de 3.000 de científicos en la investigación de inteligencia artificial y robótica firmamos una carta abierta pidiendo un tratado que prohíba las armas letales autónomas. Otros 17.000 signatarios de otros campos tan diversos como la física, la filosofía y el derecho, entre lo cuales se incluyen Stephen Hawking, Elon Musk, Steve Wozniak y Noam Chomsky, se unieron al reclamo.
 
La carta fue titular en los diarios en todo el mundo, y se mencionó en más de 2,000 artículos en más de 50 países. ¿Así que qué hay que debatir?
 
Una nueva clase de robots
 
Todos estamos familiarizados, en distinto grado, con tres artículos de la tecnología moderna:
 
El vehículo sin conductor: uno le da las indicaciones y el auto elige la ruta y conduce por su propia cuenta, “examinando” el camino por medio de la cámara que trae abordo.
 
El software de ajedrez: uno le indica que gane y él elige a dónde mover sus piezas y qué piezas enemigas capturar.
 
El dron armado: uno lo conduce remotamente por medio de un enlace de video, elige el blanco y lanza el misil.
 
Un arma letal autónoma podría combinar elementos de esos tres artículos: imaginémonos eso en lugar de que una persona esté a cargo de controlar el dron armado, el software de ajedrez y de tomar sus propias decisiones tácticas así como de usar tecnología de visión desde un vehículo sin conductor para navegar e identificar sus blancos.
 
En el Reino Unido – uno de al menos seis estados que están llevando a cabo investigaciones, desarrollo y pruebas completas de armas autónomas– el Ministro de Defensa ha dicho que es probable que dichas armas sean factibles en la actualidad para fines aéreos y navales. Dos programas de la Agencia de Proyectos de Investigación Avanzada para la Defensa de Estados Unidos (DARPA, por sus siglas en inglés) ya proporcionan indicios sobre cómo se podrían utilizar las armas autónomas en contextos urbanos. El programa Rápido de Autonomía de Peso Ligero observará pequeñas aeronaves de alas giratorias maniobrar sin ayuda externa a altas velocidades en áreas urbanas y en el interior de edificios. 
 
El Programa de Operaciones Colaborativas en Áreas sin Acceso planea crear equipos de vehículos aéreos autónomos que podrían llevar a cabo cada uno de los pasos de una misión de ataque donde la interferencia enemiga hace imposible la comunicación con un comando humano. En un comunicado de prensa que describe el programa, DARPA lo comparó de manera memorable con “lobos cazando en manadas coordinadas”.
 
No hay duda de que, conforme la tecnología mejore, las armas autónomas llegarán a ser altamente eficaces. ¿Pero eso significa que son una buena idea?
 
Robótica rebelde
 
Es posible que, al pensar sobre la guerra, nos imaginemos una degradación total del estado de derecho, pero de hecho la guerra tiene sus propios códigos de conducta legalmente reconocidos. Muchos de los expertos en el campo, los cuales incluyen a Human Rights Watch, El Comité Internacional de la Cruz Roja y el Relator Especial de la ONU Christof Heyns, han cuestionado si es que las armas autónomas pueden observar dichas leyes. Su cumplimiento requiere de juicios subjetivos y situacionales que son considerablemente más complicados que las tareas relativamente fáciles de localizar y matar, y las cuales, bajo el estado actual de la inteligencia artificial, estarían más allá de la capacidad de un robot.
 
Incluso los países que están desarrollando armas completamente autónomas reconocen estos límites. En 2012, por ejemplo, el Departamento de la Defensa de Estados Unidos emitió una directiva en la que señala que dichas armas deben diseñarse de tal manera que les permita a los operadores “ejercer niveles apropiados de juicio humano por encima del uso de la fuerza”. La directiva específicamente prohíbe la selección autónoma de blancos humanos, incluso en el contexto de la defensa.
 
¿Robots guerreros para salvar vidas?
 
Pero algunos expertos en robótica, como Ron Arkin, creen que los sistemas de armas letales autónomas podrían de hecho reducir la cantidad de víctimas civiles en tiempos de guerra. El argumento se basa en la presunción implícita ceteribus paribus que, después del advenimiento de las armas autónomas, las oportunidades específicas para matar –los números, las ocasiones, las locaciones, los lugares, las circunstancias, las víctimas– serán exactamente las mismas que hubiesen ocurrido con la participación de soldados humanos.
 
Esto sería como asumir que los misiles de crucero sólo se utilizarán exactamente en los contextos donde anteriormente se habían usado las lanzas. Es obvio que las armas autónomas son completamente diferentes a los soldados humanos y serían usadas de maneras completamente distintas, como armas de destrucción masiva, por ejemplo.
 
Además, parece poco probable que los robots militares siempre tendrán su “programación humanitaria” al 100%. No se puede aseverar de manera consistente que los soldados bien capacitados de las naciones civilizadas sean tan malos para seguir las reglas de guerra que incluso los robots puedan hacerlo mejor, y a la vez afirmar que las naciones rebeldes, los dictadores y los grupos terroristas son tan buenos para seguir las reglas de guerra que nunca usarán a los robots en maneras que violen dichas leyes.
 
Más allá de los problemas tecnológicos del cumplimiento de reglas, existen también problemas morales. La Cláusula de Martens de las Convenciones de Ginebra –un conjunto de tratados que proporciona el marco para las leyes del conflicto armado– declara que “La persona humana se encuentra bajo la protección de los principios de la humanidad y los dictados de la conciencia pública”. Ese es un sentimiento que comparten países como Alemania, el cual ha declarado que “no aceptará que la decisión sobre la vida y la muerte sea tomada solamente por un sistema autónomo”.

Dejá tu comentario