Saltar al contenido principal
Mundo Ciencia

La amenaza de los robots asesinos

Primera modificación:

Redifusión. En 2015, los medios del mundo se hicieron eco de la carta abierta firmada por varios científicos pidiendo la prohibición de las armas ofensivas autónomas, los llamados "robots asesinos".

Campaña en contra de los robots asesinos.
Campaña en contra de los robots asesinos. © AFP
Anuncios

La idea de guerreros androides para protegernos no es nueva. Ya en la mitología griega Talos era un autómata de bronce encargado de defender la isla de Creta de posibles invasores. Siglos después, en 1984, Hollywood crea Terminator y la lucha del humano frente a una máquina asesina.

También vale la pena recordar la leyenda medieval judía del Golem. El rabino Loew, del gueto de Praga, le da vida a una figura humana hecha de barro a la que llama Golem: este autómata realizaba tareas domésticas, como barrer la sinagoga, pero debía también proteger a los habitantes del gueto, como guardaespaldas de la comunidad judía.

El rabino Loew dándole vida al Golem.
El rabino Loew dándole vida al Golem. Ilustración de Mikoláš Aleš, 1899

Hoy algunos gobiernos y empresas investigan y avanzan en el camino de convertir esa leyenda en realidad. No ya con bronce o barro, sino con algoritmos para lograr la más sofisticada inteligencia artificial armamentista.

La preocupación de los científicos que firmaron la carta pidiendo su prohibición es que la decisión sobre la vida o la muerte no quede ya en manos de los humanos, sino de máquinas.

Para Wendell Wallach, jefe del Grupo de Estudios Éticos en la Universidad Tecnológica de Yale, la presencia de las armas autónomas no es una fantasía de un futuro lejano: "De alguna manera, las armas autónomas podrían ser desplegadas inmediatamente, pero la pregunta es cuán inteligentes serán. (…)Ya tenemos armas autónomas ‘tontas’. La preocupación es sobre los sistemas cada vez más inteligentes que decidirán del objetivo y podrِían matar a humanos. Estos todavía no fueron desplegados pero hay una gran probabilidad que estén disponibles en el futuro cercano".

Un ejemplo de arma autónoma tonta son las minas antipersonales que una vez colocadas se activan automáticamente cuando algo o alguien las pisa. Estas armas fueron prohibidas por el Tratado de Ottawa de 1997 pero siguen siendo usadas y causando estragos en la población civil en varias regiones alrededor del mundo.

Wallach subraya que otro tipo de arsenal autónomo ya está siendo utilizado: "Ya existen algunos tipos de robots autónomos. La mayoría son de defensa, como los sistemas de protección en algunos barcos que de manera automática interceptan y destruyen los misiles antes de que éstos lleguen a la embarcación, incluso antes de que cualquier humano se dé cuenta de que un misil está en camino. Hay otros sistemas similares pero son todos defensivos, por el momento no hay ninguno diseñado para atacar a humanos".

Si están planeando cruzar como quien no quiere la zona desmilitarizada entre las dos Coreas, tengan cuidado de no tropezar con el Samsung SGR-1. No es un teléfono inteligente sino un robot fuertemente armado. El Samsung, de Corea del Sur, fue diseñado para detectar, apuntar y disparar desde una distancia de más de tres kilómetros a cualquier intruso. Pero por ahora, antes de disparar, un humano debe aprobar la operación.

La empresa estatal Industrias Aeroespaciales Israelí creó por su parte el Harpy, un vehículo aéreo no tripulado que porta una fuerte ojiva explosiva. El Harpy puede detectar, atacar y destruir radares de manera autónoma. Sus críticos dicen que esta arma no tiene los dispositivos de seguridad necesarios para discernir si el radar está al lado de, por ejemplo, una escuela.

Campaña en contra de los robots asesinos.
Campaña en contra de los robots asesinos. Facebook

Entre estos críticos está Denise García, profesora de Ciencias Políticas en la Universidad Northeastern y miembro de la Campaña Internacional contra los Robots Asesinos, quien dice que los sistemas de reconocimiento automático de un objetivo, como en el Harpy, pueden funcionar en un entorno despejado, pero es poco probable que en un futuro cercano estos sistemas mejoren su proceso de razonamiento para distinguir los detalles. Por otra parte, advierte que algunos gobiernos podrían usar los autómatas para aterrorizar a sus propios ciudadanos o de países vecinos.

Wendell Wallach considera que la regulación de estas armas depende de cómo se defina el rol del humano: "Para que la campaña contra los robots asesinos funcione y logre prohibir este tipo de armas se tiene que definir con claridad cuál será el control humano. (…) Por ejemplo, si los robots son enviados a un campo de batalla por un comandante donde prácticamente sabemos que las únicas personas que van a matar son soldados enemigos, en ese caso, ¿son verdaderamente armas autónomas o simplemente una extensión del arsenal militar?"

Wallach menciona uno de los puntos a favor de los robots asesinos pero que igual podría tener consecuencias catastróficas: "La utilización de robots-soldados podría enlentecer o detener la muerte de tus propios soldados. Eso puede ser considerado como algo éticamente positivo. Por otro lado, muchos de nosotros estamos muy preocupados que estos robots puedan socavar el robusto sistema de órdenes y control que tienen los militares, y que accidentalmente puedan comenzar nuevos tipos de enfrentamiento" y ser responsables de "un aumento en la muerte de civiles en conflictos que comenzaron simplemente porque los países tenían a mano este tipo de armas autónomas".

En Estados Unidos, ya se vende un rifle computarizado semiautónomo que permite al tirador definir un blanco, por ejemplo una manzana, que la computadora interna del rifle identifica. Según sus creadores el arma asegura una excelente precisión, pero la especialista en seguridad informática Runa Sandvik logró hackear el sistema y "hacer que el rifle dispare a un objetivo que no era el que fue determinado por el tirador". Según ella, "en el futuro, la tecnología continuará avanzando y si la gente continúa poniendo computadoras en rifles, entonces puede ser que nos encontremos en una situación en la que las armas hagan algo que no era nuestra intención inicial".

En cuanto a la leyenda del Golem, un día éste se rebela, destruye gran parte del gueto y ataca a quienes debía defender. El rabino lo convierte nuevamente en barro y dice a los presentes: "No olviden este evento. Que sea una lección para todos ustedes. Aun el Golem más perfecto, cuya vida fue creada para protegernos a nosotros, puede cambiar fácilmente a una fuerza destructiva. Por lo tanto tratemos cuidadosamente aquello que es fuerte, de la misma manera que nos postramos bondadosa y pacientemente a todo aquello que es débil. Todo tiene su momento y su lugar".

En nuestra realidad de una tecnología avasalladora, queda por determinar en qué momento y en qué lugar veremos la aparición de robots asesinos. A no ser que la campaña para detener su desarrollo gane la batalla.

Entrevistados: Wendell Wallach, jefe del Grupo de Estudios Éticos en la Universidad Tecnológica de Yale, Denise García, profesora de Ciencias Políticas en la Universidad Northeastern y miembro de la Campaña Internacional contra los Robots Asesinos, y Runa Sandvik, especialista en seguridad informática.

 

Para mantenerse informados pueden seguirnos en nuestra página Facebook y en Twitter

Pueden hacernos llegar sus opiniones sobre la nota a través de nuestro formulario de contacto.

Para comunicarse con el periodista envíe un email a hugo.passarello [@] rfi.fr o sígalo en Twitter.
 

Boletín de noticiasNoticias internacionales esenciales todas las mañanas

Siga toda la actualidad internacional descargando la aplicación RFI

Ver los episodios restantes
Página no encontrada

El contenido que solicitó no existe o ya no está disponible.