Enlaces de accesibilidad

Científicos temen uso militar de robots asesinos


Las armas autónomas podrían ser una realidad en cuestión de años.
Las armas autónomas podrían ser una realidad en cuestión de años.

En una carta a la ONU, personalidades del mundo científico advierten que a diferencia de los drones, que necesitan una intervención humana, los "robots asesinos" pueden tomar decisiones de manera autónoma y les preocupa el rumbo que tomarán en los próximos años.

Miles de investigadores y de personalidades del mundo científico, entre ellos el astrofísico Stephen Hawking y el cofundador de Apple Steve Wozniak, lanzaron un llamamiento para pedir la prohibición de las armas ofensivas autónomas, los "robots asesinos".

"Las armas autónomas seleccionan y atacan objetivos sin intervención humana", recuerda la carta, publicada en coincidencia con la apertura de la Conferencia Internacional Conjunta de Inteligencia Artificial realizada en Buenos Aires.

A diferencia de los drones, que necesitan una intervención humana, los "robots asesinos" pueden tomar decisiones de manera autónoma y preocupan tanto a la ONU como a la comunidad científica y humanitaria, que ya han mantenido dos reuniones de expertos sobre la cuestión en Ginebra.

Los más críticos con estas armas apuntan a que no distinguen entre civiles y combatientes y podrían programar ataques con efectos desproporcionados para la población civil.

Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla, pero los científicos recuerdan que eso abarataría el costo de ir a la guerra y podría provocar una nueva carrera armamentista.

"A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener. Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas, dictadores y señores de la guerra que deseen perpetrar limpiezas étnicas, etc.", dice el texto.

La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad", pero "el inicio de una carrera armamentista de inteligencia artificial militar es una mala idea", según los firmantes.

Toby Walsh, profesor de Inteligencia Artificial de la Universidad Nueva Gales del Sur de Australia y uno de los firmantes, sostuvo que "todas las tecnologías pueden ser usadas para el bien o para el mal".

"La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego", añaden los firmantes, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París o Berlín.

Pese a advertir sobre el peligro de su uso, Walsh fue enfático en la defensa del desarrollo de la inteligencia artificial argumentando que puede ser usada para enfrentar muchos de los problemas más acuciantes de la sociedad actual como la inequidad y la pobreza, el creciente costo del cuidado de la salud y el impacto del calentamiento global.

Por su parte, Ricardo Rodríguez, investigador en inteligencia artificial de la estatal Universidad de Buenos Aires, le quitó dramatismo al tema al señalar que se está lejos de hacer robots bélicos asesinos". Pero recordó que "hace 20 años se hablaba del peligro de la clonación y fíjese cómo estamos ahora".

XS
SM
MD
LG