Tomado de lamarea.com
116 nombres destacados del sector firman el texto redactado por el experto
en inteligencia artificial Toby Walsh.
Elon Musk, fundador de Tesla, y Mustafa Suleyman, creador del
laboratorio de inteligencia artificial de Google, entre los signatarios.
Un centenar de nombres destacados del
mundo de la tecnología, entre ellos Elon Musk, fundador de Tesla, y Mustafa
Suleyman, creador del laboratorio de inteligencia artificial de Google, se han sumado a las decenas de organizaciones
sociales, movimientos religiosos, comunidades científicas y activistas que
desde hace varios años piden la prohibición de las armas autónomas letales,
popularmente conocidas como robots asesinos: máquinas capaces de
abatir objetivos humanos en el campo de batalla de forma totalmente
independiente (sin supervisión humana), a pesar de su incapacidad para
distinguir entre objetivos civiles y militares.
En total 116 líderes del ámbito tecnológico
de 26 países firmaron la carta (puede leer una
traducción al castellano al final de este artículo), redactada por el
científico y experto en inteligencia artificial Toby
Walsh, y dirigida a las Naciones Unidas, la organización en la
que año tras año los gobiernos aplazan la prohibición de esta tecnología
militar. Entre los signatarios hay tres directivos españoles: Toni Ferrate
(RO-BOTICS), José Manuel del Río (Aisoy Robotics) y Victor Martín (Macco
Robotics). “Sabes cómo aprenden [los robots asesinos], pero no qué van a hacer
con el conocimiento adquirido”, explicó Toby Walsh a La Marea en diciembre,
cuando tuvo lugar la última cita gubernamental para abordar el futuro de los
robots asesinos.
Los Estados que integran la ONU
tenían previsto reunirse en el marco de la Convención sobre ciertas armas
convencionales, la misma que en el pasado impidió, por ejemplo, el desarrollo
de las armas láser, y que ahora se encarga de dictaminar el futuro de las armas
autónomas letales (LAWS por sus siglas en inglés). Los Estados que participan
en esta convocatoria decidieron crear un nuevo grupo de expertos para
determinar los pros y contras de esta tecnología, pero finalmente volvieron a
posponer el encuentro de esta semana hasta noviembre. Desde que Naciones
Unidas aborda el futuro de los robots asesinos, los gobiernos que participan en
la revisión de esta convención han aplazado una y otra vez su
decisión. La última vez fue en diciembre de 2016 (La Marea fue el
único medio escrito que cubrió la cita).
Los expertos en inteligencia artificial,
líderes políticos y religiosos, e incluso premios Nobel de la Paz como Jody Williams advierten sobre los dilemas éticos y legales de permitir que
una máquina mate a seres humanos (no es posible determinar el responsable
legal de los errores que cometa el aparato), así como el peligro de desplegar
armas independientes que, por razones tecnológicas, están incapacitadas para
distinguir objetivos civiles y militares. Entre sus razones para prohibir el
desarrollo de estas armas también está la necesidad de impedir que prolifere
una nueva carrera armamentística.
Nosotros, compañías que construyen la
tecnología en inteligencia artificial y robótica que podría ser reutilizada
para desarrollar armas autónomas, nos sentimos particularmente responsables de
alzar la voz en este sentido. Recibimos con los brazos abiertos la decisión de
la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCAC)
para establecer un Grupo de Expertos Gubernamentales (GEG) sobre Sistemas
Armados Autónomos Letales. Muchos de nuestros investigadores e ingenieros están
impacientes por ofrecer asesoramiento técnico a sus deliberaciones.
Aplaudimos el nombramiento del
Embajador Amandeep Singh Gill de India al frente del GGE. Rogamos a las Altas
Partes Contratantes del GEG que trabajen intensamente en la búsqueda de medios
para prevenir una carrera armamentística de este tipo de armas, para proteger a
los civiles de su uso indebido y para evitar los efectos desestabilizadores de
esta tecnología. Lamentamos que el primer encuentro del GEG, el cual debería
haber empezado hoy (21 de agosto de 2017), haya sido cancelado debido al
reducido número de estados dispuestos a pagar su contribución financiera a
Naciones Unidas. Por tanto, exhortamos a las Altas Partes Contratantes a
duplicar sus esfuerzos durante el primer encuentro del GEG previsto para
noviembre.
Las
armas autónomas letales amenazan con convertirse en la tercera revolución
armamentística. Una vez desarrolladas, darán lugar a conflictos armados a
una escala nunca antes vista, y a una velocidad superior a la que los humanos
nunca podrán alcanzar. Estas pueden ser armas para causar terror, armas que los
déspotas y terroristas usen contra poblaciones inocentes, y armas susceptibles
de ser hackeadas para actuar de forma indeseable. No tenemos mucho tiempo para
actuar. Una vez que la Caja de Pandora se haya abierto, será difícil cerrarla.
Por tanto, rogamos a las Altas Partes Contratantes que encuentren la forma de
protegernos de estos peligros.