Expertos en robótica exigen que se prohíba el desarrollo de máquinas con autonomía de los humanos.
Los robots ‘asesinos’ ya están aquí. ¿Cree que estamos de broma? ¿Qué eso sólo pasa en las películas? Pues la ficción se ha convertido en realidad. El ejército estadounidense está desarrollando unos robots con autonomía respecto al ser humano, lo que podría convertir al mundo en una película de ciencia ficción de Hombres versus Robots.
El proyecto se divide en el desarrollo de dos programas, FLA y CODE. El primero de ellos -Rápida, Ligera y Autónoma (FLA)-, implicará la búsqueda de unos drones que podrán volar a través de ventanas a 20 metros por segundo, sin ser controlados directamente por un ser humano, según señala el digital Wired. El segundo, conocido como CODE, pretende utilizar a los drones para trabajar junto a las tropas y compensar las fortalezas y debilidades de cada miembro.
¿Es moral o ético que unas máquinas independientes del ser humano puedan decidir sobre si alguien debe vivir o morir? Isaac Asimov ya se encargó de elaborar -en su momento, para la ficción- las leyes de la robótica, unas normas que parecen lógicas pues protegen al ser humano frente a una máquina diseñada para matar. ¿Es hora de llevar esas normas de la ficción a la realidad? Los expertos no se ponen de acuerdo, el debate está abierto entre sus defensores y detractores.
El profesor de ciencias informáticas en la Universidad de California, Stuart Russel, ha advertido que “estos robots asesinos podrían violar el Convenio de Ginebra y dejar a los seres humanos completamente indefensos, porque los Sistemas de Armas Autónomos Letales (LAWS, según sus siglas en inglés) podrían elegir a quién matar, por ejemplo, a cualquiera que exhiba un comportamiento amenazante”. El profesor Russel considera que «los debates deberían organizarse en reuniones científicas; con argumentos estudiados por los comités éticos. No hacer nada es un voto a favor de la continuación del desarrollo y despliegue».
Angela Kane, Alta Representante de la ONU para el desarme, ha expresado que los robots asesinos son sólo un «pequeño paso» y ha pedido su prohibición mundial. «Cualquier arma es terrible, pero si se puede activar sin intervención humana aún es peor. Esto complica y deshumaniza la guerra», afirma Angela Kane.
Entre sus defensores se incluye uno de los creadores, el doctor Sabine Hauert, profesor de robótica en la Universidad de Bristol, que dijo que su equipo «está trabajando en una tecnología diseñada para el uso positivo de los robots, como puede ser ayudar a las personas mayores y la exploración del espacio y el océano», según informó The Telegraph.
Otra defensora de estos avances, ha sido la profesora de ciencias informáticas en la Universidad de Carnegie Mellon, Manuela Veloso, quien afirmó que “la humanidad debería ser más receptiva a los avances en la robótica”. “Tenemos un camino por recorrer, pero creo que el futuro será positivo si los humanos y los robots pueden ayudarse y complementarse”. También añadió que su equipo “está investigando cómo las personas y los robots pueden comunicarse más fácilmente a través del lenguaje y los gestos, y cómo los robots y las personas pueden adaptarse mejor a sus representaciones de objetos, tareas y metas”.
La campaña ‘Stop Killer Robots’ es una de las muchas iniciativas que se centran en el establecimiento de normas más estrictas sobre el uso de la inteligencia artificial. Las Naciones Unidas están llevando a cabo reuniones para discutir la legalidad de dicha tecnología.
Las comunidades de la inteligencia artificial (IA) y la robótica se enfrentan a una decisión ética importante: si se apoya o se opone al desarrollo de Sistemas de Armamento Letales Autónomos (LAWS). Por eso, Naciones Unidas ha celebrado una serie de reuniones sobre los LAWS bajo los auspicios de la Convención sobre Ciertas Armas Convencionales (CCW) en Ginebra, Suiza. En pocos años, el proceso podría terminar en un tratado internacional que limite o prohíba las armas autónomas, como ocurrió con las armas láser cegadoras en 1995; o podría dejar en su lugar el ‘statu quo’, lo que lleva inevitablemente a una carrera armamentista.
Contra las leyes de la robótica.
Fue Isaac Asimov quien se encargó de redactar las tres leyes de la robótica para la ciencia ficción que aparecieron por primera vez en el relato ‘runaround’ (1942). Este nuevo desarrollo tecnológico pretende poner ‘patas arriba’ los límites establecidos hasta ahora. Por este motivo recordamos las tres leyes de la robótica, que dicen lo siguiente:
1ª ley: “Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño”.
2ª ley: “Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley”.
3ª ley: “Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley”.
LA GACETA