¿Sueñan los androides con batallas?
La ONU estudia el uso bélico de los robots. Los científicos alertan del peligro de dejar que las máquinas decidan matar
Guillermo Altares
Madrid, El País
¿Se puede dar la licencia para matar a una máquina? ¿Hay alguna forma de que los robots respeten las leyes de la guerra, la Convención de Ginebra? Estas preguntas han llegado a Naciones Unidas, porque han dejado de ser hipótesis de trabajo o planteamientos de ciencia-ficción para convertirse en un dilema real, ante el que las principales potencias militares del mundo deberán pronunciarse. Actualmente al menos media docena de países mantienen abiertos programas de armas con capacidad de actuar de forma autónoma (aunque todavía no de matar), los llamados robots asesinos (Killer Robots), armas autónomas letales en la terminología de la ONU. Por segunda vez, este organismo internacional tratará el tema en Ginebra dentro de la Convención de Armas Convencionales (CCW, en sus siglas en inglés) en noviembre. "El asunto está en Naciones Unidas porque la comunidad internacional se ha dado cuenta de que no se trata de una nueva arma: esto cambia la guerra", asegura Steve Gross, responsable de la división de armamento de Human Rights Watch.
"Todavía no existen robots asesinos; pero sí la tecnología", afirma Noel Sharkey, profesor de Inteligencia Artificial en la Universidad de Sheffield (Inglaterra), que lleva desde hace siete años dedicado a poner el asunto en la agenda internacional y que encabeza una campaña de 52 organizaciones llamada Stop Killer Robots en la que están desde la International Human Rights Clinic de la Universidad de Harvard hasta HRW o Amnistía Internacional. "El debate es sobre lo lejos que podemos llegar: nuestro objetivo es que se prohíba la delegación de matar, que no se pueda dejar esa decisión en manos de una máquina", prosigue el profesor Sharkey. El uso militar de los robots también tiene defensores, que anticipan un futuro en el que se maten los robots y no las personas.
El temor a que los robots se conviertan en asesinos ha sido siempre una pesadilla de la ciencia-ficción con películas como Terminator o Robocop. De hecho, Isaac Asimov formuló en 1942 en su relato Círculo vicioso las famosas tres leyes de la robótica, destinadas a garantizar que, por acción o por omisión, siguiendo órdenes o no, un robot no pueda herir a un ser humano. Pero el futuro ya está aquí o, por lo menos, muy cerca (curiosamente el relato de Asimov transcurre en 2015). "Hemos llegado muy lejos en la capacidad de autonomía, aunque se necesita una inteligencia artificial muy sofisticada de la que todavía estamos lejos. Algunos científicos creen que faltan unos 10 años", asegura Steve Gross, de HRW. Angela Kane, la Alta Representante de la ONU para el Desarme, señaló recientemente: "Cualquier arma de guerra es terrible y si la puedes activar sin intervención humana, mucho más. Cada vez se habla más de la creciente automatización de la guerra y estamos muy cerca de que existan armas totalmente automatizadas".
Robot militar fabricado por Boston Dynamics.
Desde la I Guerra Mundial, donde se utilizaron por primera vez ametralladoras, tanques y aviones de forma masiva, incluso antes, ya que muchos historiadores militares creen que Roma conquistó el mundo conocido gracias a que sus armas eran mucho mejores que las de los demás, la tecnología ha formado parte de la guerra y la automatización es un desarrollo lógico. Noel Sharkey explica que ya se utiliza en los sistemas para interceptar misiles, como el escudo israelí Cúpula de Hierro, cuya eficacia se debe en parte a su automatismo (una máquina siempre será mucho más rápida que un ser humano). Los drones también han representado una revolución tecnológica, ya que aviones tripulados a distancia, desde miles de kilómetros en algunos casos, se han convertido en clave en los enfrentamientos bélicos actuales. Pero en todos los casos, seres humanos, militares profesionales casi siempre, son los que toman la decisión clave: disparar.
Actualmente, numerosos países desarrollan programas, algunos bastante avanzados, de robots militares con alta capacidad de autonomía. El x47-B, promovido por el Northrop Grumman dentro del Programa de Sistemas de Combate no Tripulados (UCAS) de la Armada de Estados Unidos, puede aterrizar y despegar solo (sin ningún tipo de control a distancia) en un portaaviones. Reino Unido ha probado este verano un aparato similar en Australia. China está desarrollando el Anjian (Espada Negra), otro avión autónomo. En tierra, la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) ha desarrollado un vehículo blindado autónomo, de siete toneladas, que tiene el poco tranquilizador nombre de Crusher (Aplastador). Israel ha creado el Guardium, que puede patrullar solo y lleva armas, aunque la decisión de disparar es siempre humana. Corea del Sur tiene el Samsung SGR-1, que patrulla la frontera con Corea del Norte y está trabajando en sistemas para coordinar robots y humanos en el campo de batalla.
Y no se trata solo de robots pensados para combatir. Noel Sharkey describe máquinas autónomas diseñadas para disparar gas pimienta y pelotas de goma contra los manifestantes. A finales de 2013, Google compró Boston Dynamics, la octava compañía de robots que el gigante de Internet ha adquirido en los últimos dos años. Pero esta es diferente: no venden al público sino que se dedican a investigar para el Pentágono. Sus principales logros se llaman BigDog (Gran Perro) y WildCat (Gato Salvaje), dos aparatos capaces de moverse en terrenos escarpados.
Ninguno de estos dos modelos ha sido probado, que se sepa, en combate real. Como ha escrito Huw Williams, el experto en sistemas no tripulados de la revista militar Jane’s, "ni siquiera los programas más avanzados de robots asesinos han logrado máquinas que puedan actuar por sí solas". "La autonomía es, por ahora, bastante limitada. Pueden ir de un lugar a otro siguiendo unos parámetros, eso sí, pero, en términos de pensamiento, no estamos todavía ahí", agregó.
El objetivo de la campaña Stop Killers Robots es que nunca se lleguen a desarrollar armas con capacidad para decidir matar o no matar por sí solas, como nunca se llegaron a desarrollar los láseres cegadores, prohibidos antes de su creación. Esto es lo que se debatirá en la ONU el 13 y 14 de noviembre, aunque todavía la comunidad internacional está muy lejos de llegar a un acuerdo. Los robots militares tienen algunos defensores, que consideran que si se utilizasen correctamente podrían reducir las bajas y, sobre todo, no es sencillo que los países renuncien a poderosos programas militares que otros también tienen en marcha. Sin embargo, la inmensa mayoría de la comunidad científica considera que representan un peligro, no la capacidad de autonomía en sí, pero sí la delegación de la decisión de matar. Por no hablar de que es imposible que una máquina pueda ser responsable ante la Convención de Ginebra.
"La guerra sin reflexión es una matanza mecánica", aseguró Christof Heyns, el Alto Representante de la ONU para las ejecuciones extrajudiciales, arbitrarias y sumarias cuando este tema se trató por primera vez en Naciones Unidas, el pasado mayo. "De la misma forma que acabar con cualquier vida humana merece una cierta deliberación, la decisión de permitir a máquinas matar merece, por lo menos, una reflexión colectiva internacional".
Guillermo Altares
Madrid, El País
¿Se puede dar la licencia para matar a una máquina? ¿Hay alguna forma de que los robots respeten las leyes de la guerra, la Convención de Ginebra? Estas preguntas han llegado a Naciones Unidas, porque han dejado de ser hipótesis de trabajo o planteamientos de ciencia-ficción para convertirse en un dilema real, ante el que las principales potencias militares del mundo deberán pronunciarse. Actualmente al menos media docena de países mantienen abiertos programas de armas con capacidad de actuar de forma autónoma (aunque todavía no de matar), los llamados robots asesinos (Killer Robots), armas autónomas letales en la terminología de la ONU. Por segunda vez, este organismo internacional tratará el tema en Ginebra dentro de la Convención de Armas Convencionales (CCW, en sus siglas en inglés) en noviembre. "El asunto está en Naciones Unidas porque la comunidad internacional se ha dado cuenta de que no se trata de una nueva arma: esto cambia la guerra", asegura Steve Gross, responsable de la división de armamento de Human Rights Watch.
"Todavía no existen robots asesinos; pero sí la tecnología", afirma Noel Sharkey, profesor de Inteligencia Artificial en la Universidad de Sheffield (Inglaterra), que lleva desde hace siete años dedicado a poner el asunto en la agenda internacional y que encabeza una campaña de 52 organizaciones llamada Stop Killer Robots en la que están desde la International Human Rights Clinic de la Universidad de Harvard hasta HRW o Amnistía Internacional. "El debate es sobre lo lejos que podemos llegar: nuestro objetivo es que se prohíba la delegación de matar, que no se pueda dejar esa decisión en manos de una máquina", prosigue el profesor Sharkey. El uso militar de los robots también tiene defensores, que anticipan un futuro en el que se maten los robots y no las personas.
El temor a que los robots se conviertan en asesinos ha sido siempre una pesadilla de la ciencia-ficción con películas como Terminator o Robocop. De hecho, Isaac Asimov formuló en 1942 en su relato Círculo vicioso las famosas tres leyes de la robótica, destinadas a garantizar que, por acción o por omisión, siguiendo órdenes o no, un robot no pueda herir a un ser humano. Pero el futuro ya está aquí o, por lo menos, muy cerca (curiosamente el relato de Asimov transcurre en 2015). "Hemos llegado muy lejos en la capacidad de autonomía, aunque se necesita una inteligencia artificial muy sofisticada de la que todavía estamos lejos. Algunos científicos creen que faltan unos 10 años", asegura Steve Gross, de HRW. Angela Kane, la Alta Representante de la ONU para el Desarme, señaló recientemente: "Cualquier arma de guerra es terrible y si la puedes activar sin intervención humana, mucho más. Cada vez se habla más de la creciente automatización de la guerra y estamos muy cerca de que existan armas totalmente automatizadas".
Robot militar fabricado por Boston Dynamics.
Desde la I Guerra Mundial, donde se utilizaron por primera vez ametralladoras, tanques y aviones de forma masiva, incluso antes, ya que muchos historiadores militares creen que Roma conquistó el mundo conocido gracias a que sus armas eran mucho mejores que las de los demás, la tecnología ha formado parte de la guerra y la automatización es un desarrollo lógico. Noel Sharkey explica que ya se utiliza en los sistemas para interceptar misiles, como el escudo israelí Cúpula de Hierro, cuya eficacia se debe en parte a su automatismo (una máquina siempre será mucho más rápida que un ser humano). Los drones también han representado una revolución tecnológica, ya que aviones tripulados a distancia, desde miles de kilómetros en algunos casos, se han convertido en clave en los enfrentamientos bélicos actuales. Pero en todos los casos, seres humanos, militares profesionales casi siempre, son los que toman la decisión clave: disparar.
Actualmente, numerosos países desarrollan programas, algunos bastante avanzados, de robots militares con alta capacidad de autonomía. El x47-B, promovido por el Northrop Grumman dentro del Programa de Sistemas de Combate no Tripulados (UCAS) de la Armada de Estados Unidos, puede aterrizar y despegar solo (sin ningún tipo de control a distancia) en un portaaviones. Reino Unido ha probado este verano un aparato similar en Australia. China está desarrollando el Anjian (Espada Negra), otro avión autónomo. En tierra, la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) ha desarrollado un vehículo blindado autónomo, de siete toneladas, que tiene el poco tranquilizador nombre de Crusher (Aplastador). Israel ha creado el Guardium, que puede patrullar solo y lleva armas, aunque la decisión de disparar es siempre humana. Corea del Sur tiene el Samsung SGR-1, que patrulla la frontera con Corea del Norte y está trabajando en sistemas para coordinar robots y humanos en el campo de batalla.
Y no se trata solo de robots pensados para combatir. Noel Sharkey describe máquinas autónomas diseñadas para disparar gas pimienta y pelotas de goma contra los manifestantes. A finales de 2013, Google compró Boston Dynamics, la octava compañía de robots que el gigante de Internet ha adquirido en los últimos dos años. Pero esta es diferente: no venden al público sino que se dedican a investigar para el Pentágono. Sus principales logros se llaman BigDog (Gran Perro) y WildCat (Gato Salvaje), dos aparatos capaces de moverse en terrenos escarpados.
Ninguno de estos dos modelos ha sido probado, que se sepa, en combate real. Como ha escrito Huw Williams, el experto en sistemas no tripulados de la revista militar Jane’s, "ni siquiera los programas más avanzados de robots asesinos han logrado máquinas que puedan actuar por sí solas". "La autonomía es, por ahora, bastante limitada. Pueden ir de un lugar a otro siguiendo unos parámetros, eso sí, pero, en términos de pensamiento, no estamos todavía ahí", agregó.
El objetivo de la campaña Stop Killers Robots es que nunca se lleguen a desarrollar armas con capacidad para decidir matar o no matar por sí solas, como nunca se llegaron a desarrollar los láseres cegadores, prohibidos antes de su creación. Esto es lo que se debatirá en la ONU el 13 y 14 de noviembre, aunque todavía la comunidad internacional está muy lejos de llegar a un acuerdo. Los robots militares tienen algunos defensores, que consideran que si se utilizasen correctamente podrían reducir las bajas y, sobre todo, no es sencillo que los países renuncien a poderosos programas militares que otros también tienen en marcha. Sin embargo, la inmensa mayoría de la comunidad científica considera que representan un peligro, no la capacidad de autonomía en sí, pero sí la delegación de la decisión de matar. Por no hablar de que es imposible que una máquina pueda ser responsable ante la Convención de Ginebra.
"La guerra sin reflexión es una matanza mecánica", aseguró Christof Heyns, el Alto Representante de la ONU para las ejecuciones extrajudiciales, arbitrarias y sumarias cuando este tema se trató por primera vez en Naciones Unidas, el pasado mayo. "De la misma forma que acabar con cualquier vida humana merece una cierta deliberación, la decisión de permitir a máquinas matar merece, por lo menos, una reflexión colectiva internacional".