martes, 20 de mayo de 2014

Las leyes de Asimov no sirven para controlar a los robots asesinos



Estos autómatas funcionarían por designios humanos, por los que son las leyes de la sociedad las que deben intervenir

THE PHYSICS ARXIV BLOG

En 1942 el escritor de ciencia ficción Isaac Asimov publicó un cuento titulado Círculo vicioso en el que presentaba las tres leyes que gobiernan el comportamiento de los robots. Las tres leyes de la robótica son las siguientes:

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Posteriormente introdujo una cuarta ley, o ley cero de la robótica, que estaba por encima de las demás:
0. Un robot no puede hacer daño a la humanidad o, por inacción, permitir que la humanidad sufra daño.

Desde entonces, las leyes de la robótica de Asimov se han convertido en una parte clave de la cultura de la ciencia ficción, que poco a poco se ha convertido en cultura de consumo general.

En los últimos años, los robotistas han hecho grandes avances en las tecnologías que nos acercan al tipo de robots avanzados que Asimov imaginó. Cada vez hay más robots y humanos trabajando juntos en fábricas, conduciendo coches, volando aeronaves e incluso echando una mano en casa.

Y así surge una pregunta interesante: ¿Necesitamos una serie de leyes como las de Asimov para gobernar el comportamiento de los robots según vayan siendo más avanzados?

Ahora tenemos algo parecido a una respuesta de la mano de Ulrike Barthelmess y Ulrich Furbach de la Universidad de Coblenza (Alemania). Han revisado la historia de los robots en la sociedad y defienden que el miedo que tenemos a su potencial para destruir a los humanos es infundado. Y afirman por lo tanto que las leyes de Asimov no son necesarias.

La palabra robot proviene del checo, de la palabra "robota", que significa trabajo forzado y que apareció por primera vez en una obra del autor checo Karel Capek. Después de esto, la versión adaptada al inglés de la palabra se extendió rápidamente junto con la idea de que estas máquinas podrían destruir a sus creadores con facilidad, un tema recurrente en la ciencia ficción desde entonces.

Pero Barthelmess y Furbach defienden que este miedo a las máquinas está enraizado mucho más profundamente en nuestra cultura. Aunque es cierto que las historias de ciencia ficción suelen presentar tramas en las que los robots destruyen a sus creadores, esta idea tiene una larga historia en la literatura.
Por ejemplo en el Frankenstein de Mary Shelley, donde un monstruo formado por distintas partes de cuerpos humanos se rebela contra Frankenstein, su creador, porque este se niega a crear una pareja para él.

Existe también una narración judía del siglo VXI sobre el Golem, en una de cuyas versiones un rabino construye una criatura de arcilla para proteger a la comunidad y promete desactivarlo después del Sabbath. Pero al rabino se le olvida y el golem se convierte en un monstruo que hay que destruir.

Barthelmess y Furbach afirman que el tono religioso subyacente en ambas historias implica que está prohibido que los humanos actúen como Dios. Y que cualquier intento por hacerlo siempre será castigado por el creador.

Existen episodios parecidos en la mitología griega en la que los humanos que se muestran arrogantes hacia los dioses también reciben un castigo, como Prometeo y Niobe. Por eso las historias de este tipo forman parte de nuestra cultura desde hace miles de años. Es de este miedo tan enraizado del que los autores de ciencia ficción se valen para crear historias sobre los robots.

Evidentemente existen conflictos reales entre humanos y máquinas. Durante la revolución industrial, por ejemplo, hubo muchísimo miedo a las máquinas y su capacidad manifiesta de cambiar el mundo con una profunda influencia sobre muchísima gente.

Barthelmess y Furbach señalan que en la Inglaterra del siglo XVIII, la gente puso en marcha un movimiento para destruir los telares que fue tan grave que el parlamento decretó que la destrucción de maquinaria era una ofensa capital. Los luditas se enfrentaron al ejército británico por estos temas incluso. "Había una especie de tecnofobia que dio lugar a luchas contra las máquinas", explican.
Está claro que es posible que haya enfrentamientos parecidos con la nueva generación de robots que se van a hacer cargo de las tareas repetitivas de las que se encargan trabajadores humanos en fábricas en todo el mundo, especialmente en Asia.

Sin embargo, la actitud hacia los robots en Asia es muy distinta. Países como Japón están a la cabeza del mundo en el desarrollo de robots para la automatización de las fábricas, y como asistentes humanos, en parte debido al envejecimiento de la población en Japón y los consabidos problemas sanitarios que traerá en un futuro no muy lejano.

Esa actitud se encarna en Astro Boy, un robot de ficción nombrado representante japonés para los viajes seguros al extranjero por el ministro de Asuntos Exteriores en 2007.
Por estos motivos Barthelmess y Furbach defienden que lo que nos da miedo de los robots no es la posibilidad de que se hagan con el control y nos destruyan, sino la posibilidad de que otros humanos los usen para destruir nuestro modo de vida en formas que no podemos controlar.

En concreto señalan que muchos robots están diseñados para protegernos. Por ejemplo, los vehículos y aviones automatizados se diseñan para conducir y volar con más seguridad de la que son capaces los humanos. Así que estaremos más seguros usándolos que no.

Una importante excepción es el número cada vez mayor de robots diseñados específicamente para matar humanos. Estados Unidos, en concreto, está usando drones para llevar a cabo matanzas dirigidas en países extranjeros. La legalidad, por no hablar de la moralidad de estas acciones se debate furiosamente.

Pero Barthelmess y Furbach dan por sentado que en última instancia los responsables de estos asesinatos siguen siendo humanos y que es la ley internacional, y no las leyes de Asimov, la que debería encargarse de las posibles implicaciones, o debería adaptarse para hacerlo.

Acaban su exposición planteando la posibilidad de convergencia entre humanos y robots en un futuro próximo. La idea es que los humanos incorporaremos distintas tecnologías en nuestros propios cuerpos, como memoria extra o capacidad de procesado, y acabaremos fusionándonos con los robots. En ese punto será la ley ordinaria quien tendrá que gestionar el comportamiento y las acciones de personas normales, y las leyes de Asimov quedarán obsoletas.

Este es un debate interesante que es poco probable que se resuelva pronto. Se agradecen vuestras opiniones en los comentarios.
Ref: arxiv.org/abs/1405.0961 : ¿Necesitamos las leyes de Asimov?

No hay comentarios:

Publicar un comentario