Los robots comienzan a convivir con nosotros. Por ejemplo, el gobierno de Dubái ha manifestado su propósito de que en el año 2030 un 25% de sus fuerzas de seguridad serán robots. Pero, eso si, no podrán arrestar a personas ni dispar armas. Del mismo modo podrán ejercer otras tareas, como recepcionista de un hotel, azazato de congresos, etc. Los ingenieros trabajan a marchas forzadas para dotar a estos ingenios mecánicos surgidos de la inteligencia artificial (IA) con algo parecido a la ética, pues ya existen en Arizona, por ejemplo, camiones sin nadie al volante, pilotados por algoritmos. Por esto desde 2004 ha surgido la roboética, una nueva disciplina en la Universidad de Montfort, en Leicester (Reino Unido), que intenta aplicar la ética humana a la robótica. Una forma de conseguirlo es incrustar en el código de programación del autómata las normas éticas de Buda, Aristóteles, Descartes y otros. Pero como dice la profesora de la mencionada universidad, «la roboética no es la ética de los robots, ni ninguna ética artificial, sino la ética humana de los diseñadores, fabricantes y usuarios de robots». Pese a esto, en marzo de 2018, por ejemplo, se produjo en Tempe (EE.UU.) el primer atropello mortal producido por un coche sin conductor. O, que Microsoft ha lanzado en China un agente conversacional llamado Xiaoice que gracias a sus capacidades emocionales, 660 millones de usuarios buscan consejo en él. Como dice el investigador Tilden, quien trabaja para Wow Wee Toys, en Hong Kong,“por experiencia, sé que el problema de conferir principios morales a los robots es como enseñarle a una hormiga a cantar. Todavía no hemos alcanzado ese nivel y los enigmas que enfrentarían robots y humanos resultarían en más tragedias que beneficios”, agregó. Finalmente, Hiroshi Ishiguru, investigador de la Universidad de Osaka y uno de los creadores de Repliee Q1 y Q2, un androide femenino, asegura que todavía es demasiado pronto para determinar el futuro de la ética robótica:“Si tenemos un vehículo inteligente, ¿quién se hace responsable cuando ocurre un accidente? -plantea-. Lo mismo podríamos preguntarnos acerca de los robots, que carecen de inteligencia humana. Son más parecidos a los vehículos que tenemos en la actualidad”. (Cf .A. ORTÏ, Manual de ética para robots, Magazine La Vanguardia, Barcelona 16/7/2019).
Inmersos en el debate sobre la Inteligencia Artificial, el Parlamento Europeo (PE), ha aprobado un Código Ético de Conducta: (T. HEADS, Ética e Inteligencia Artificial en la robótica: un debate abierto, https://www.thinkingheads.com/tendencia-global/robotica-inteligencia-artificial-etica-debate/)
Respetar el rechazo a ser cuidado por un robot.
Proteger la libertad humana frente a los robots.
Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.
Protección de la humanidad ante el riesgo de manipulación por parte de los robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes- que puedan generar una empatía artificial.
Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.
Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la brecha robótica puede ser esencial.
Restricción del acceso a tecnologías de mejora regulando la idea del transhumanismo y la búsqueda de mejoras físicas y/o mentales.
El modo de reflexionar y plantear los marcos éticos de los americanos y europeos es distinto: los europeos más institucionales y los americanos más flexibles. Pero hay parámetros comunes:
Los estándares con respecto a la IA deben ser altísimos en lo que respecta a la seguridad de los humanos: Para ello, es necesario un control ético y finalista de investigación, transparencia y cooperación en el desarrollo de la Inteligencia Artificial.
Los investigadores y diseñadores tienen una responsabilidad crucial: toda la investigación y desarrollo de la IA debe estar caracterizada por la transparencia, la reversibilidad y trazabilidad de los procesos.
Necesidad de control humano: Que en todo momento sean los humanos los que decidan qué pueden hacer o no los sistemas robóticos o basados en IA.
Gestionar el riesgo: Cuanto más grave sea el riesgo potencial, más estrictos deberán ser los sistemas de control y gestión del riesgo.
No desarrollo de la IA para realizar armas de destrucción.
Incertidumbre: Se reconoce que los avances en estos campos son inciertos, en ámbitos y alcances que en ciertos casos son inimaginables. Por ello, las regulaciones y marcos deben repensarse en el medio plazo cuando otros avances se hayan hecho realidad.
La diferencia fundamental esta en la concepción del transhumanismo, o mejora de las capacidades humanas, a través de la tecnología y que trascienden los límites humanos. Desde la óptica europea, el transhumanismo debería ser regulado ya que potencialmente puede ir en contra de mucho de los principios básicos de la Inteligencia Artificial como la igualdad de acceso y la dignidad humana, entre otros. Veremos.