El sacerdote y experto en inteligencia artificial considera la dimensión religiosa, exclusivamente humana Philip Larrey: "Hablar de límites éticos para la IA no es una cuestión tecnológica, sino filosófica"

Philip Larrey
Philip Larrey

Philip Larrey es sacerdote católico y experto en inteligencia artificial. Además ejerce como profesor de Filosofía en el Boston College y es presidente del consejo asesor de la plataforma colaborativa Humanidad 2.0, y ha visitado recientemente Blanquerna para hablar de los riesgos éticos de la IA

Hablamos con él de los límites de la IA, de los peligros, y también de las oportunidades que ofrece, para la Iglesia y para la humanidad, esta incipiente herramienta, que nada más nacer resulta aparentemente indispensable

"No hay nada inherente en la IA que contradiga la dignidad del ser humano o que pueda dañar la naturaleza de las personas. Dependerá siempre de cómo la usemos"

"Tenemos que estar atentos a no programar las máquinas con los mismos prejuicios que tenemos como programadores"

Philip Larrey es sacerdote católico y experto en inteligencia artificial. Además ejerce como profesor de Filosofía en el Boston College. También es presidente del consejo asesor de la plataforma colaborativa Humanidad 2.0.

La IA tiene una limitación en cuanto a distinguir normas morales, éticas, y su premisa a es dar una respuesta, sea cual sea. Esto puede derivar en un grave problema para la humanidad y para el planeta, si no se ponen medios a corto plazo, dada la velocidad a la que evoluciona. Hablamos de estas fronteras con el profesor, y también de las oportunidades que ofrece esta incipiente herramienta, que nada más nacer resulta aparentemente indispensable.

El viaje de tus sueños, con RD

-La religión y las nuevas tecnologías, como concepto, no parecen casar. Y sin embargo, en esta pandemia hemos visto usos inéditos de la tecnología en el ámbito religioso. ¿Por qué?

-Creo por necesidad. Sobre todo en el ámbito de la educación, los institutos de enseñanza se vieron en la obligación de adoptar los medios adecuados para continuar los cursos fuera de los edificios normales. Recuerdo que en la Universidad Lateranense en Roma, logramos obtener las licencias del software de Cisco que se llama “WebEx”, gracias a la generosidad de Tae Yoo, vicepresidente de la compañía San José, California. A día de hoy, sigue siendo una amiga y es una persona estupenda. Otras universidades han tenido que hacer lo mismo. La mayoría de las universidades católicas no estaban preparadas para este cambio de metodología, pero han podido afrontar la crisis con relativa facilidad y salir adelante. 

La inteligencia artificial está agitando un mundo que no esperábamos: la  religión

Lo curioso es que la Iglesia católica, históricamente, ha sido vanguardista en el campo de las comunicaciones sociales hasta hace bien poco. Por lo tanto, es difícil explicar esta reticencia por parte de los actores de la Iglesia a utilizar los nuevos medios (y la tecnologías) disponibles hoy. Hay algunas excepciones a esta tendencia (como, por ejemplo, el p. Antonio Spadaro, S.J., el arzobispo Vincenzo Paglia, presidente de la Pontificia Academia de la Vida, el Obispo Robert Barron — que ha creado un grupo significativo que permea los social media en los Estados Unidos, y el p. Paolo Benanti, por nombrar los más importantes).

Quizás, dentro de la Iglesia católica, hemos perdido un poco el sentido de la urgencia de comunicar la “Buena noticia” (que se centra en la persona de Jesucristo) y, por lo tanto, no hemos abrazado con pasión las nuevas tecnologías y la inteligencia artificial

Quizás, dentro de la Iglesia católica, hemos perdido un poco el sentido de la urgencia de comunicar la “Buena noticia” (que se centra en la persona de Jesucristo) y, por lo tanto, no hemos abrazado con pasión las nuevas tecnologías y la inteligencia artificial. Espero que podamos invertir esta tendencia y que lleguemos a ser promotores de las nuevas tecnologías para promover la misión de la Iglesia. 

-¿Es la IA un problema, o una oportunidad para la Iglesia?

-Ambas cosas. Es un problema porque la iglesia no la puede tener control sobre ella. Por ahora, el desarrollo de la inteligencia artificial está en las manos de las plataformas (como OpenAI, Meta, Anthropic, Google y Microsoft), y aunque los gobiernos están buscando modos de legislar controles sobre estos sistemas, no es una tarea fácil. La Unión Europea ha aprobado el “AI Act” para regular la plataformas, pero hace falta tiempo para ver si es eficaz (Sam Altman, CEO de OpenAI, ha expresado algunas dudas al respecto). Creo que lo más probable para el futuro próximo es que las mismas compañías se autocontrolen para un uso adecuado de los sistemas que están saliendo (como, por ejemplo, ChatGPT).

Actualmente, varios personajes importantes de la sociedad han mostrado preocupación sobre las consecuencias catastróficas de estos sistemas fuera de control. Por lo tanto, es crucial que aseguramos que la IA se use para el bien de la humanidad y no al contrario. 

Al mismo tiempo, la IA es una oportunidad para la iglesia. Es una nueva herramienta que se pone a nuestra disposición, y la podemos usar para el bien o para el mal. En este sentido, existe una nueva iniciativa que se llama “Magisterium AI” y que utiliza el motor de ChatGPT para ofrecer respuestas muy atinadas a preguntas sobre las enseñanzas de la Iglesia. Es un instrumento al servicio de las personas que quieren saber más sobre este tema. Ojalá tuviéramos más iniciativas de este género. 

Inteligencia Artificial y Religión – Sapience Institute

No hay nada inherente en la IA que contradiga la dignidad del ser humano o que pueda dañar la naturaleza de las personas. Dependerá siempre de cómo la usemos. Estoy convencido que se trata de una gran oportunidad para la Iglesia de hoy y del futuro. Hay que estar siempre atentos y no ser ingenuos ante los peligros y los potenciales riesgos de estos sistemas, pero también es necesario acostumbrarnos a convivir con ellos. La IA no va a desaparecer, sino que va a crecer y mejorar. 



-¿Podemos ponerle límites éticos? ¿Cuáles?

-Sí, y este es un tema muy actual. En los meses de mayo y junio, con el Cardenal Peter Turkson, hemos organizado dos conferencias importantes, en la Pontificia Academia de las Ciencias en el Vaticano, sobre el tema del aspecto ético de la IA, y hay otra programada para el próximo mes de octubre.

El Arzobispo Paglia se encuentra en Japón para ampliar el consenso en torno al “Rome Call for AI Ethics”, y hay muchas iniciativas promovidas para aumentar la conciencia de la urgencia del uso ética en la IA. La Universidad de Santa Clara (en California) ha creado el Centro Markkula para estudiar nuevas tecnologías y su impacto en la sociedad actual, y ha publicado el año pasado un manual para guiar el desarrollo de la IA (en colaboración con el dicasterio para la Cultura y Educación, bajo el auspicio del arzobispo Paul Tighe, otro pionero en el Vaticano para estos temas).

Lo que queda claro es la necesidad de poner algunos “guardarraíles” (como en las carreteras) en el uso de la IA, para asegurar se use para el bien de la persona y la sociedad, y no al contrario. Vladimir Putin comentó una vez que quien controle la IA, controlará el mundo. Puede sonar exagerado, pero no lo es tanto. 

Es muy difícil especificar qué límites hay que poner, sobre todo porque solemos juzgar la dimensión ética según algunas reglas que determinan la diferencia entre el bien y el mal (por ejemplo, los diez mandamientos o el sistema ético de Emanuel Kant). Pero, con la IA, este método es insuficiente porque los grandes sistemas de inteligencia artificial podrán modificar las reglas en base a los fines que, a veces, ellos mismos se pongan. En vez de “romper” las reglas, las cambian. Hay una tentativa ahora de indicar a los sistemas de IA que generen sus propios límites éticos (como por ejemplo la compañía Anthropic, que ha implementado una “constitución” en la IA basada en la Declaración Universal de los derechos humanos. Ciertamente, esto es mejor que nada, pero no puede ser la solución definitiva. Todas las plataformas están trabajando en este campo.

Se acerca la religión de las IAs

Al final, lo que complica el proceso es que hablar de límites éticos para la IA no es una cuestión de tecnología, sino filosófica. Por eso, estoy contento de poder dialogar con las personas que están creando estos sistemas en Silicon Valley. 

-Ha pasado por Barcelona para participar en un congreso sobre libertad religiosa. ¿Cómo pueden afectar la IA y las nuevas tecnologías a la lucha contra los estereotipos vinculados a las religiones o, por el contrario, al fomento de los clichés -violencia asociada a las religiones, yihadismo, etc…- ?

-Las nuevas tecnologías puede influenciar las culturas y las percepciones que tenemos sobre las religiones. Creo que son medios muy adecuados para fomentar el diálogo interreligioso, si los usamos bien. La IA es, además, vulnerable a los mismos prejuicios que tenemos los seres humanos. Tenemos que estar atentos a no programar las máquinas con los mismos prejuicios que tenemos como programadores. Aunque hoy día tenemos sistemas muy sofisticados y capaces de simular lo que hace el pensamiento humano, estos mismos sistemas no siempre nos ofrecen conclusiones verdaderas. Cuando una IA nos da una respuesta falsa a una pregunta que le hacemos, se llama en jerga “haluncination”, porque la IA debe ofrecer obligatoriamente una respuesta, sea verdadera o falsa: ella no distingue. 

Quizás, versiones futuras de IA buscarán resolver este defecto, pero el éxito no está asegurado. Hace algunos meses, cuando Google lanzó el chat box “Gemini”, fue un desastre porque el programa buscó evitar los prejuicios típicos de los seres humanos, pero exageró las correcciones y produjo respuestas ridículas (se puede ver una buena síntesis de esto aquí). Ciertamente se puede mejorar en una versión futura, pero la dificultad de la “objetividad” es muy seria. 

"La IA debe ofrecer obligatoriamente una respuesta, sea verdadera o falsa: ella no distingue"

-Algunas investigaciones apuntan a que cuanto más expuestas están las personas a las tecnologías de automatización, más débiles son sus creencias religiosas. ¿Esto es así? ¿Por qué?

-No soy experto en la relación entre las creencias religiosas y la tecnología. No entiendo por qué debe ser así. Sé que muchas personas en la industria de la tecnología y la IA no profesan una creencia religiosa abiertamente, pero algunas sí. Varias de estas personas han venido al Vaticano a buscar diálogo con el Papa y otros miembros con la curia romana. El obispo de San José, California, Óscar Cantú (Silicon Valley se encuentra en su diócesis) habla muy frecuentemente con los dirigentes de las compañías de informática, líderes en este sector. Esto significa que sí hay apertura al diálogo para explorar el terreno común entre quien trabaja con las tecnologías de automatización y la religión (o la fe). Ojalá que podamos aumentar una “sinergía”.

Sigo convencido que la dimensión religiosa del ser humano no se puede sustituir con la tecnología.   

Psymbállein: La dimensión religiosa en psicología

Volver arriba