'Antiqua et Nova', nota conjunta de Doctrina de la Fe y el Dicasterio para la Cultura La Santa Sede ve la Inteligencia Artificial como una oportunidad, aunque alerta del riesgo de "convertirse en esclavo de las máquinas"

Investigación en inteligencia artificial
Investigación en inteligencia artificial Igor Omilaev

Un documento dirigido a padres, profesores, sacerdotes, obispos y a todos aquellos llamados a educar y transmitir la fe, pero también a quienes comparten la necesidad de un desarrollo científico y tecnológico "al servicio de la persona y del bien común"

Podría aumentar los recursos bélicos "mucho más allá del alcance del control humano", acelerando "una carrera armamentística desestabilizadora con consecuencias devastadoras para los derechos humanos"

Las "capacidades analíticas" de la IA podrían utilizarse para ayudar a las naciones a buscar la paz y la seguridad, pero "un serio motivo de preocupación ética" son los sistemas de armas autónomas letales capaces de "identificar y atacar objetivos sin intervención humana directa"

El documento nos recuerda el grave riesgo de que la IA "genere contenidos manipulados e información falsa" para alimentar una "alucinación" de la IA, con contenidos falsos que parecen reales

Lee aquí Antiqua et Nova

La Inteligencia Artificial no debe ser considerada como una persona, no debe ser deificada, no debe sustituir las relaciones humanas, sino que debe ser utilizada «sólo como instrumento complementario de la inteligencia humana». Las advertencias del Papa sobre la Inteligencia Artificial en los últimos años forman el esquema de Antiqua et Nova(en referencia a la «sabiduría», antigua y nueva), la nota sobre la relación entre la inteligencia artificial y la inteligencia humana fruto de la reflexión mutua entre el Dicasterio para la Doctrina de la Fe y el Dicasterio para la Cultura y la Educación. Un documento dirigido a padres, profesores, sacerdotes, obispos y a todos aquellos llamados a educar y transmitir la fe, pero también a quienes comparten la necesidad de un desarrollo científico y tecnológico «al servicio de la persona y del bien común» [5].

‘Informe RD’ con análisis y el Documento Final del Sínodo

Publicada hoy, 28 de enero, la Nota ha sido aprobada por el Papa. En 117 párrafos, Antiqua et nova destaca los desafíos y las oportunidades del desarrollo de la Inteligencia Artificial (IA) en los ámbitos de la educación, la economía, el trabajo, la salud, las relaciones internacionales e interpersonales y los contextos bélicos. En este último ámbito, por ejemplo, el potencial de la IA -advierte la Nota- podría aumentar los recursos bélicos «mucho más allá del alcance del control humano», acelerando «una carrera armamentística desestabilizadora con consecuencias devastadoras para los derechos humanos» [99].

Las Bodas de Caná: Una Reflexión para Hoy (Evangelio según San Juan 2, 1-11)
Las Bodas de Caná: Una Reflexión para Hoy (Evangelio según San Juan 2, 1-11)

Peligros y avances

Más en detalle, el documento enumera con razonado equilibrio los peligros de la IA, pero también los avances, que de hecho alienta como «parte de la colaboración del hombre» con Dios «para perfeccionamiento de la creación visible» [2]. La preocupación, sin embargo, es grande con todas las innovaciones cuyos efectos son aún imprevisibles, incluso para lo que de momento parece tan inocuo como la generación de textos e imágenes.

Distinción entre IA e inteligencia humana

Así pues, son las consideraciones éticas y antropológicas las que están en el centro de la reflexión de los dos Dicasterios que dedican varios párrafos de la Nota a la distinción «decisiva» entre Inteligencia Artificial e inteligencia humana. Aquella que «se ejerce en las relaciones» [18], que está modelada por Dios y «es moldeada por una miríada de experiencias vividas en la corporeidad». La IA «carece de la capacidad de evolucionar en este sentido» [31]. Y se trata de «una visión funcionalista», en la que las personas sólo se evalúan por sus trabajos y logros, en la que la dignidad humana es ineludible y siempre permanece intacta. Incluso en «un niño no nacido», en «una persona en estado inconsciente» o en «un anciano que sufre» [34]. «Engañoso», pues, utilizar la propia palabra «inteligencia» para referirse a la IA: no es “una forma artificial de inteligencia”, sino “uno de sus productos [35].

Sin negar que la Inteligencia Artificial puede introducir "importantes innovaciones" en diversos campos, también corre el riesgo de agravar situaciones de marginación, discriminación, pobreza, "brecha digital" y desigualdades sociales

El poder en manos de unos pocos

Y como cualquier producto del ingenio humano, la IA también puede orientarse hacia «fines positivos o negativos», señala Antiqua et Nova. Sin negar que la Inteligencia Artificial puede introducir «importantes innovaciones» en diversos campos [48], también corre el riesgo de agravar situaciones de marginación, discriminación, pobreza, «brecha digital» y desigualdades sociales [52]. Plantea «preocupaciones éticas» en particular el hecho de que «la mayor parte del poder sobre las principales aplicaciones de la IA se concentra en manos de unas pocas empresas poderosas» [53], de modo que esta tecnología acaba siendo manipulada para «beneficio personal o corporativo» o para «orientar la opinión pública hacia el interés de un sector» [53].

Misa grabada por IA
Misa grabada por IA captura de pantalla

Guerra

A continuación, la Nota examina las distintas esferas de la vida en relación con la IA. Inevitable es la referencia a la guerra. Las «capacidades analíticas» de la IA podrían utilizarse para ayudar a las naciones a buscar la paz y la seguridad, pero «un serio motivo de preocupación ética» son los sistemas de armas autónomas letales capaces de «identificar y atacar objetivos sin intervención humana directa» [100]. El Papa instó urgentemente a prohibir su uso, como dijo ante el G7 en Puglia: «Ninguna máquina debería elegir jamás quitar la vida a un ser humano».

Las máquinas capaces de matar con precisión de forma autónoma y otras capaces de destrucción masiva son una amenaza real para «la supervivencia de la humanidad o de regiones enteras» [101]. Estas tecnologías «confieren a la guerra un poder destructor incontrolable, que afecta a muchos civiles inocentes, sin perdonar ni siquiera a los niños», denuncia Antiqua et Nova. Para evitar que la humanidad caiga en «espirales de autodestrucción», es necesario entonces «tomar una posición clara contra todas las aplicaciones de la tecnología que amenazan intrínsecamente la vida y la dignidad de la persona humana».

Para evitar que la humanidad caiga en «espirales de autodestrucción», es necesario entonces «tomar una posición clara contra todas las aplicaciones de la tecnología que amenazan intrínsecamente la vida y la dignidad de la persona humana»

Relaciones humanas

En cuanto a las relaciones humanas, el documento señala que la IA puede, sí, «fomentar las conexiones» pero, al mismo tiempo, conducir a un «aislamiento perjudicial» [58]. «La antropomorfización de la IA», además, plantea problemas particulares para el crecimiento de los niños, a los que se anima a entender “las relaciones humanas de forma utilitaria”, como es el caso de los chatbots [60]. «Está 'mal', pues, representar a la IA como una persona y es 'una grave violación ética' hacerlo con fines fraudulentos. Del mismo modo que «utilizar la IA para engañar en otros contextos -como la educación o las relaciones humanas, incluida la esfera de la sexualidad- es profundamente contrario a la ética y requiere una cuidadosa vigilancia» [62].

El Infierno de Dante creado con IA
El Infierno de Dante creado con IA

Economía y trabajo

La misma vigilancia se impone en el ámbito económico-financiero. Especialmente en el ámbito laboral, se señala que si bien, por un lado, la IA tiene «potencial» para aumentar las competencias y la productividad o crear nuevos empleos, por otro, puede «desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a funciones rígidas y repetitivas» [67], hasta el punto de «ahogar» cualquier capacidad de innovación. «No debemos pretender sustituir cada vez más el trabajo humano por el progreso tecnológico: hacerlo perjudicaría a la propia humanidad», subraya la Nota [70].

Salud

Se dedica un amplio espacio al tema de la sanidad. Aunque encierra un enorme potencial en diversas aplicaciones en el ámbito médico (por ejemplo, ayuda a la actividad de diagnóstico), si la IA sustituyera la relación médico-paciente, dejando la interacción exclusivamente en manos de las máquinas, se correría el riesgo de «agravar esa soledad que acompaña con frecuencia a la enfermedad».

La optimización de los recursos tampoco debería «penalizar a los más frágiles» ni crear «formas de prejuicio y discriminación» [75] que llevarían a reforzar una «medicina para ricos», en la que quienes disponen de medios económicos se benefician de herramientas avanzadas de prevención y de información médica personalizada, mientras que otros luchan por tener acceso incluso a los servicios básicos.

El futuro, según la IA
El futuro, según la IA IA

Educación

Los riesgos también se ponen de relieve en el ámbito de la educación. Si se utiliza con prudencia, la IA puede mejorar el acceso a la educación y ofrecer «información inmediata» a los estudiantes [80]. El problema es que muchos programas «se limitan a proporcionar respuestas en lugar de incitar a los estudiantes a encontrarlas por sí mismos, o a escribir textos por sí mismos»; esto hace que se pierda la formación para acumular información o desarrollar el pensamiento crítico [82]. Por no hablar de la cantidad de «información distorsionada o fabricada» o de «contenidos inexactos» que pueden generar algunos programas, legitimando así las fake news [84].

Fake News y Deepfake

A propósito de las fake news , el documento nos recuerda el grave riesgo de que la IA «genere contenidos manipulados e información falsa» [85] para alimentar una «alucinación» de la IA, con contenidos falsos que parecen reales. Aún más preocupante es cuando ese contenido ficticio se utiliza intencionadamente con fines de manipulación. Por ejemplo, cuando se difunden intencionadamente imágenes, vídeos y audio deepfake (representaciones modificadas o generadas algorítmicamente) para «engañar o perjudicar» [87]. Por tanto, el llamamiento es a «tener siempre cuidado de comprobar la veracidad» de lo que se divulga y evitar, en cualquier caso, «compartir palabras e imágenes degradantes para el ser humano», excluyendo «lo que alimenta el odio y la intolerancia, envilece la belleza y la intimidad de la sexualidad humana y explota a los débiles e indefensos» [89].

Fake news
Fake news

Intimidad y control

Sobre la privacidad y el control, la Nota señala que algunos tipos de datos pueden tocar la intimidad de una persona, «tal vez incluso su conciencia» [90]. Los datos se adquieren ahora con un mínimo de información y el peligro es que todo se convierta en «una especie de espectáculo que puede ser espiado, vigilado» [92]. Y «la vigilancia digital puede utilizarse para ejercer un control sobre la vida de los creyentes y la expresión de su fe» [90].

El hogar común

En el tema de la Creación, las aplicaciones de la IA para mejorar la relación con la casa común se juzgan «prometedoras». Basta pensar en modelos de previsión de fenómenos meteorológicos extremos, de gestión de la ayuda humanitaria o de apoyo a la agricultura sostenible [95]. Al mismo tiempo, los modelos actuales de IA y el hardware que los soporta requieren «enormes cantidades de energía y agua y contribuyen significativamente a las emisiones de CO2, además de ser intensivos en recursos». Se trata, por tanto, de un peaje «pesado» para el medio ambiente: «El desarrollo de soluciones sostenibles es vital para reducir su impacto en la casa común».

"La presunción de sustituir a Dios por una obra de las propias manos es idolatría"

La relación con Dios

«La presunción de sustituir a Dios por una obra de las propias manos es idolatría": la Nota cita las Sagradas Escrituras para advertir que la IA puede ser “más seductora que los ídolos tradicionales” [105]. Por ello, recuerda que no es más que «un pálido reflejo» de la humanidad: «No es la IA la que se diviniza y adora, sino el ser humano, para convertirse, de este modo, en esclavo de su propia obra». De ahí una recomendación final: «La IA sólo debe utilizarse como herramienta complementaria de la inteligencia humana y no sustituir su riqueza» [112].

Volver arriba