El observador vaticano ante la OSCE recela de los usos de la IA en el ámbito militar Monseñor Gyhra advierte: "Los contextos bélicos no pueden ser gobernados por algoritmos, exclusivamente"

En el Foro para la Seguridad y la Cooperación de la OSCE, monseñor Richard Gyhra, observador permanente del Vaticano, advierte de los riesgos ligados al uso de herramientas innovadoras en el ámbito militar, empezando por la Inteligencia Artificial
"No se pueden eludir las graves cuestiones éticas relacionadas con el sector del armamento", indicó, señalando que un recurso que puede ser una herramienta para la "paz" y la "seguridad", pero también una potencial amenaza
Las preocupaciones expresadas por la Santa Sede, aclara, no pretenden frenar el progreso, sino fomentar la investigación y el desarrollo éticos de las nuevas tecnologías
Las preocupaciones expresadas por la Santa Sede, aclara, no pretenden frenar el progreso, sino fomentar la investigación y el desarrollo éticos de las nuevas tecnologías
| Edoardo Giribaldi
(Vatican News).-Orientar el desarrollo de las «tecnologías emergentes» para que estén al servicio del bien común y de la dignidad humana, rechazando un mundo en el que los conflictos y las decisiones estén dominados por los algoritmos. Esta es la visión de la Santa Sede, expresada ayer, 26 de febrero, en el Foro para la Seguridad y la Cooperación de la OSCE por monseñor Richard Gyhra, observador permanente del Vaticano.
La responsabilidad del hombre
«No se pueden eludir las graves cuestiones éticas relacionadas con el sector del armamento»: con estas palabras del Papa Francisco, monseñor Gyhra abrió su intervención sobre el tema «Uso militar responsable de las tecnologías nuevas y emergentes». En el centro de su reflexión estuvo la necesidad de salvaguardar los «principios éticos» que «sostienen el valor intrínseco de cada persona» y su capacidad de discernimiento y «asunción de responsabilidades».

Menor percepción de los daños de la guerra
Sobre el tema de las tecnologías emergentes, Gyhra llamó la atención sobre la Inteligencia Artificial, un recurso que puede ser una herramienta para la «paz» y la «seguridad», pero también una potencial amenaza «existencial» para la humanidad. El uso de sistemas de control remoto para operaciones militares, señaló, puede reducir la «percepción de devastación» causada por la guerra, como ya puso de relieve la reciente nota de Antiqua et Nova sobre la relación entre IA e inteligencia humana.
Opacidad jurídica y cuestiones éticas
Otro peligro es el creciente uso de «tecnologías autónomas», que corren el riesgo de delegar las decisiones militares en las máquinas, sustrayéndolas a la supervisión humana. Esto genera «opacidad jurídica» y serios interrogantes éticos. En este contexto, Mons. Gyhra mencionó los Sistemas de Armas Autónomas Letales (LAWS), capaces de identificar y atacar objetivos sin intervención humana directa. «Ninguna máquina debería elegir jamás quitar la vida a un ser humano», reiteró, citando de nuevo al Papa Francisco.
"Ninguna máquina debería elegir jamás quitar la vida a un ser humano"
El desarrollo humano integral en el centro
Las preocupaciones expresadas por la Santa Sede, aclaró el prelado, no pretenden frenar el progreso, sino fomentar la investigación y el desarrollo éticos de las nuevas tecnologías. El objetivo es integrarlas en un «marco más amplio», que no se limite a su utilidad y eficacia, sino que ponga en el centro la promoción del desarrollo humano integral.
Etiquetas