Cuantificando la discriminación Gemma Galdon en DeustoForum: "Incorporar la ética a la IA es una cuestión innegociable"
La Universidad de Deusto ha celebrado este 26 de octubre un encuentro DeustoForum con Gemma Galdon Clavell, experta en ética tecnológica y responsabilidad algorítmica
Galdon, a través de su firma Eticas Research & Consulting, trabaja con empresas, gobiernos y organizaciones de todo el mundo para corregir los sistemas de Inteligencia (IA) y hacerlos más eficientes e inclusivos
Al abordar temas complejos de manera automatizada y en base a indicadores que carecen de relevancia, la IA tiende a la simplificación y a la generación de errores y sesgos, algo que la auditoría algorítmica busca corregir
De hecho, ha revelado que esos errores de la IA llegan a condicionar incluso la toma de decisiones en ámbitos sanitarios, educativos y laborales con, por ejemplo, pacientes en salas de emergencias que son atendidos no en base a la gravedad de su patología sino por el coste de su intervención
Al abordar temas complejos de manera automatizada y en base a indicadores que carecen de relevancia, la IA tiende a la simplificación y a la generación de errores y sesgos, algo que la auditoría algorítmica busca corregir
De hecho, ha revelado que esos errores de la IA llegan a condicionar incluso la toma de decisiones en ámbitos sanitarios, educativos y laborales con, por ejemplo, pacientes en salas de emergencias que son atendidos no en base a la gravedad de su patología sino por el coste de su intervención
(Universidad de Deusto).- La Universidad de Deusto ha celebrado este 26 de octubre un encuentro DeustoForum con Gemma Galdon Clavell, experta en ética tecnológica y responsabilidad algorítmica, que a través de su firma Eticas Research & Consulting trabaja con empresas, gobiernos y organizaciones de todo el mundo para corregir los sistemas de Inteligencia (IA) y hacerlos más eficientes e inclusivos.
Una inteligencia de la que todo el mundo habla, pero cuyo funcionamiento sigue generando hoy mucha confusión social. Y es que, tal y como ha explicado, si bien es cierto que estas tecnologías se nutren de las grandes bases de datos de la historia, las soluciones que aportan no son siempre las más óptimasni objetivas. Ello se debe, según ha expuesto, a que los algoritmos que las rigen procesan la información de manera selectiva, acorde a unos patrones de repetición que favorecen lo mayoritario y excluyen lo diferente, generando a su vez una nueva fuente de datos que retroalimenta el sistema.
Para Gemma Galdon, en el caso de los GPS, que entre diferentes alternativas priorizan las rutas más frecuentadas por los usuarios, o las plataformas de entretenimiento, que sugieren qué películas o series ver en base a un algoritmo que posiciona mejor los títulos con mayor número de reproducciones, el riesgo a correr en caso de error es menor, pero no así en aquellos ámbitos en los que la IA incide directamente en el análisis de la realidad y la toma dedecisiones, ya que la eliminación de ciertos perfiles pueden acarrear consecuencias catastróficas. “Los algoritmos que rigen los sistemas de reconocimiento facial discriminan a personas con síndrome de Down, y las mujeres reciben entre un 10 y 20% menos de servicios bancarios porque en los sistemas de IA están infrarrepresentadas”, ha revelado.
"En aquellos ámbitos en los que la IA incide directamente en el análisis de la realidad y la toma de decisiones, la eliminación de ciertos perfiles pueden acarrear consecuencias catastróficas"
Retos socio-técnicos
Al abordar temas complejos de manera automatizada y en base a indicadores que carecen de relevancia, la IA tiende a la simplificación y a la generación de errores y sesgos, algo que la auditoría algorítmica busca corregir, creando espacios de testeo que permitan entender cuáles son los riesgos reales antes de que lleguen a la población. Afirma, en este sentido, que “vivimos en una sociedad muy sesgada, y al igual que trabajamos para incorporar políticas que favorezcan la inclusión, es necesario establecer normas y entrenar a la IA en perfiles muy heterogéneos para aprovechar todo su potencial”.
De hecho, Gemma Galdon Clavell ha revelado que esos errores de la IA llegan a condicionar incluso la toma de decisiones en ámbitos sanitarios, educativos y laborales, con pacientes en salas de emergencias que son atendidos no en base a la gravedad de su patología sino por el coste de su intervención; profesores que ven valorado su desempeño según las tasas de éxito de su alumnado; o empresas en cuyas contrataciones la IA prevalece que sean jugadores de lacross.
Por lo tanto, la experta asegura que incorporar la ética a la IA es una cuestión innegociable para hacer frente a los retos socio-técnicos a los que nos enfrentamos, ya que tecnologías como Dalí o Chat GPT ponen de manifiesto las limitaciones de la IA, que más allá de reproducir patrones, no tienen la capacidad de aprender el lenguaje como lo hacen niñas y niños, ni de analizar objetivamente la realidad e innovar: “Si entramos en una dinámica de refritos de Chat GPT, ¿quién va a generar conocimiento e ideas nuevas?”.
La necesidad de abordar los riesgos de la IA ha creado un verdadero diálogo transnacional, que ya ha llegado a Europa, China e incluso la Casa Blanca, donde Eticas Research & Consulting está trabajando para generar un ecosistema innovador que fomente iniciativas que contribuyan a su regulación y acabe con las anomalías.
"Tecnologías como Dalí o Chat GPT ponen de manifiesto las limitaciones de la IA, que más allá de reproducir patrones, no tienen la capacidad de aprender el lenguaje como lo hacen niñas y niños, ni de analizar objetivamente la realidad e innovar"
Programa Experto en Ética de la Digitalización y de la Inteligencia Artificial Aplicada
Esta conferencia se enmarca en el interés de la Universidad de Deusto a contribuir al esfuerzo colectivo, según ha indicado el rector Juan José Etxeberria en la presentación, por entender los que supone y, sobre todo, lo que puede suponer la irrupción en nuestras vidas a todos los niveles de la IA. Es, además, una manera de recoger aportaciones para así poder contribuir en la búsqueda de soluciones para orientar adecuadamente las oportunidades que ofrece y comprender los riesgos éticos que plantea.
El rector considera que la forma de enfrentarnos a los actuales retos globales no puede hacerse hoy sin entender el papel que puede jugar para su superación el correcto diseño e implantación de los avances en el campo de la Inteligencia Artificial. Al respecto, ha recordado que ya en 2018, la Universidad dio un paso con la publicación de la Declaración Deusto de Derechos Humanos en Entornos Digitales, y ahora, ha adelantado que, “estamos trabajando en un posicionamiento respecto al uso de la Inteligencia Artificial en los procesos de Docencia, Investigación, Transferencia y Gestión que constituyen nuestro quehacer diario”.
También ha anunciado que, en la labor docente e investigadora, los nuevos avances en Inteligencia Artificial están moviendo ya a desarrollar algunas acciones específicas. Por un lado, generando dinámicas de trabajo interdisciplinar orientadas a entender y afrontar lo que supone la irrupción de las herramientas basadas en Inteligencia Artificial en el propio desempeño educativo. Y por otro, la puesta en marcha este mismo curso de un Programa Experto en Ética Digital que busca precisamente ofrecer un espacio de formación, investigación y transferencia de conocimiento para profesionales que quieran dotarse de las competencias necesarias para incorporar la perspectiva ética ante este reto global.