Inteligencia Artificial

Mutualidad de la Abogacía se ha convertido en la primera entidad que se incorpora como socio institucional a OdiseIA, el Observatorio del Impacto Social y Ético de la Inteligencia Artificial. La entidad, que cuenta desde el año pasado con un Comité de Ética en Inteligencia Artificial, se integra de este modo en “una iniciativa independiente y multidisciplinar que persigue abrir el debate a toda la sociedad”, según explica en un comunicado, que busca la concienciación sobre el impacto ético de esta disrupción tecnológica.

OdiseIA es un espacio de pensamiento, debate y acción que cuenta con expertos como Nuria Oliver, doctora del Massachussetts Institue of Technology (MIT) nombrada Data Scientist 2019, y Ángel Gómez de Ágreda, coronel del Ejército que ha sido jefe de cooperación del Mando Conjunto de Ciberdefensa.

“La inteligencia artificial está cada vez más presente en la forma en que nos relacionamos con el mundo, y también en la toma de decisiones. Por ello debemos aplicar a esa inteligencia artificial el mismo criterio, los mismos valores y principios éticos, que aplicábamos a las decisiones que tomábamos sin esta tecnología. Al ser una ética programada, matemática, debemos supervisar sus sesgos y comprobar que las decisiones que toma son justas y éticas”, defiende el presidente de la Mutualidad, Enrique Sanz Fernández-Lomana.

Una IA responsable

Desde la entidad se recuerda que, junto con los sectores de salud, transporte y defensa, el sector del seguro es uno de los más expuestos a los efectos secundarios no-deseados de la inteligencia artificial por su impacto en la vida de las personas.

OdiseIA y la Mutualidad de la Abogacía colaborarán en la generación de buenas prácticas que sirvan como guía para el sector en España, así como en diferentes actividades que fomenten la conversación sobre una IA responsable entre las aseguradoras.

“Estudios y experimentos recientes han demostrado que los algoritmos de identificación de imágenes tienen importantes sesgos racistas, sexistas y de otros tipos, como los relacionados con el lugar de residencia o la edad del sujeto, que trasladan prejuicios plenamente humanos a decisiones supuestamente automatizadas y por tanto neutrales a priori mediante fórmulas matemáticas”, advierten desde la Mutualidad. “A juicio de los expertos, garantizar la construcción ética y garantista de los algoritmos que van a tomar decisiones en décimas de segundo sobre un perfil individual es el gran reto al que se enfrenta esta disruptiva tecnología”, concluyen.