Borja Sánchez, CyberSecurity & Business Resilience Senior Manager en Marsh España, alerta de los riesgos de la utilización de herramientas de inteligencia artificial (IA). Explica que los mecanismos públicos de OpenAI, como ChatGPT o Dall.E, pueden ser usados por individuos malintencionados para actividades ilegales. Entre ellas, destacan:
- Robo de información: puede ayudar a crear una herramienta de forma sencilla que busca información en el sistema (pdf, word, excel, etc) y crea una carpeta temporal donde copiarla, comprimirla y enviarla mediante FTP.
- Ejecución remota de código malicioso: es capaz de redactar líneas de código en varios lenguajes de programación como Java o Python, lo que puede ayudar a un ciberatacante a generar un código malicioso que, ejecutado en un ordenador vulnerable, pueda lanzar cualquier programa mediante el uso de la consola de comandos de Windows y, por ejemplo, acabar encriptando toda la información del sistema.
- Monetización de contenido generado por IA con derechos de autor: gracias a la facilidad para generar contenido, usuarios con fines fraudulentos están usando la herramienta para monetizar contenidos generados por la herramienta que podrían estar infringiendo derechos de autor. Existe preocupación sobre la información usada para entrenar los algoritmos y ya se han visto casos de demandas por uso no autorizado de elementos sujetos a derechos de autor, como imágenes o textos literarios.
Este mal uso de las herramientas de IA tiene consecuencias:
- Discriminación: alimentar estas herramientas con datos sesgados puede llevar a resultados discriminatorios, especialmente en tareas como la contratación de trabajadores, la aprobación de préstamos y la toma de decisiones judiciales.
- Propagación de información falsa: las herramientas pueden ser utilizadas para crear y difundir información falsa o engañosa, lo que puede tener un impacto negativo en la sociedad en general.
- Violación de la privacidad: las herramientas pueden ser utilizadas para recopilar y utilizar información personal sin autorización, lo que puede resultar en la violación de la privacidad de los individuos.
- Daño emocional: el uso de estas herramientas para generar contenido violento o discursos de odio puede tener un impacto negativo en la salud mental y emocional de las personas.
- Responsabilidad y ética: el uso irresponsable de estas herramientas puede poner en cuestión la ética y la responsabilidad de los desarrolladores, las compañías y la sociedad, en general, en el uso de la tecnología.
“Es importante tener en cuenta estos desafíos éticos en el uso de herramientas de IA, prevenir su uso fraudulento y garantizar su responsabilidad y ética”, concluye Borja Sánchez.