sandbox recursoLos expertos en ciberseguridad están alertando de que ChatGPT, utilizada con fines delictivos, podría suponer riesgos considerables para las empresas. Aunque esta tecnología surgió como una promesa de reducir la carga de trabajo y mejorar la experiencia del usuario, también es capaz de crear mensajes altamente sofisticados para cometer fraude online.

Así lo afirman desde la compañía de ciberseguridad especializada en la protección de la identidad digital y la prevención del fraude VU, que señala que el mal uso de esta herramienta es un desafío para las empresas en varios aspectos. “Ahora los cibercriminales cuentan con una nueva arma de doble filo”, apunta Sebastián Stranieri, fundador y CEO de VU.

Phishing impulsado por IA y malware más efectivo

Una de las formas en las que los ciberdelincuentes pueden beneficiarse de ChatGPT para cometer fraude online es la creación de mensajes fraudulentos para utilizarlos en ataques de phishing. Esta inteligencia artificial podría fácilmente desarrollar un correo electrónico o mensaje suplantando la identidad de otra persona o empresa para engañar a las posibles víctimas.

Gracias a la amplia base de conocimientos de esta herramienta, los ciberdelincuentes pueden obtener datos específicos sobre la empresa objetivo, lo que les permite redactar mensajes más creíbles y aumentar las posibilidades de éxito en el fraude. El desarrollo de este tipo de IA es tan rápido que ahora también es capaz de crear códigos en diferentes lenguajes de programación, lo que se traduce en una forma simple y rápida para que los ciberdelincuentes puedan crear software malicioso.

Recomendaciones para prevenir ciberataques

Tan vertiginoso ha sido el desarrollo de esta herramienta que cada vez son más los países que se están planteando regular el uso de ChatGPT, tomando como referencia a Italia, donde ya se ha decidido bloquearla debido a los numerosos riesgos relacionados con la privacidad de los datos.

Hasta entonces, este prototipo de chatbot es una realidad con la que las empresas deben aprender a convivir y, por ello, el CEO de VU ha realizado una serie de recomendaciones, más allá de la de concienciar a los empleados sobre sus riesgos. Estas recomendaciones son:

  1. Verificar siempre la autenticidad de los mensajes recibidos.
  2. Evitar proporcionar datos personales a través de este tipo de herramientas.
  3. Capacitarse en ciberseguridad y concienciarse sobre las tácticas de phishing.
  4. Implementar sistemas de autenticación de dos factores para proteger cuentas y accesos.
  5. Mantener actualizados los sistemas operativos, programas y dispositivos para corregir vulnerabilidades.
  6. Utilizar soluciones de seguridad avanzadas para proteger la infraestructura de TI y detectar amenazas en tiempo real.

“Aunque ChatGPT y otras herramientas de IA avanzadas ofrecen importantes beneficios en términos de eficiencia y experiencia del usuario, es fundamental que las empresas y los usuarios sean conscientes de los riesgos asociados y tomen las medidas necesarias para protegerse de posibles ciberataques. A través de la educación, la capacitación y la implementación de soluciones de seguridad adecuadas, las compañías pueden aprovechar el potencial de estas tecnologías de manera segura y responsable”, concluyen desde VU.

Consejos y riesgos del uso de ChatGPT

Por otro lado, desde la plataforma de formación online Udemy destacan que, según estudios recientes, el 43% de los profesionales del mundo corporativo ha utilizado herramientas de IA (como ChatGPT) para realizar tareas en el trabajo.

  • Para Diego Dávila, instructor de Udemy y emprendedor, formarse en ChatGPT es fundamental para aprovechar sus ventajas, por lo que, para familiarizarse con esta tecnología es necesario:

    Aprender sobre tecnología de IA como, por ejemplo, a través de cursos de formación online acreditados por profesionales en la materia.
    Aprender sobre las limitaciones y ética de la IA más en detalle.
    Probar ChatGPT en diferentes tareas y proyectos adaptando su uso a tus necesidades particulares.
    Mantenerse al tanto de las últimas investigaciones y desarrollos en el campo de la IA, ya que esta tecnología evoluciona con gran rapidez.

Dávila explica que “la IA ha permitido a los empleados centrarse en tareas más estratégicas y creativas al asumir responsabilidades administrativas y logísticas que antes consumían tiempo y esfuerzo, mejorando la eficiencia y la productividad en el lugar de trabajo”.

El experto también advierte de de que utilizar ChatGPT en el entorno laboral puede acarrear importantes riesgos si carecemos de la formación necesaria en esta tecnología, por lo que recomienda tener en cuenta:

  • Seguridad y privacidad. Compartir información confidencial con ChatGPT puede ser arriesgado. Siempre debemos extremar la precaución al manejar datos sensibles para evitar cualquier fuga de datos o información confidencial.
  • Sesgos en las respuestas. ChatGPT puede mostrar sesgos basados en los datos con los que fue entrenado y en la información que ha recopilado hasta el momento. Es importante verificar cualquier información y no confiar en las respuestas por defecto.
  • Falta de empatía y comprensión humana. ChatGPT no puede comprender plenamente las emociones humanas y los matices culturales. En situaciones delicadas, es mejor que una persona se encargue de la comunicación para garantizar que los mensajes se transmiten correctamente y con empatía.
  • Elevada dependencia. Si nos volvemos demasiado dependientes de ChatGPT, a la larga podemos perder habilidades cognitivas y tomar decisiones basándonos únicamente en las respuestas del chat.