Inteligencia artificial está beneficiando a los hackers: ataques de phishing son más reales
Los delincuentes ahora pueden escribir textos en otros idiomas sin cometer errores y con mayor velocidad
Una de las recomendaciones más comunes para reconocer un correo electrónico falso es verificar que esté bien escrito. Normalmente, los ciberatacantes no son del país de origen de la víctima y eso lleva a que haya errores de ortografía y de traducción que permiten detectar una posible amenaza. Sin embargo, esto está por acabar gracias a la inteligencia artificial.
Debido al desarrollo de diferentes plataformas para generar contenido, los ciberdelincuentes tienen mejores herramientas para que el texto tenga menos errores y sea más cercano a la víctima.
Esta es una de las tendencias que Kaspersky, empresa de ciberseguridad, cree que aumentará durante 2024. Una predicción que surge de la combinación de dos factores claves: el alto número de ataques de phishing por correo o mensajes de texto y el crecimiento de plataformas como ChatGPT o Copilot, que pueden generar contenido en texto.
Según cifras de la compañía, solo en Colombia durante 2023 se presentaron 41 millones de ataques de phishing, es decir, un promedio de 112.000 amenazas al día. Un número alto, que todavía no contaba con la IA como una herramienta aliada, considerando que gran parte de los correos y mensajes falsos provenían de Brasil y los textos tenían errores de traducción o de ortografía.
Pero el panorama para la actualidad va a cambiar. “Esto ya está pasando: correos de phishing escritos de forma perfecta. Antes los analistas detectaban los correos porque había palabras que no existían en español o porque a alguna palabra le faltaba una tilde. Ahora ya no. Cualquiera puede usar ChatGPT para escribir de forma correcta y como un hispanohablante nativo”, aseguró, a Infobae, Fabio Assolini, director del Equipo Global de Investigación y Análisis para América Latina en Kaspersky.
Al pulir uno de los problemas más frecuentes en este tipo de ataques, los usuarios finales serán los más afectados, porque los correos y mensajes que son una estafa va a tener el tipo de escritura de las compañías, no contarán con errores de redacción y ortografía, y se podrán crear contenidos mucho más rápido.
Cómo reconocer un correo falso
Con el truco de los errores de ortografía y traducción para detectar mensajes de estafa descartado, ahora los usuarios deberán estar más atentos a cualquier intento de ataque. Los ciberdelincuentes no van a parar de enviar correos falsos continuamente y lo primero será siempre desconfiar de cualquier tipo de comunicación que genere una alerta, que pida ingresar a un link con urgencia o que notifique de una falla en un servicio.
Aquí algunas recomendaciones para detectar un correo falso:
- La dirección de envío no corresponde con la de la empresa que intenta comunicarse con nosotros o está escrita de forma extraña, en la que las letras se cambian por números o incluye guiones o caracteres especiales.
- El mensaje corresponde a un banco o entidad con la que no tenemos mucha relación. Muchas veces el intento de ataque asegura que hay un problema con una cuenta bancaria o con un servicio y que requieren de nosotros para resolverlo. Pero en realidad no tenemos ningún vínculo con esa organización.
- Los ciberdelincuentes suelen usar premios o recompensas grandes para motivar a los usuarios a ingresar un link, entregar sus datos y enviar dinero. Antes de todo eso debemos verificar que la compañía que está organizando el concurso allá hecho una publicación similar en sus redes sociales o en su página oficial y hacer la inscripción por medio de esos canales.
Más ciberataques con IA
Mejorar los correos electrónicos y todo el contenido de texto con inteligencia artificial solo es una punta de todo este problema. Kaspersky también aseguró que durante este año veremos un aumento en los deepfake, que es contenido que suplanta la imagen y voz de una persona gracias a la IA.
El caso específico que contó la empresa de ciberseguridad es el de los procesos de verificación de identidad. Muchas aplicaciones bancarias y comercios electrónicos han optado por la identificación biométrica como un método de protección de las cuentas.
Sin embargo, gracias a la inteligencia artificial, los delincuentes pueden suplantar el rostro de una persona tomando imágenes de redes sociales y creando una réplica que les permita pasar ese filtro de seguridad para acceder a las cuentas de las víctimas.
Comentarios
Para comentar, debés estar registrado
Por favor, iniciá sesión