Un reciente informe divulgado por OpenAI ha señalado que detectaron más de veinte incidentes de ataques cibernéticos y manipulaciones utilizando su tecnología de inteligencia artificial generativa (IA) con intenciones malévolas.
El estudio detalla que entidades estatales y hackers asociados a países como China, Irán y Rusia, han empleado herramientas tales como ChatT para crear malware, efectuar phishing y orquestar campañas de falsa información en plataformas de redes sociales.
SweetSpecter
Entre los implicados destacados en el documento se encuentra SweetSpecter, un colectivo originario de China.
Dicho conjunto ha realizado ataques de spear-phishing contra entidades gubernamentales asiáticas y empleados de OpenAI. En ciertos eventos, enviaron emails que fingían problemas con los servicios de ChatT, adjuntando archivos ZIP con malware escondido, denominado “SugarGhost RAT”.
Al abrirse dicho archivo malintencionado, el software dañino tomaba el control del dispositivo comprometido, permitiendo a los agresores manipular comandos a distancia y sustraer información crítica de forma encubierta.
CyberAv3ngers
Por otra parte, CyberAv3ngers, un grupo asociado a la Guardia Revolucionaria Islámica de Irán, hizo uso de ChatT para identificar fallos en infraestructuras industriales y vulnerar sistemas de gestión de agua en EE. UU. e Irlanda.
En noviembre de 2023, consiguieron interrumpir de manera temporal el abastecimiento de agua en Aliquippa, Pensilvania. En otro evento, provocaron un corte del servicio hídrico durante dos días en el condado de Mayo, Irlanda.
Se descubrió que los perpetradores se valieron de tecnologías de IA para concebir y pulir scripts malévolos.
STORM-0817
Del mismo modo, STORM-0817, otra agrupación iraní, focalizó su atención en la creación de malware dirigido a dispositivos Android, pudiendo extraer datos sensibles como historiales de llamadas, contactos y archivos de mensajes.
Este equipo también recurrió a ChatT para depurar y optimizar estrategias de extracción de datos de redes sociales como Instagram, demostrando el papel de los modelos de IA en distintas etapas de ataques informáticos complejos.
Fuente: Infobae
gp
creditos de las imagenes de este post: n.com.do