Exportaciones de bienes de Costa Rica alcanzaron los US$1.512 millones en enero 2026
Últimas Noticias:
La Inteligencia Artificial (IA) dejó de ser solo una herramienta para la innovación. Hoy, señalan especialistas, también se ha convertido en un recurso para los cibercriminales.
De acuerdo con el reciente análisis de Unit 42, equipo de inteligencia de amenazas de Palo Alto Networks, los llamados modelos de lenguaje a gran escala modificados para eliminar restricciones de seguridad (conocidos como dark LLMs) están impulsando una nueva era de ataques automatizados que pueden ejecutarse con rapidez y precisión. Esto, incluso, por actores con poca experiencia técnica.
Los investigadores destacan que esta tendencia marca un cambio radical en la ciberseguridad mundial. Ello porque los cibercriminales ya no dependen de habilidades especializadas para diseñar ataques complejos. El documento señala que, ahora, con un modelo de IA sin restricciones, los cibercriminales pueden producir campañas masivas con mensajes persuasivos y malwares listos para operar, reduciendo costos y tiempo de ejecución.
Añaden que, incluso, se han detectado esquemas de comercialización similares a los de plataformas legítimas, con suscripciones mensuales y “soporte al cliente”.
“Estos modelos están diseñados para generar contenido sin filtros y se comercializan en canales clandestinos como foros en la dark web y grupos de Telegram. Se encuentran bajo nombres como WormGPT, FraudGPT o KawaiiGPT y ofrecen capacidades de creación de correos de phishing altamente convincentes, así como generación de código malicioso funcional y scripts para crear ciberataques automatizados. Lo más alarmante es que su instalación puede realizarse en cuestión de minutos, sin necesidad de conocimientos avanzados de programación”, mencionó Ramón García, District Sales Manager para Centroamérica y el Caribe en Palo Alto Networks.
El especialista explicó que, para Costa Rica, donde la digitalización avanza en sectores estratégicos como salud, educación y comercio, este panorama representa un riesgo creciente. Ello porque la facilidad para desplegar herramientas automatizadas amplía la superficie de ataque y eleva la probabilidad de incidentes que comprometan datos sensibles, afecten operaciones y dañen la reputación de empresas y organismos públicos.
“Estamos frente a un punto de inflexión en la ciberseguridad. La aparición de modelos de IA diseñados para fines maliciosos reduce las barreras de entrada para los atacantes y aumenta la escala de las amenazas. Las organizaciones nacionales deben adoptar estrategias proactivas que integren inteligencia artificial defensiva y monitoreo continuo para anticiparse a este nuevo tipo de riesgos”, dijo García.
Además del impacto técnico, los expertos subrayan las implicaciones sociales y económicas que involucra la automatización de ataques, considerando que pueden incrementar el volumen de fraudes dirigidos a usuarios comunes, quienes pueden enfrentarse a correos electrónicos que imitan a instituciones financieras e incluso mensajes que aparentan provenir de autoridades gubernamentales. Esto significa que cualquier persona conectada a internet podría convertirse en objetivo, lo que exige mayor conciencia y educación digital.
Unit 42 advierte que la disponibilidad masiva de estos modelos no es un experimento aislado, sino el inicio de un mercado clandestino basado en la automatización de ataques. Ante esta situación, la prevención se vuelve crítica para fortalecer la infraestructura de seguridad e implementar controles basados en identidad. Además, capacitar a los equipos y colaboradores para reconocer señales de ataques impulsados por IA es un buen primer paso para mitigar el impacto de esta tendencia en el país.
Nuestras Redes Sociales: