El avance acelerado de la inteligencia artificial (IA) ha generado beneficios importantes para la sociedad, desde el sector salud hasta la educación. Sin embargo, esta tecnología también está siendo utilizada por ciberdelincuentes para sofisticar sus ataques, aumentar su alcance y evadir controles de seguridad. Ecuador no está exento de esta amenaza emergente. Este informe tiene como objetivo exponer cómo se está utilizando la inteligencia artificial en el cometimiento de ciberdelitos dentro del país, señalar los principales riesgos actuales y futuros, y proponer recomendaciones para su mitigación.
Modalidades de ciberdelitos potenciadas por IA
1 Phishing automatizado con IA generativa
La IA generativa permite crear correos electrónicos y mensajes de texto altamente personalizados y convincentes. Mediante el uso de lenguaje natural (NLP), los atacantes pueden replicar estilos de escritura y crear engaños creíbles adaptados a cada víctima.
Ejemplo en Ecuador: Se han identificado casos en los que ciberdelincuentes utilizan herramientas como ChatGPT o Gemini para redactar mensajes que aparentan ser del IESS, bancos locales o instituciones educativas, solicitando información sensible.
2 Deepfakes para extorsión y estafas
Las tecnologías de deepfake permiten alterar vídeos o generar audios con la voz de una persona específica. Esto se ha utilizado para simular llamadas de emergencia, pedidos de ayuda financiera o chantaje con contenido sexual falso.
Ejemplo: Se ha reportado la suplantación de la voz de gerentes de empresas ecuatorianas para ordenar transferencias bancarias fraudulentas a través de notas de voz manipuladas.
3 Malware inteligente y adaptativo
Algunos virus y troyanos modernos usan IA para analizar el comportamiento del usuario y del sistema, evadir antivirus, y decidir el momento oportuno para activarse o robar información.
4 Robo de identidad mejorado con scraping automatizado
Mediante técnicas de scraping y aprendizaje automático, los delincuentes extraen información de redes sociales y registros públicos para construir perfiles detallados de sus víctimas.
5 Ataques de denegación de servicio (DDoS) coordinados por IA
Sistemas automatizados de IA permiten lanzar ataques distribuidos con una red de bots (botnets) y ajustar los patrones de tráfico para hacerlos más difíciles de detectar por firewalls tradicionales.
6 Estafas mediante chatbots falsos
Se han detectado bots inteligentes en Ecuador que simulan ser asistentes bancarios, promotores de empleo o funcionarios públicos. Interactúan con los usuarios y los inducen a compartir información sensible.
Casos relevantes y tendencias en Ecuador
- Entidades financieras: Varios bancos han reportado intentos de fraude mediante correos generados por IA, simulando confirmaciones de transacciones.
- Sector educativo: Universidades han visto suplantaciones digitales para fraudes en matrículas y pagos.
- Ciudadanos comunes: Personas han denunciado audios deepfake utilizados para engañar a familiares con supuestas emergencias.
Factores que favorecen su proliferación en el país
- Bajo nivel de alfabetización digital.
- Falta de legislación específica sobre delitos con IA.
- Escasa inversión en ciberseguridad en el sector público.
- Falta de capacidades técnicas en la Policía y Fiscalía para investigar delitos de alta tecnología.
- Fácil acceso a herramientas de IA de código abierto y gratuito.
Riesgos emergentes a corto y mediano plazo
- Desinformación masiva con IA: Se prevé que en procesos electorales futuros puedan circular videos o declaraciones falsas de candidatos generadas con IA.
- Ataques a infraestructuras críticas: Sistemas energéticos, hídricos o de salud podrían ser blanco de ataques sofisticados automatizados.
- Manipulación de evidencias judiciales: Deepfakes podrían ser usados para desacreditar testimonios o alterar evidencia audiovisual.
Marco legal actual y brechas
El Código Orgánico Integral Penal (COIP) contempla delitos informáticos (art. 232 al 235), pero no incluye figuras específicas sobre el uso de inteligencia artificial. No hay referencias a:
- Deepfakes como delito de suplantación agravada.
- Automatización del delito mediante sistemas inteligentes.
- Responsabilidad penal por uso malicioso de herramientas generativas.
Recomendaciones para la prevención y respuesta
Para ciudadanos:
- Verificar siempre la autenticidad de mensajes y llamadas, especialmente si involucran transferencias o entregas de datos.
- Desconfiar de audios o vídeos que parezcan fuera de contexto.
- Configurar correctamente la privacidad en redes sociales.
- Denunciar cualquier intento de fraude o manipulación.
Para empresas:
- Implementar sistemas de detección de deepfakes y correos automatizados.
- Capacitar a su personal sobre amenazas con IA.
- Aplicar filtros de correo inteligente y autenticación multifactor.
- Simular escenarios de ataque para preparar la respuesta.
Para el Estado:
- Reformar el COIP para incluir delitos con IA.
- Fortalecer a la Policía Nacional con equipos expertos en ciberinteligencia.
- Promover alianzas con centros internacionales de ciberseguridad.
- Crear campañas de alfabetización digital para la ciudadanía.
El dilema tecnológico de la IA
La inteligencia artificial puede ser una herramienta poderosa para el desarrollo del Ecuador, pero su uso malicioso también representa un reto urgente y creciente. El país necesita prepararse con políticas claras, inversión en seguridad digital, legislación moderna y una ciudadanía informada. Prevenir los ciberdelitos potenciados por IA no solo es posible, sino necesario, para proteger la confianza digital, los derechos humanos y la seguridad nacional.
Contacto de emergencia y denuncia:
- Fiscalía General del Estado: www.fiscalia.gob.ec
- Unidad de Delitos Tecnológicos de la Policía Nacional
- CSIRT Ecuador: www.csirt.gob.ec
Deja una respuesta