Detección y Prevención de Material Sexual de Abuso Infantil mediante Inteligencia Artificial: Desafíos y Avances
##plugins.themes.bootstrap3.article.main##
Publicado: Mar 2, 2026
Resumen
El Material de Abuso Sexual Infantil (CSAM, por sus siglas en inglés) constituye una de las expresiones más graves de explotación en línea y representa un desafío crítico para la ciberseguridad y la protección infantil. El incremento global de su producción y distribución, potenciado por el uso de tecnologías digitales y la inteligencia artificial (IA), ha superado la eficacia de los métodos tradicionales de detección basados en huellas digitales o hashing perceptual. Este artículo presenta una revisión sistemática de literatura científica, informes técnicos y estudios de caso orientados a evaluar el papel de la IA en la detección y prevención de CSAM. Se analizan enfoques algorítmicos como redes neuronales convolucionales (EfficientNet, ResNet, InceptionV3), transformadores (ViT, CLIP), procesamiento de lenguaje natural (BERT, GPT), modelos de detección de anomalías, autoencoders y técnicas de hashing perceptual mejorado (PhotoDNA, NeuraHash). Asimismo, se examinan herramientas aplicadas en la práctica, entre ellas Google Content Safety API, CSAI Match, Safer Predict y la CSAM Scanning Tool de Cloudflare. Los hallazgos evidencian que la IA permite aumentar la precisión en la identificación de material ilícito y reducir significativamente los tiempos de respuesta, aunque persisten limitaciones relacionadas con la generación de CSAM sintético, los falsos positivos y la necesidad de marcos legales y éticos más sólidos. En conclusión, la IA constituye una herramienta prometedora para fortalecer la protección infantil en entornos digitales, siempre que su implementación se realice bajo estrictos estándares de responsabilidad, ética y cooperación internacional.

