
Fraude digital: cómo los rastros digitales redefinen la prevención
octubre 13, 2025
Estafas digitales en eventos deportivos: el riesgo oculto del GP de México
octubre 13, 2025-
El avance acelerado de la inteligencia artificial en México está abriendo nuevas oportunidades de eficiencia y productividad. Sin embargo, también está exponiendo a las organizaciones a riesgos de la inteligencia artificial que aún no han sido plenamente dimensionados, especialmente en materia de protección de datos confidenciales y propiedad intelectual.
De acuerdo con IBM, la exposición accidental de información sensible en herramientas de IA genera pérdidas promedio de 200 mil dólares por incidente (IBM, 2025). Este impacto económico adquiere mayor relevancia en un país que se posiciona como el sexto con mayor número de visitantes a ChatGPT a nivel global, según First Page Sage (2025).
Uso de IA sin control: una brecha silenciosa
Uno de los principales riesgos de la inteligencia artificial no proviene de ataques externos, sino del uso cotidiano y no supervisado por parte de los colaboradores. En muchos casos, empleados introducen datos sensibles en sistemas de IA generativa sin conocer su impacto en términos de privacidad, entrenamiento de modelos o exposición futura.
Manuel Moreno, consultor de Ciberseguridad en IQSEC, advierte que toda la información compartida con plataformas de lenguaje puede perder su carácter privado, especialmente cuando no existen políticas internas claras ni mecanismos de supervisión. Este fenómeno convierte a la IA en un vector de riesgo difícil de detectar dentro de entornos corporativos distribuidos.
Datos personales y propiedad intelectual en riesgo
El estudio La brecha en la supervisión de la IA revela que una de cada cinco organizaciones ha sufrido filtraciones vinculadas con sistemas de IA no gestionados (IBM, 2025). En 65% de los casos se comprometieron datos personales identificables, mientras que en 40% se expuso propiedad intelectual, un activo crítico para la competitividad empresarial.
Además, el problema no se limita a la pérdida inmediata de información. La exposición de contexto —historial, intenciones y datos asociados— puede derivar en riesgos legales, sanciones regulatorias y daños reputacionales de largo plazo.
Gobernanza de IA: una deuda pendiente
Pese a este escenario, 63% de las organizaciones reconoce no contar con una política formal de inteligencia artificial o encontrarse apenas en fases iniciales de desarrollo. Incluso entre quienes ya han avanzado, solo una minoría realiza auditorías periódicas o cuenta con procesos rigurosos de aprobación de uso.
En conclusión, los riesgos de la inteligencia artificial ya no son un escenario hipotético. Para las empresas mexicanas, avanzar en políticas de gobernanza, control de datos y uso responsable de IA no es solo una buena práctica tecnológica, sino una decisión estratégica para proteger su valor, su reputación y su futuro digital.


