
TCS y Pearson enseñarán con inteligencia artificial
abril 10, 2026
SeismicAI impulsa monitoreo estructural en minas
abril 13, 2026En el ecosistema tecnológico de 2026, la inteligencia artificial ya no necesita presentación. Lo que sí escasea —y con urgencia— es la capacidad de integrarla con rigor, de traducir su potencial en resultados medibles dentro de organizaciones reales. Ricardo Moncada y Engel Fonseca llevan años construyendo, precisamente, una metodología futurista desde el futuro: un equipo de especialistas enfocados en resolver problemas desde la tecnología. Así, Potenttial Group y su laboratorio de ingeniería N3 Lab, han desarrollado más de 2 mil implementaciones de IA para empresas, con un modelo de IA que antepone la arquitectura sistémica al entusiasmo tecnológico.
N3 Labs, bajo el liderazgo de Ricardo Moncada, nos confirma que “donde hay datos, hay negocio usando IA”.
Un legado improbable, una convicción duradera
La trayectoria de Moncada no comienza frente a un monitor ni en un bootcamp de programación. Comienza en un archivo genealógico. Es descendiente de Pietro di Moncada, un noble de la Nueva España que arriesgó su título nobiliario al introducir un tratado de física prohibido. La apuesta de Pietro era simple y radical: que sus hijos tuvieran acceso al conocimiento técnico, costara lo que costara.
Tres siglos después, Ricardo Moncada dirige la oficina de gestión de proyectos de N3 Lab con una convicción estructuralmente idéntica: la tecnología sin cimientos no escala. Se acumula. Y los sistemas construidos sin entender su lógica interna fallan, invariablemente, en los bordes; no en el centro.
Esa comprensión proviene de años al frente de proyectos de software para empresas como IBM, Banamex y Softtek, donde las decisiones técnicas tienen consecuencias institucionales. Fue allí donde Moncada aprendió que implementar inteligencia artificial en una organización no es un problema de herramientas: es un problema de diseño.
Una sociedad construida sobre roles asimétricos
Dentro de Potenttial Group, la distribución de responsabilidades entre Fonseca y Moncada no es accidental. Engel Fonseca —estratega con trayectoria en Televisa y MSN, reconocido por LinkedIn como Top Voice, TeDxSpeaker, referente en neurociencia conductual aplicada al negocio e inteligencia artificial desde la estrategia empresarial— opera en el plano de la anticipación: tendencias de mercado, comportamiento del consumidor digital, posicionamiento competitivo. Moncada opera en el plano de la ejecución: arquitectura técnica, gestión de proyectos de IA, ingeniería de sistemas que deben funcionar en entornos reales bajo condiciones imperfectas.

Ricardo Moncada Palafox
No se trata de una jerarquía ni de roles intercambiables. Es una complementariedad estructural: la estrategia necesita infraestructura para respirar, y la infraestructura necesita dirección para no convertirse en deuda técnica.
El resultado es una organización articulada en unidades especializadas que se retroalimentan con precisión: N3 Lab concentra la ingeniería de agentes de inteligencia artificial, modelos de lenguaje y arquitecturas de datos; MediaScience aplica esa infraestructura al marketing basado en datos para marcas como Grupo Bimbo; Neurona Digital forma ejecutivos en transformación digital y adopción de IA; Fibonaccy atiende ciberseguridad y arquitectura digital; y Adsparent.tech junto a AdChat.ai exploran el terreno emergente de la publicidad conversacional. Es una estructura que recuerda menos a una startup y más a una firma de consultoría técnica con ambiciones de laboratorio de I+D.
Contra la caja negra: el principio de transparencia sistémica
Para Moncada, el mayor riesgo de la inteligencia artificial aplicada no es la automatización sino la opacidad. Las organizaciones que adoptan soluciones de IA sin comprender su lógica interna construyen dependencias que no pueden auditar, escalar ni corregir. N3 Lab fue diseñado como antídoto a esa dinámica.
Su metodología parte de un diagnóstico preciso —identificar un problema sistémico concreto, no una oportunidad genérica de “digitalización”— y avanza de forma iterativa hacia soluciones verificables: desde bots avanzados para WhatsApp y habilidades para asistentes de voz, hasta arquitecturas de datos complejas para sectores regulados como el automotriz y el farmacéutico. Los proyectos incluyen la transformación de la experiencia de venta en la Asociación Mexicana de Distribuidores de Automotores (AMDA) y el desarrollo de avatares de IA para laboratorios farmacéuticos con requerimientos de precisión y cumplimiento normativo.
“Escalar no es comprar una herramienta”, ha dicho Moncada. “Es rediseñar el modelo de negocio para que la tecnología sea el motor, no un adorno.”
En el contexto actual —donde las organizaciones invierten en plataformas de IA generativa sin una estrategia clara de integración— la afirmación adquiere peso específico.
El factor que los modelos de lenguaje no aprenden
La filosofía más profunda del grupo se articuló, cuenta Moncada, durante su participación en un proyecto de machine learning en Harvard orientado a la enseñanza del inglés para niños en situación de vulnerabilidad. La lección central no fue técnica. Fue una lección sobre los límites del optimismo computacional: los modelos amplifican las decisiones humanas —sus aciertos y sus sesgos— pero no las sustituyen. La IA, en ese sentido, no es inteligente: es potente. Y la potencia sin criterio produce, a escala, errores a escala.
Frente a la narrativa corporativa dominante —aquella que identifica en la automatización una oportunidad estructural de reducción de plantilla— Potenttial Group sostiene una tesis diferente: que la inteligencia artificial libera capacidad humana para las tareas que los modelos no pueden resolver. La estrategia en contextos de incertidumbre. El juicio en situaciones ambiguas. La confianza entre personas. Es una posición que, en el debate actual sobre el futuro del trabajo y la adopción responsable de IA, resulta más incómoda de lo que parece —porque exige que las organizaciones definan, antes de automatizar, qué es lo que genuinamente quieren preservar.
Formación sistémica como condición previa
Con la mirada puesta en los próximos años, Moncada y Fonseca identifican un cuello de botella que ninguna plataforma tecnológica puede resolver por sí sola: la ausencia de liderazgo con pensamiento sistémico en las organizaciones que buscan adoptar inteligencia artificial. Sin esa base, la transformación digital se convierte en una secuencia de proyectos piloto que nunca maduran.
Su propuesta es, en ese sentido, contraintuitiva: empezar pequeño, con experimentos tácticos acotados, medibles y reversibles. No porque la ambición deba ser modesta, sino porque la comprensión debe preceder a la escala.
En un mercado saturado de casos de uso, demostraciones y proyecciones de impacto, la apuesta de Potenttial Group es deliberadamente austera: que la tecnología funcione. Que lo haga de forma predecible. Y que quienes la operen entiendan, con precisión, por qué funciona —y qué ocurre cuando deja de hacerlo.



