Compartir

Un enfoque pragmático que he denominado la IA Práctica resurgirá en el 2023 como un ave fénix de las cenizas tras años de una exuberancia irracional en torno a la inteligencia artificial.

Por Dr. Scott Zoldi, Director de Analítica (CAO) de FICO

GESTIÓN DE DECISIONES

No hay otra manera de decirlo: el 2022 fue un año difícil para las empresas. El mercado de valores se cayó, las tasas de interés se dispararon y millones de personas perdieron su empleo. Las compañías tecnológicas están aprendiendo a resolver nuevos desafíos, sus horizontes que alguna vez fueron ilimitados ahora se ven atenuados por la congelación de las contrataciones y la huida de los inversionistas. En cuanto a la inteligente artificial (IA), las compañías están reconsiderando lanzar proyectos como vehículos autónomos. Ford y VW disolvieron su empresa conjunta robotaxi, y Alphabet, con su subsidiaria Waymo, se encuentra bajo enorme presión de la inversora activista TCI Fund Management. En una carta a la administración de Alphabet, TCI mencionó lo obvio: “Lamentablemente, el entusiasmo por los vehículos autónomos ha decaído y los competidores han salido del mercado”. ¡Triste!

Bienvenidos a la Gran Corrección. Lo que podría sentirse como una llamarada que sigue viva, en realidad es una corrección de vuelta a la normalidad, y en ningún lugar es más evidente que en los enfoques más realistas en la inteligencia artificial y sus modelos asistentes de machine learning (ML), algoritmos y redes neuronales. A este nuevo pragmatismo lo denomino la IA Práctica y predigo que esta tecnología resurgirá en el 2023 como un ave fénix de las cenizas tras años de una exuberancia irracional en torno a la inteligencia artificial.

Cuatro predicciones sobre la inteligencia artificial práctica

Bajo el paraguas de la practicidad, las compañías reconsiderarán estratégicamente la manera en que utilizan la inteligencia artificial, un cambio de actitud que se enfocará en la implementación, la gestión de la IA, los modelos de machine learning y la gobernabilidad. Estas son mis predicciones sobre la IA Práctica en el 2023:

1. Las aplicaciones novedosas salen para dar paso a las aplicaciones prácticas

La IA Generativa ha sido una expresión de moda últimamente, con modernas capacidades de generación de imágenes que acaparan los titulares, pero la realidad es que la IA Generativa no es una tecnología nueva. La organización de ciencia de los datos en FICO la ha utilizado desde hace varios años de manera práctica para generar datos sintéticos y para realizar pruebas de escenarios como parte de un sólido proceso de desarrollo de modelos de IA.

He aquí un ejemplo de por qué necesitamos enfocarnos más en los usos prácticos de la IA Generativa: la banca abierta representa una revolución gigantesca en evaluación de crédito, particularmente para las personas de bajos recursos. Sin embargo, mientras este nuevo canal despega, falta recopilar un corpus de datos para crear análisis sobre el cliente en tiempo real. La IA Generativa puede aplicarse de manera práctica para producir datos sobre transacciones relevantes para desarrollar modelos de decisiones de riesgo crediticio en tiempo real. Esto podría beneficiar considerablemente a los emisores de préstamos “compra ahora, paga después”, que ahora están expuestos a altas tasas por incumplimiento debido a análisis inadecuados, lo que pone el peligro el potencial de la banca abierta de atender mejor a las personas sin recursos bancarios durante la evaluación crediticia.

2. Los procesos de desarrollo de inteligencia artificial y machine learning serán producibles

La IA Práctica es incompatible con el modus operandi de muchos equipos de ciencias de los datos:

  • Desarrollar modelos de IA personalizados experimentando con algoritmos nuevos para maximizar el rendimiento desde la muestra
  • Dedicar demasiado tiempo a descubrir si estos modelos personalizados y algoritmos se generalizarán a partir de la muestra
  • Llevar el modelo personalizado a producción sin conocer bien las consecuencias
  • Enfrentar el restablecimiento del modelo, o, peor, dejarlo seguir con consecuencias imprevistas y/o no monitoreadas.

Para lograr una inteligencia artificial con calidad de producción, los procesos de desarrollo necesitan ser estables, confiables y producibles en masa. Esto nos lleva a la gobernabilidad del desarrollo de modelos, a las infraestructuras que se suministrarán y a las plataformas de machine learning que se encuentran ingresando al mercado. Estas plataformas definirán los estándares, proporcionarán herramientas y determinarán las interfaces de programación de aplicaciones (API, por sus siglas en inglés) de los modelos analíticos adecuadamente producidos y brindarán capacidades integradas para monitorearlos y sopórtalos.

La gobernabilidad de la IA es un área importante de mi trabajo, y predigo que en el 2023 veremos que las herramientas y plataformas de inteligencia artificial se convertirán en la norma para facilitar el desarrollo interno y las implementaciones de IA Responsable, lo que brindará el monitoreo y los estándares necesarios. Como resultado, el enfoque de Kaggle en el desarrollo de modelos —extraer el poder predictivo más alto, a toda costa— dará lugar a una nueva sensibilidad de la IA Práctica aunada al enfoque empresarial: ¿cuál es la mejor solución del 95%? La realidad es que el 95% seguramente será suficiente para la mayoría de las aplicaciones de IA y, en muchos casos, la predilecta cuando colocamos el rendimiento de los modelos en un contexto más grande de:

  • Interpretación de modelos
  • IA ética
  • Consideraciones ambientales, sociales y corporativas (ESG, por sus siglas en inglés)
  • Monitoreo sencillo
  • Facilidad para cumplir los requerimientos regulativos
  • Comercialización
  • Costo y riesgo excesivo en las aplicaciones de IA complejas.

3. Una definición adecuada del paquete de modelos mejorará los beneficios operativos de la IA  

Producir IA incluye codificar directamente durante el proceso de creación del modelo y cómo y qué monitorear en el modelo una vez que se implementa. Establecer la expectativa de que ningún modelo está desarrollado apropiadamente hasta que se especifique el proceso de monitoreo producirá muchos beneficios posteriores, uno de los cuales es una operación de inteligencia artificial más fluida:

  • Las plataformas de IA consumirán estos paquetes de modelos mejorados y reducirán los problemas de gestión de modelos. Veremos mejoras en el monitoreo de los modelos, la detección de sesgos, la interpretación y el reporte de los problemas de los modelos en tiempo real.
  • La interpretación de estos paquetes de modelos producirá modelos de machine learning que sean transparentes y justificables.
  • Los métodos de destilación de clasificaciones asegurarán que la distribución de las puntuaciones del modelo y la detección de comportamientos sean similares de una actualización de modelo a otra. Esto permitirá integrar las actualizaciones de forma más fluida en las reglas y estrategias existentes del sistema mayor de inteligencia artificial.

4. Habrá unos cuantos proveedores de servicios de IA empresariales en la nube  

Claramente, no todas las compañías que desean implementar IA de forma segura tienen los recursos para hacerlo. El software y las herramientas que se requieren pueden ser demasiado complejas o costosas de ensamblar por partes. Como resultado, sólo un cuarto de las compañías tiene sistemas de IA en producción extendida. Para resolver este problema y aprovechar la gigantesca oportunidad de mercado, predigo que en el 2023 surgirán unos cuantos servicios de IA empresariales en la nube.

Así como Amazon, Google y Microsoft Azure son los “tres grandes” de los servicios de computación en la nube, surgirán algunos proveedores importantes de servicios de IA en la nube para ofrecer desarrollo integral de IA y machine learning, implementación y capacidades de monitoreo. Fácilmente accesibles a través de una conectividad de API, estas ofertas de software de IA profesionales permitirán a las compañías desarrollar, ejecutar y monitorear sus modelos y algoritmos, así como demostrar una buena gobernabilidad de la IA. Estas mismas plataformas de IA en la nube también podrían recomendar cuándo descender a un modelo más simple (IA Humilde) para conservar la confianza en la integridad de las decisiones.

Además, seguramente habrá proveedores especializados en servicios de IA en la nube enfocados en los dominios de la industria, incluyendo perfiles regulativos, para proporcionar a las empresas rampas sencillas hacia las implementaciones de IA Responsable a escala. Estas plataformas de inteligencia artificial brindarán asombrosas ventajas específicas de la industria para acelerar la comercialización de manera segura y responsable.

Dónde reside la IA Práctica: el Corpus de la IA

A lo largo de los últimos cinco años, he estado evangelizando las necesidades por prácticas de IA Responsable que nos guíen en el uso adecuado de las herramientas de ciencia de los datos para desarrollar sistemas de decisiones de IA que sean explicables, éticos y auditables. Estos principios se encuentran en el corazón del cuerpo analítico metafórico de una organización, pero no bastan. Este cuerpo analítico, al que denomino el Corpus de la IA, es donde la IA Responsable y la IA Práctica deben estar soportadas por los equivalentes de un sistema circulatorio biológico, un sistema esqueletal, tejido conectivo y más.

De cara al 2023, aprender a manejar las presiones evolutivas del mercado seguirá siendo la nueva normalidad. Considero que mis predicciones de IA permitirán al Corpus de la IA fortalecerse y florecer durante, y después, de la Gran Corrección —en una manera madura, estandarizada, auditable y regulativa—. Síganme en LinkedIn y Twitter @ScottZoldi para seguir de cerca cómo se desarrolla todo este panorama.

Compartir