Compartir

Ciudad de México, México – 20 de febrero de 2020. En el último par de años, la inteligencia artificial (IA) ha sido el “niño travieso” del mundo de los negocios, una tecnología con una conducta polémica y poco convencional que ha impactado, provocado y encantando a los públicos en todo el mundo. En el 2020, todo eso cambiará, pues se predice que la IA crecerá y se enfrentará a nuevas demandas en las áreas de responsabilidad, derechos y regulaciones.

Más allá de la IA ética está la IA responsable

Durante los últimos años, he enfocado mi trabajo en nuevas patentes de ciencia de datos para promover que la tecnología de IA se mantenga más a la  defensiva, sea explicable y ética. En el 2020 habrá mayores expectativas respecto a los sistemas de IA responsables, debido principalmente a los ataques contra las nuevas aplicaciones de IA, así como al hecho de que continúan surgiendo regulaciones en torno a la explicación, transparencia y ética de la inteligencia artifical.

Los dispositivos médicos son una de las áreas más obvias. Un dispositivo médico como un marcapasos que se comercializa precipitadamente puede estar mal diseñado. Si ese dispositivo hace daño a la gente que lo utiliza, personas o grupos podrían demandar a la compañía que lo fabrica en caso de que se demuestre su falta de rigor.

De manera similar, habrá un castigo o sanción como respuestaara las compañías que consideren que la IA explicable y ética es opcional. “¡Uy! Nos equivocamos con un algoritmo y está teniendo un efecto dañino”, no será una noticia interesante sobre el mal uso de la IA, sino una llamada a la acción.

Es muy probable que en el 2020 habrá seguros para la IA ya que las compañías buscarán asegurar sus algoritmos de IA contra demandas de responsabilidad. El uso de blockchain  u otras maneras de auditar el desarrollo y gobierno de los modelos será esencial para demostrar la diligencia debida en la creación, explicación y prueba de los modelos de IA.

Los grupos de defensa de la IA contraatacarán

¿Cuáles son los efectos de la IA que pueden ser dañinos? Piense en una persona a la cual se le niega el derecho de entrar a un país debido a un reconocimiento facial impreciso. O que recibe un mal diagnóstico generado por una tecnología robótica entrenada para buscar enfermedades. O que se le niega un préstamo porque un nuevo tipo de calificación de crédito basado en características no causales le otorga un puntaje bajo. O ser acusado erróneamente de un accidente automovilístico por la aplicación móvil de la compañía de seguros instalada en su teléfono. ¿Cuáles son los derechos de las personas cuando la IA les hace daño?

Actualmente, hay muchas maneras en que la gente recibe un trato injusto en nuestra sociedad, y también un número similar de grupos de defensa. Con la defensa de la IA, puede haber un constructo diferente, ya que los consumidores y sus grupos de defensa exigirán acceso a la información y al proceso que el sistema de IA utilizó para tomar decisiones. La defensa de la IA ofrecerá empoderamiento, pero también puede generar debates importantes entre los expertos para interpretar y seleccionar los datos, el proceso de desarrollo de modelos y la implementación.

La defensa de la IA es una idea radical, pero un concepto similar ya se ha utilizado con FICO® Score. Desde hace más de 30 años, los consumidores pueden consultar su FICO Score y los informes del buró de crédito que se generan con los datos proporcionados por este sistema. Si a alguien se le niega un crédito, el otorgante de ese crédito debe explicar por qué se negó. Si un consumidor piensa que alguna partida en su informe del buró de crédito es imprecisa, puede presentar una disputa para solicitar que se investigue y se retire.

¿Por qué debe regularse la IA?

Los líderes en muchas industrias tienen la opinión negativa de que las regulaciones gubernamentales inhiben la innovación. Con la IA, este prejuicio está lejos de ser real. Los reguladores y legisladores están intentando proteger a los consumidores contra los efectos negativos de la tecnología a través del Reglamento General de Protección de Datos de la Unión Europea, la Ley de Privacidad del Consumidor de California, y otros. Sin embargo, estos grupos a menudo realizan demandas de tecnología sobre las cuales tienen poco conocimiento.

Por otro lado, existen compañías que juran “Somos éticos, no hacemos nada malo con sus datos”, pero, sin una norma de responsabilidad, no podemos estar seguros de que así sea. Con estos dos extremos, y todo lo intermedio, se predice que en el 2020 veremos más normas internacionales que definirán un proceso para una IA más segura y confiable, ya que las regulaciones fomentan la honestidad de las compañías. Con esto se anticipa que los expertos en IA apoyarán y promoverán la regulación de la industria para garantizar la imparcialidad e inculcar la responsabilidad.

 

 La experiencia es importante

Conforme la IA crece para convertirse en una tecnología más generalizada, se confía poco en la moral y ética de las muchas compañías que la utilizan. Como científico de datos, esto es desmoralizante. Sin embargo, a medida que la sociedad moderna descubre más sobre el daño que puede causar el uso incorrecto de la IA, resulta claro que la experiencia es importante. Es el momento de que la IA crezca.

Síganme ahora y en el 2020 por Twitter @ScottZoldi.

***

Acerca de FICO

FICO (NYSE: FICO) potencia decisiones para ayudar a que las personas y negocios alrededor del mundo prosperen. Fundada en 1956 y ubicada en Silicon Valley, la compañía es pionera en el uso de analítica predictiva y ciencia de datos para mejorar las decisiones operativas. FICO cuenta con más de 195 patentes en EE.UU. y en otros países en tecnologías que incrementan la rentabilidad, la satisfacción del cliente, y el crecimiento de los negocios en servicios financieros, telecomunicaciones, cuidado de la salud, venta al por menor, y muchas industrias más. Al utilizar las soluciones FICO, negocios en más de 100 países pueden hacer todo, desde proteger a 2.600 millones de tarjetas de pago del fraude, hasta ayudar a la gente a obtener un crédito o asegurar que millones de arrendamiento de aeronaves o automóviles se realicen en el lugar correcto y en el momento adecuado. Para conocer más, visite http://www.fico.com.

Compartir