La inteligencia artificial (IA) se abre paso entre las empresas, mientras los gobiernos analizan si son necesarias nuevas regulaciones. Esta tarea debería ser compartida, según Microsoft.
“Garantizar las barreras adecuadas para el uso responsable de la IA, no se limitará a las empresas de tecnología y los gobiernos: cada organización que cree o utilice sistemas de IA deberá desarrollar e implementar sus propios sistemas de gobernanza”, determina Antony Cook, Deputy General Counsel de la compañía de Redmond.
Por ello, Microsoft ha anunciado varios compromisos para que sus clientes consigan realizar un viaje responsable hacia la IA.
“Sabemos que estos compromisos son sólo el principio”, dice Cook, “y tendremos que desarrollarlos a medida que evolucionen tanto la tecnología como las condiciones normativas y regulatorias”.
“Pero también vemos con enorme entusiasmo esta oportunidad de colaborar más estrechamente con nuestros clientes a medida que avanzamos juntos en el camino para conseguir un desarrollo y uso de IA responsable”, señala.
Por un lado, Microsoft ha decidido compartir el aprendizaje que ha acumulado durante los últimos años sobre desarrollo e implementación responsable de la IA, para que sus clientes hagan lo mismo. Microsoft trabaja en este tema desde 2017 apoyado por un equipo de unos 350 ingenieros, abogados y expertos en normativas.
Ahora promete publicar aquellos documentos clave que ha ido desarrollando, como el Estándar de IA responsable de Microsoft, la Plantilla de evaluación de impacto de IA, la Guía de evaluación de impacto de IA, sus notas de transparencia y las cartillas para una IA responsable por diseño.
Al mismo tiempo, creará recursos dedicados y se basará en su experiencia acumulada en diferentes regiones para atender las preguntas que tengan los clientes.
Otro pilar de este compromiso es la entrega de un plan de formación que permita capacitar a las plantillas de sus clientes.
En segundo lugar, pondrá en marcha un programa de garantía de IA que velará por que las aplicaciones implementadas en las plataformas de Microsoft cumplen con los correspondientes requisitos legales. Este programa incluye el soporte a un compromiso regulador y creará obligaciones para conocer a los clientes.
También implica ahondar en el Marco de Gestión de Riesgos de IA publicado por el NIS de Estados Unidos, reunir a los clientes en consejos y asambleas para conocer su punto de vista y la emisión de propuestas a diferentes gobiernos sobre la defensa regulatoria que resulta más apropiada para la nueva tecnología.
Eso no es todo. Microsoft permitirá implantar sistemas propios de IA de forma responsable, para lo que desarrollará programas para su ecosistema de partners.
Contempla la fundación de un equipo de expertos legales y regulatorios que orientará en la implementación de sistemas responsables de gobernanza de IA en cada negocio. También lanzará un programa con sus socios PwC y EY para ayudar a clientes mutuos.
El uso de la inteligencia artificial, la escasez de talento y el impacto de la…
La compañía de seguridad ESET publica sus predicciones para 2025, en medio de la "innovación…
La aplicación de confianza con la que más se entrometen los ciberdelincuentes es el Protocolo…
Un estudio de IFS, Boom e IDC revela que solamente un 19 % de las…
Para garantizar la privacidad, el 30 % se ha pasado a otra compañía durante el…
Check Point Software Technologies prevé que los avances en inteligencia artificial permitirán a pequeños grupos…