Fujitsu crea una metodología para prevenir problemas éticos en sistemas de inteligencia artificial
Pone a disposición de los desarrolladores un kit gratuito de herramientas para evaluar riesgos en las primeras etapas.
Para limitar el riesgo asociado a los sistemas de inteligencia artificial, Fujitsu pone a disposición de los desarrolladores un kit de herramientas de creación propia que aporta orientación para evaluar implicaciones éticas.
Este kit se compone de estudios de casos y materiales de referencia, incluyendo whitepaper, un manual de procedimiento y un método para aclarar requisitos en directrices de ética de inteligencia artificial escritas en lenguaje natural. Se trata de un modelo basado en las directrices publicadas por la Comisión Europea.
La intención es evitar malentendidos y otros problemas por diferencias en la interpretación de las descripciones de las directrices, ofreciendo la posibilidad de detectar y prevenir fallos éticos en las primeras etapas del proceso de desarrollo.
Fujitsu ha analizado incidentes relacionados con la inteligencia artificial y ha dado vida a un método de evaluación que permitirá identificar sistemáticamente cuestiones éticas relevantes.
Estos recursos están disponibles de forma gratuita, con el objetivo de promover el despliegue seguro de los sistemas de inteligencia artificial en la sociedad. De momento se pueden descargar en japonés, aunque próximamente habrá una versión en inglés.
Fujitsu se ha comprometido a trabajar junto a organismos gubernamentales, empresas e investigadores para perfeccionar esta nueva metodología. Publicará una versión ampliada de su paquete de recursos a lo largo del año fiscal 2022.