Para limitar el riesgo asociado a los sistemas de inteligencia artificial, Fujitsu pone a disposición de los desarrolladores un kit de herramientas de creación propia que aporta orientación para evaluar implicaciones éticas.
Este kit se compone de estudios de casos y materiales de referencia, incluyendo whitepaper, un manual de procedimiento y un método para aclarar requisitos en directrices de ética de inteligencia artificial escritas en lenguaje natural. Se trata de un modelo basado en las directrices publicadas por la Comisión Europea.
La intención es evitar malentendidos y otros problemas por diferencias en la interpretación de las descripciones de las directrices, ofreciendo la posibilidad de detectar y prevenir fallos éticos en las primeras etapas del proceso de desarrollo.
Fujitsu ha analizado incidentes relacionados con la inteligencia artificial y ha dado vida a un método de evaluación que permitirá identificar sistemáticamente cuestiones éticas relevantes.
Estos recursos están disponibles de forma gratuita, con el objetivo de promover el despliegue seguro de los sistemas de inteligencia artificial en la sociedad. De momento se pueden descargar en japonés, aunque próximamente habrá una versión en inglés.
Fujitsu se ha comprometido a trabajar junto a organismos gubernamentales, empresas e investigadores para perfeccionar esta nueva metodología. Publicará una versión ampliada de su paquete de recursos a lo largo del año fiscal 2022.
Girará en torno a tres temáticas: desinformación, contrainteligencia y credenciales expuestas.
El 57 % de las compañías españolas está manteniendo este año su nivel de inversión…
Entre los problemas a los que se enfrentan las compañías con infraestructura distribuida geográficamente se…
Juniper Research prevé un incremento del 50 % en el tráfico de mensajes para 2025.
Aumentaron un 20,4 % durante los meses de julio, agosto y septiembre para llegar a…
CrowdStrike celebra este evento en Ámsterdam entre el 5 y el 7 de noviembre.