El aprendizaje de las máquinas sin ninguna implicación humana
Cómo el uso de redes generativas adversarias (GAN) en los sistemas de inteligencia artificial permite eventualmente el aprendizaje sin supervisión.
Uno de los mayores desafíos que enfrenta el desarrollo de la inteligencia artificial (AI) es que requiere una gran cantidad de aportación humana, tanto en términos de la participación de las personas cuando se trata de identificar e introducir datos de antemano como en términos de que los sistemas de formación de AI puedan funcionar.
Ian Goodfellow, científico que recientemente ha vuelto a Google Brain después de una temporada en el OpenAI de Elon Musk, espera resolver ambas cuestiones a través de un enfoque de la inteligencia artificial que implica entrelazar una red neuronal contra otra, tal y como recoge Wired.
La naturaleza del sistema incluye dos redes neuronales contrapuestas que se informan mutuamente a través de su oposición: la primera intenta crear algo sintético, por ejemplo, una imagen realista de un perro y la otra critica sus intentos, tratando de detectar las falsificaciones y señalando dónde ha fallado el primer sistema.
El concepto no es nuevo. Facebook publicó un artículo coescrito por su jefe de investigación de AI, Yann LeCunn, y el ingeniero Soumith Chintala en junio del año pasado, en el que se describe el uso de redes generativas adversarias (GAN) para permitir eventualmente el aprendizaje sin supervisión, sin que tenga lugar ninguna implicación humana.
Mediante el uso de GAN, los investigadores de AI no solo podrán disminuir la participación humana en la corrección de señales para permitir que los sistemas como los generadores de imágenes mejoren con el tiempo, sino que también podrán minimizar la cantidad de datos reales utilizados para generar herramientas de aprendizaje artificial útiles.