Aquellos que se preguntaban qué es lo que se esconde tras la potencia de Google en aprendizaje automático, ya tienen la respuesta. La compañía de Mountain View ha decidido desvelar un secreto en el que ha estado trabajando durante los últimos años.
Según ha explicado, hace un tiempo Google comenzó a trabajar en un proyecto para construir aceleradores personalizados, bajo su propio diseño, con el objetivo de combinarlos específicamente con aplicaciones de aprendizaje automático. Y, hace ya más de doce meses, introdujo el resultado en sus centros de datos que ha acabado impulsando aplicaciones como RankBrain y Street View.
Se trata de Tensor Processing Unit o TPU, que es un ASIC construido a medida para TensorFlow del que Google se muestra muy orgullosa. No en vano, gracias a su integración en la infraestructura del gigante californiano se habría conseguido incrementar el rendimiento por vatio. Y ya se habla de un avance tecnológico equivalente a tres generaciones de la famosa Ley de Moore.
El invento de Google solicita menos cantidad de transistores por operación a la hora de trabajar con el aprendizaje automático, además de habilitar “resultados más inteligentes con mayor rapidez”. Así lo dice Google en uno de sus blogs, donde se impone como meta liderar a la industria en este campo tecnológico.
Además de fakes news, en internet encontramos múltiples formas de desinformación: clonación de medios de…
Sin las medidas de protección necesarias, un almacén puede convertirse en el eslabón más débil…
Adyen publica los resultados de su estudio "Estrategias para reducir el coste total de pagos",…
Del porcentaje global del 21 % se baja a un 18 % en el caso…
Entrevistamos a John Shier, CTO Field de Sophos, que hace repaso de las amenazas surgidas…
Desde fibratel comparten una serie de pautas para orientar la construcción de centros de datos…