Categories: ComponentesWorkspace

Google diseñará sus propios procesadores; ¿por qué es tan importante?

La conferencia Google I/O ha dejado muchos titulares este año. Tal vez el más importante (por sus implicaciones futuras) es que el gigante de internet diseñará sus propios chips para impulsar la Inteligencia Artificial.

El anuncio supone por un lado la entrada de Google en un segmento competitivo. No se espera que los de Mountain View se conviertan de pronto en competidores de Intel, aunque sí es posible que suponga una amenaza para Nvidia e IBM.

Google es uno de los principales clientes de Intel. Compra un 5% de todos los CPUs que se venden a nivel global e IDC estima que en el último año compró 1,2 millones de chips.

El caso de Nvidia es algo diferente al de Intel. El fabricante es el principal vendedor de GPUs a nivel mundial y entre sus planes de negocio está la de expandir su negocio al terreno de la inteligencia artificial. De hecho, el último GPU de la firma, el Tesla P100 GPU, con sus 150.000 millones de transistores está diseñado para la inteligencia artificial.

Tal y como cuentan en The Verge, la compañía ha invertido en torno a 2.000 millones de dólares en I+D para desarrollarlo.

La propuesta de Google, a la que ha llamado Tensor Processing Unit (TPU), va un paso más allá de los GPUs. De momento está usando TPUs y GPUs para sus redes neuronales artificiales, pero en un futuro inmediato Google dejará de lado los GPUs.

La razón principal, explica Urs Hölzle a Wired, uno de los máximo responsables de los centros de datos de Google, es que “el GPU es demasiado general para machine learning. No fue diseñado para eso”.

La forma en la que Google pasará a ser uno de los principales competidores de IBM en la materia es porque el proyecto de Google sobre machine learning y que potenciarán los nuevos chips, viene a ser el homólogo del Watson de IBM.

Tras Watson hay 90 servidores IBM Power 750. Cada uno de ellos utiliza un procesador Power7 de 8 núcleos a 3,5 GHz.

El TPU de Google requiere menos transistores por operación, por lo que pueden llevarse a cabo más operaciones. El resultado: las operaciones basadas en machine learning podrán ejecutarse mucho más rápido.

No será hasta dentro de unos años hasta que descubramos el verdadero impacto del lanzamiento, aunque las posibilidades de cambios importantes en la industria de procesadores que potencian operaciones de inteligencia artificial son, a día de hoy, bastante probables.

Nerea Bilbao

Redactora Jefe. Tras pasar por la radio y la comunicación corporativa me quedé atrapada en la Red. Ahora escribo en Silicon sobre empresas tecnológicas y finanzas. Interesada por todo lo relacionado con el ciberpoder y la relación de las tecnologías con los centros de poder.

Recent Posts

El volumen de transacciones con CBDC se multiplicará por 25 hasta 2031

En los próximos años asistiremos al ‘boom’ de las monedas digitales de bancos centrales. En…

5 horas ago

Estas son las amenazas a la seguridad que marcarán 2025

La popularidad de la tecnología de inteligencia artificial se dejará notar el año que viene…

23 horas ago

Los ciberdelincuencia alcanza a un 96 % de las empresas españolas

La mayoría de las compañías de nuestro país ha sido blanco de los cibercriminales en…

1 día ago

Seresco facturó casi 24 millones de euros durante el primer semestre

Experimentó una mejoría del 20 % en comparación con los seis primeros meses del ejercicio…

1 día ago

Econocom mantiene sus objetivos de crecimiento

La compañía espera incrementar sus ingresos entre un 3 % y un 5 % en…

1 día ago

Showroomprivé Marketplace llega a España

Este proyecto complementario a la oferta de ventas flash ya existe en Francia y Bélgica…

1 día ago