Categories: ComponentesWorkspace

Google diseñará sus propios procesadores; ¿por qué es tan importante?

La conferencia Google I/O ha dejado muchos titulares este año. Tal vez el más importante (por sus implicaciones futuras) es que el gigante de internet diseñará sus propios chips para impulsar la Inteligencia Artificial.

El anuncio supone por un lado la entrada de Google en un segmento competitivo. No se espera que los de Mountain View se conviertan de pronto en competidores de Intel, aunque sí es posible que suponga una amenaza para Nvidia e IBM.

Google es uno de los principales clientes de Intel. Compra un 5% de todos los CPUs que se venden a nivel global e IDC estima que en el último año compró 1,2 millones de chips.

El caso de Nvidia es algo diferente al de Intel. El fabricante es el principal vendedor de GPUs a nivel mundial y entre sus planes de negocio está la de expandir su negocio al terreno de la inteligencia artificial. De hecho, el último GPU de la firma, el Tesla P100 GPU, con sus 150.000 millones de transistores está diseñado para la inteligencia artificial.

Tal y como cuentan en The Verge, la compañía ha invertido en torno a 2.000 millones de dólares en I+D para desarrollarlo.

La propuesta de Google, a la que ha llamado Tensor Processing Unit (TPU), va un paso más allá de los GPUs. De momento está usando TPUs y GPUs para sus redes neuronales artificiales, pero en un futuro inmediato Google dejará de lado los GPUs.

La razón principal, explica Urs Hölzle a Wired, uno de los máximo responsables de los centros de datos de Google, es que “el GPU es demasiado general para machine learning. No fue diseñado para eso”.

La forma en la que Google pasará a ser uno de los principales competidores de IBM en la materia es porque el proyecto de Google sobre machine learning y que potenciarán los nuevos chips, viene a ser el homólogo del Watson de IBM.

Tras Watson hay 90 servidores IBM Power 750. Cada uno de ellos utiliza un procesador Power7 de 8 núcleos a 3,5 GHz.

El TPU de Google requiere menos transistores por operación, por lo que pueden llevarse a cabo más operaciones. El resultado: las operaciones basadas en machine learning podrán ejecutarse mucho más rápido.

No será hasta dentro de unos años hasta que descubramos el verdadero impacto del lanzamiento, aunque las posibilidades de cambios importantes en la industria de procesadores que potencian operaciones de inteligencia artificial son, a día de hoy, bastante probables.

Nerea Bilbao

Redactora Jefe. Tras pasar por la radio y la comunicación corporativa me quedé atrapada en la Red. Ahora escribo en Silicon sobre empresas tecnológicas y finanzas. Interesada por todo lo relacionado con el ciberpoder y la relación de las tecnologías con los centros de poder.

Recent Posts

Los mensajes RCS, otra vía de acceso para ciberataques

Los mensajes RCS ofrecen muchas más posibilidades que los SMS, pero también abren la puerta…

1 día ago

Telefónica Empresas ayudará a Microsoft a expandir los Copilot+ PC por España

Acompañará a las empresas en sus procesos de equipamiento, desde la elección del hardware hasta…

2 días ago

IBM y Esade promueven el uso de la IA en los Consejos de Administración

Juntos, trabajarán en la formación y la actualización de habilidades para que los consejeros impulsen…

2 días ago

ASUS lanza un Mini PC con inteligencia artificial

Este dispositivo incluye entre sus especificaciones procesador Intel Core Ultra (Serie 2) y botón Copilot.

2 días ago

EasyVisa adquiere una participación mayoritaria en OTRS Group

Ya cuenta en su poder con más del 90 % de las acciones del proveedor…

2 días ago

SoftwareOne y Crayon acuerdan fusionarse

Los actuales consejeros delegados, Raphael Erb y Melissa Mulholland, se convertirán en co-CEOs de la…

2 días ago