Intel celebra estos días un aniversario importante para la historia de la informática personal: el Intel 4004, el primer microprocesador, cumplía ayer 15 de noviembre 40 años. Desde entonces la informática ha evolucionado hasta alcanzar un nivel que nadie, ni siquiera los creadores de aquel primer chip de 4 bits y 2.300 transistores, habrían podido imaginar.
De hecho, el Intel 4004 se convirtió en el principio de todo un poco por accidente: nació como un encargo por parte de Busicom, un fabricante japonés de calculadoras, a Intel, para que fabricase unos procesadores específicos para una línea de calculadoras. Intel puso a trabajar a los ingenieros Stan Mazor, Marcian Hoff y Federico Faggin, que tras un proceso de ensayo y error, lanzaron el microprocesador el 15 de noviembre de 1971.
El Intel 4004 se habría quedado en algo exclusivo para las calculadoras de Busicom si esta no hubiese pensado que el microprocesador era demasiado caro. Intel ofreció entonces un trato: si les dejaban vender el microprocesador en otros mercados que no fuesen el de la calculadora, bajarían el precio. Eran principios de los 70 y ni tan siquiera Intel imaginaba el impacto de esa decisión.
“No podía imaginar la plétora de aplicaciones que surgieron”, explicaba estos días uno de los padres del microchip, Federico Faggin. “Y todavía más importante, lo que no me imaginaba era el impacto social“. Porque sí, Faggin sabía que el Intel 4004 (y sus sucesores) podía hacer funcionar a máquinas distintas a calculadoras, pero de ahí a verlo como la revolución que fue para el mercado -entonces inexistente- del PC, hay bastante distancia.
Aquel primer Intel 4004 tenía 2.300 transistores, el último Intel Core de segunda generación tiene casi mil millones. Faggin no vio el futuro entonces, ¿lo ve ahora? A pesar del enorme potencial de los microprocesadores, su padre cree que el próximo paso, el de la inteligencia artificial, está todavía muy lejos. “El cerebro humano es mucho más poderoso que un ordenador”, aseguró, “tiene características que no tenemos ni idea de cómo implementar”.
Por supuesto, Faggin sabe que los microprocesadores seguirán mejorando y avanzando a niveles que todavía no podemos imaginar, pero no cree que lleguen a hacerle “competencia” al cerebro humano, según recoge All Things Digital. “Nuestra experiencia es algo vivido”, aseguró Faggin. “Un ordenador es un zombie”.
En los próximos años asistiremos al ‘boom’ de las monedas digitales de bancos centrales. En…
La popularidad de la tecnología de inteligencia artificial se dejará notar el año que viene…
La mayoría de las compañías de nuestro país ha sido blanco de los cibercriminales en…
Experimentó una mejoría del 20 % en comparación con los seis primeros meses del ejercicio…
La compañía espera incrementar sus ingresos entre un 3 % y un 5 % en…
Este proyecto complementario a la oferta de ventas flash ya existe en Francia y Bélgica…