La revista Nature ha publicado esta semana un artículo del equipo Google AI Quantum, en el que afirman que al fin se ha logrado la ‘supremacía cuántica’. Es decir, la capacidad de los ordenadores cuánticos de resolver problemas que las supercomputadoras tradicionales tardarían años en resolver o que jamás podrían solucionar.
Los investigadores de la compañía de Mountain View anuncian en el artículo que han logrado desarrollar el sistema Sycamore, un procesador con qubits superconductores programables para crear estados cuánticos en 53 qubits, capaz de resolver en 200 segundos una operación que llevaría 10.000 años a la supercomputadora clásica más rápida.
Esta publicación viene a confirmar la filtración de un borrador del documento en un servidor de la NASA, de donde fue eliminado poco después. Sin embargo, quienes tuvieron tiempo de leer el informe no quedaron indiferentes, ya que adelantaba que Google habría logrado dicha supremacía cuántica.
Sin embargo, los expertos de IBM, una de las empresas que más impulsa el desarrollo de la supercomputación tradicional y de la computación cuántica -inmersa en una ‘guerra de qubits’-, creen que Google está exagerando sus resultados.
En un post publicado en un blog de investigación de la ‘Big Blue’, sus especialistas defienden que “una simulación ideal de la misma tarea puede realizarse en un sistema clásico en 2,5 días y con mucha mayor fidelidad”. Además, señalan que “ésta es una estimación conservadora, en el peor de los casos”, ya que confían en que las mejoras que se van produciendo permitan mejorar los resultados de la supercomputación clásica.
De este modo, consideran que no se ha rebasado el umbral de la supremacía cuántica según la definición original de John Preskill en 2012, quien acuñó el término, refiriéndose al punto en que la computación cuántica puede hacer cosas que las computadoras clásicas no son capaces de hacer.
Señalan que la estimación de que la simulación resuelta por Sycamore tardaría 10.000 años en realizarse mediante computación tradicional se basa en una premisa equivocada. Según explican, la afirmación de Google se basa en que los números involucrados serían demasiado grandes para almacenarse en la memoria RAM, sin tener en cuenta el almacenamiento en el disco duro.
Consideran que se ignora que las supercomputadoras cuentan con recursos como “una jerarquía de memorias y cálculos de alta precisión en hardware, diversos activos de software y una vasta base de conocimiento de algoritmos”, así como técnicas de mejora del rendimiento, como la división de circuitos, el procesamiento por lotes, el bloqueo de caché o la realización de cálculos en los componentes de CPU y GPU de los nodos híbridos. Así, hacen hincapié en que “es importante aprovechar todas esas capacidades cuando se compara computación cuántica y clásica”.
Además, remarcan que el desarrollo de nuevo y mejor hardware clásico, las optimizaciones de código para utilizar éste de manera más eficiente y el potencial de las comunicaciones directas de GPU podrían acelerar sustancialmente las simulaciones de las supercomputadoras.
Entre sus cometidos están supervisar la implementación de proyectos y el desarrollo de iniciativas de…
Así lo afirma un 71 % de los consumidores encuestados por GoDaddy. Hasta una cuarta…
El desarrollo de la Smart City en España es crucial, ya que 4 de cada…
La ciberseguridad es un desafío cada vez mayor con el usuario como punto más débil,…
Girará en torno a tres temáticas: desinformación, contrainteligencia y credenciales expuestas.
El 57 % de las compañías españolas está manteniendo este año su nivel de inversión…