La computación tradicional ha sido una de las palancas que ha impulsado la innovación y crecimiento económico durante la segunda mitad del siglo XX y los albores del presente milenio. Sin embargo, todavía hay problemas que no es capaz de resolver. La computación cuántica tiene la clave.
“Hay algunos problemas tan difíciles, tan increíblemente vastos, que incluso si cada superordenador del mundo trabajase en el problema en conjunto, tomaría más tiempo que la vida del Universo para resolverlo. Las computadoras cuánticas ofrecen la promesa de resolver algunos de los mayores desafíos de nuestro planeta: medio ambiente, agricultura, salud, energía, clima, ciencia de los materiales y aquellos que aún no hemos imaginado. El impacto de las computadoras cuánticas será de gran alcance y tendrá un impacto tan grande como la creación del transistor en 1947, lo que allanó el camino para la economía digital de hoy”, indica el equipo especializado en computación cuántica de Microsoft.
María José Alfonso, marketing manager de Altim, señala que “aplicando principios de la mecánica cuántica, como los conceptos de superposición y entrelazamiento, se ha creado una computación que es totalmente diferente a la informática tradicional”. Así, explica algunas de las diferencias entre la computación tradicional y la cuántica. Uno de los principios de la computación cuántica es la superposición. “Los bits, la unidad básica de información en la computación actual, sólo pueden contener un estado: 1 ó 0. Los qubits -bits cuánticos-, la unidad básica de información en la computación cuántica, permiten la superposición cuántica, combinación de ambos estados. Es decir, su estado puede ser 1, 0 o ambos a la vez”, precisa.
El segundo principio es el entrelazamiento. “Significa que cada qubit no puede ser descrito independientemente, sino que existe una correlación entre los mismos”, apunta. Además, la computación cuántica conlleva una nueva aplicación de los logaritmos. “Con la computación tradicional, comparamos individualmente todas las soluciones hasta encontrar la óptima. Por el contrario, si cogemos el ejemplo de optimización, la computación cuántica analiza todos los escenarios posibles a la vez para proporcionar el óptimo, aplicando logaritmos para eliminar el ruido durante el análisis e ir descartando escenarios”, especifica la responsable de Altim.
Microsoft afirma que “la llegada de una computadora cuántica escalable de propósito general podría expandir drásticamente el espectro de lo que podemos lograr a través de la informática: crear la capacidad de modelar, diseñar, analizar y construir nuevos materiales sintéticos a escala nanométrica y productos químicos; ayudar a desarrollar nuevo hardware y software para revitalizar el potencial de la informática tradicional; impulsar el desarrollo del machine learning y la inteligencia artificial, y preparar el escenario para una era completamente nueva de innovación humana que marcará el comienzo de una ‘economía cuántica’”.
Alfonso señala “todos los sectores son susceptibles de beneficiarse de su utilización”. Por ejemplo, en el ámbito financiero podría utilizarse para analizar todos los escenarios posibles y comparar los riesgos. En la salud, serviría para realizar simulaciones de moléculas para las farmacéuticas, permitiendo desarrollar nuevos medicamentos de forma más fácil y rápida. Y en logística y viajes contribuiría a optimizar rutas, reducir el tráfico, mejorar el tráfico aéreo, perfeccionar las cadenas de suministro, etc.
En esa misma línea, Walter Riess, director técnico para Europa de Quantum Computing de IBM, señala que la computación cuántica dará la posibilidad de “abordar problemas complejos y exponenciales que van desde la química hasta las ciencias de los materiales, el descubrimiento de fármacos y la optimización de la cartera financiera”. Igualmente, desde Intel se apunta que las computadoras cuánticas pueden simular la naturaleza para avanzar en la investigación en química, ciencia de materiales y modelado molecular. Además, Riess recuerda que la aparición de nuevas tecnologías suele generar el desarrollo de aplicaciones inesperadas.
Microsoft ya cuenta con casos prácticos. “Dos ejemplos de clientes con los que estamos trabajando actualmente en soluciones de inspiración cuántica son Case Western Reserve University, a quienes ayudamos a mejorar la eficacia de las máquinas de imagen por resonancia magnética; Dubai Electricity and Water Authority, donde estamos diseñando la gestión de recursos de varias fuentes de energía”, explica la compañía.
Una de las incógnitas que plantea la computación cuántica es su combinación con las tecnologías que usamos actualmente. Como se indicaba anteriormente, puede servir para dar un empujón a la inteligencia artificial y el machine learning. “Para que la inteligencia artificial pueda aprender será necesario una generación de ordenadores mucho más potentes para hacer el análisis de big data. Se hace imprescindible el uso de ordenadores cuánticos para potenciar esta tecnología, ya que pueden analizar grandes bases de datos de manera mucho más eficiente”, reseña la marketing manager de Altim.
Asimismo, señala que la informática tradicional y la computación cuántica tienen que ser complementarias. “Tras el análisis y resolución del problema por el ordenador cuántico, se trasladará ese análisis a 1 y 0 para que un ordenador tradicional nos pueda facilitar el resultado. Por lo tanto, la computación tradicional no desaparecerá en el corto-medio plazo”.
Pero también se plantean otros desafíos. Por ejemplo, una de las implicaciones de la computación cuántica es su capacidad para deshacer el encriptado de datos, ya que este cifrado fue concebido para evitar ser resuelto por ordenadores tradicionales. “Se pone en riesgo uno de los pilares de la tecnología blockchain: su cifrado. Ya hay equipos de investigación trabajando en el cifrado de los datos que sea inmune a la computación cuántica. Otra opción sería la utilización de blockchains privados”, indica Alfonso.
El potencial de la computación cuántica es innegable, pero su despliegue también se puede ver frenado por ciertos obstáculos. Los expertos de Microsoft apuntan que uno de los mayores desafíos para construir una computadora cuántica son las exigencias que plantea el entorno de los qubits. “Un sistema cuántico sólo puede permanecer en un estado cuántico cuando no está siendo perturbado, por lo que las computadoras cuánticas están diseñadas para entornos increíblemente fríos y únicos. Es por eso que estamos enfocados en qubits topológicos, que creemos que son más capaces de soportar desafíos como el calor o el ruido eléctrico, lo que les permite permanecer en un estado cuántico por más tiempo. Eso, a su vez, los hace mucho más prácticos y efectivos”, explican.
En este sentido, Alfonso incide en que la computación requiere una temperatura de enfriamiento “menor que la que existe el espacio exterior”, además de exigir mucho espacio para su correcto funcionamiento. Por este motivo, no vale con desarrollar procesadores de muchos qubits para conseguir el éxito. De hecho, cuantos más qubits, mayor es la probabilidad de error. Además de crear en entorno óptimo para evitar la incidencia de las condiciones ambientales, es fundamental desarrollar sistemas capaces de autochequearse y corregir los posibles errores, permitiendo la fiabilidad y estabilidad de los resultados.
De este modo, la responsable de Altim considera que “será difícil que en el corto plazo se aplique como la computación normal”, ya que “es difícil que tenga la movilidad o que sea accesible a todos en su versión ‘on premise’”.
A la espera de que se vayan resolviendo esas dificultades y su uso se extienda, ya estamos viendo algunas pruebas y movimientos muy interesantes. Por ejemplo, IBM creó Quantum Experience –o Q Experience- en 2016. Se trata de una plataforma accesible a todo el mundo desde la nube que permite a los usuarios hacer experimentos para probar sus teorías, aprovechando el potencial de un procesador cuántico de cinco qubits. Un año después, puso a disposición de los usuarios un procesador de 20 qubits, a la par que anunciaba la nueva generación de ordenadores cuánticos IBM Q, con la construcción del primer prototipo de procesador de 50 qubits. A finales del año pasado, IBM afirmaba que ya habían usado Q Experience más de 60.000 usuarios, realizando 1,7 millones de experimentos. Además, la compañía ofrece QISkit, un kit de desarrollo de software de código abierto para programar y ejecutar ordenadores cuánticos.
Por su parte, Microsoft señala que “ha estado trabajando constantemente para crear una máquina cuántica de propósito general escalable durante más de una década, adoptando una estrategia distinta dentro de la industria: la búsqueda de una tecnología escalable y tolerante a fallas, conocida como informática cuántica topológica”.
La empresa apuesta por un desarrollo ‘integral’. “Desde hardware hasta sistemas de control y herramientas de desarrollo y programación, estamos adoptando un enfoque full stack, con el objetivo de hacer que el poder de la computación cuántica sea accesible para el conjunto más amplio de usuarios y clientes. Nuestro programa depende de tres pilares clave: construir una computadora cuántica usando un enfoque topológico revolucionario, aprovechando los qubits topológicos confiables, escalables y tolerantes a fallas, que permiten cálculos cuánticos más largos y potentes; diseñar un nivel de control criogénico único, con una extremadamente baja disipación de potencia y calor para controlar de manera eficiente un sistema cuántico a gran escala; y el desarrollo de una completa compilación de software para permitir la programación de la computadora cuántica y el control del sistema a escala”, desgranan los expertos de Microsoft.
Por su parte, Intel firmó en 2015 un acuerdo de colaboración con QuTech, el instituto de investigación cuántica de la Delft University of Technology (Holanda). Esta alianza abarca todo el sistema cuántico, desde procesadores qubit hasta la arquitectura de hardware y software precisa para controlar dichos dispositivos. Fruto de la misma, en octubre del pasado año presentó un chip de 17 qubits. Y después logró desarrollar un procesador de 49 qubits. Además, está comenzando a probar el chip más pequeño para la computación cuántica. Se trata de ‘spin qubit’, con qubits de alrededor de 50 nanómetros de diámetro y un tamaño más pequeño que la goma de borrar de un lápiz.
Esta ‘guerra de los qubits’ no ha hecho más que empezar. IBM considera que se puede duplicar el número de qubits cada 8 meses, como recogía Nextbigfuture.com. Siguiendo esta proyección, estaríamos en 400 qubits a finales de 2019. Google también ha presentado las armas con las que acude a esta batalla: Bristlecone. Se trata de un procesador cuántico de 72 qubits, presentado en marzo de este año. Además, la compañía trabaja codo con codo con la NASA en el desarrollo del ordenador cuántico D-Wave. La actual versión de esta computadora cuántica, el D-Wave 2000Q, cuenta con 2048 qubits.
El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…
Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…
Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…
El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…
Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…
Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…