Un equipo del Instituto Niels Bohr presentó en Physical Review X el estudio “Real-time adaptive tracking of fluctuating relaxation rates in superconducting qubits”, y logró detectar cambios en qubits muchísimo más rápido de lo habitual.
Los qubits son la pieza básica de una computadora cuántica, pero también son extremadamente sensibles. Su rendimiento cambia cuando el entorno “se mueve”, incluso por defectos microscópicos del material.
Esos defectos pueden fluctuar cientos de veces por segundo. Y cada fluctuación puede alterar la velocidad con la que el qubit pierde energía y, con ella, información cuántica valiosa.
El problema es que, hasta ahora, muchas pruebas estándar tardaban hasta un minuto en caracterizar el qubit. Para algo que cambia en milisegundos, eso es como sacar fotos con exposición larga.
Con ese ritmo lento, lo único que se obtenía era un promedio: “tu qubit pierde energía a tal tasa”. Pero ese promedio podía ocultar que el qubit era inestable y cambiante.
Los investigadores usan una analogía simple: imagina un caballo arando, y tú le tiras ramas y piedras que se mueven rápido. El arador no puede esquivarlas, y la cosecha sufre.
En el Centro de Dispositivos Cuánticos del Niels Bohr Institute, el equipo liderado por el posdoctorado Fabrizio Berritta armó una medición adaptativa en tiempo real para seguir esas fluctuaciones.
Trabajaron con colaboradores de NTNU en Noruega, la Universidad de Leiden y Chalmers. La idea fue medir mientras el qubit cambia, no después, cuando ya se te pasó el momento.
El corazón del sistema es un controlador clásico rápido que actualiza su estimación de la “relajación” del qubit en pocos milisegundos. Eso calza con la velocidad natural de las fluctuaciones.
Para lograrlo, usaron un FPGA, un procesador programable pensado para operaciones ultrarrápidas. En vez de mandar datos a una PC y esperar, el cálculo ocurre ahí mismo.
Así, con pocas mediciones, el controlador genera una “mejor suposición” de cuán rápido se está descargando el qubit. El truco es ser eficiente, no acumular datos eternamente.
Programar un FPGA para tareas tan específicas suele ser doloroso, pero el equipo lo hizo funcionar con un modelo bayesiano. Ese modelo se actualiza tras cada medición individual.
En la práctica, el controlador va “aprendiendo” en vivo: ajusta cómo mide para extraer la mayor información posible, justo cuando el qubit está cambiando frente a tus ojos.
El resultado es que medición y análisis pasan a ocurrir casi en la misma escala de tiempo que las fluctuaciones del entorno del qubit. Reportan un salto de alrededor de 100 veces.
Además, este enfoque dejó algo claro que antes no se veía bien: qué tan rápido ocurren las fluctuaciones en qubits superconductores. Con métodos lentos, eso quedaba borroso.
Para hacerlo más accesible, usaron hardware comercial: un controlador con FPGA de Quantum Machines, el OPX1000. Encima, se programa con un lenguaje tipo Python, familiar en física.
La integración con hardware cuántico avanzado se apoyó en colaboración con el grupo de Morten Kjærgaard en el Niels Bohr Institute y con Chalmers, donde diseñaron y fabricaron el procesador.
La consecuencia práctica es fuerte: en un procesador cuántico no manda el mejor qubit, manda el peor. Y ahora puedes detectar cuándo uno “bueno” se vuelve “malo” en fracciones de segundo.
También ganan velocidad para juntar estadísticas de los qubits problemáticos: lo que antes tomaba horas o días, puede bajarse a segundos. Pero admiten que aún no explican muchas fluctuaciones.
