Computing
Quantum Computing Achieves Unconditional Exponential Speedup

Ciò che era stato espresso solo sulla carta è stato ora dimostrato in azione. La promessa dell’elaborazione quantistica è stata realizzata nella realtà, poiché hanno superato i computer classici in modo esponenziale e incondizionato1.
Per questo, un team di ricercatori, guidato da Daniel Lidar, professore di Ingegneria elettrica e informatica alla USC Viterbi School of Engineering, ha utilizzato un’astuta correzione degli errori e i potenti processori a 127 qubit di IBM che hanno consentito loro di affrontare una variante del problema di Simon, dimostrando che le macchine quantistiche stanno ora superando i limiti classici.
How Quantum Computing Overcomes Classical Limits and Noise
Per decenni, l’elaborazione classica è stata la norma. Tuttavia, negli ultimi anni, l’elaborazione quantistica ha subito sviluppi significativi.
Un’area emergente dell’informatica, l’elaborazione quantistica utilizza i principi della teoria quantistica (che spiega la natura e il comportamento della materia e dell’energia a livello atomico e subatomico) per aumentare drasticamente le velocità di calcolo.
Utilizzando la fisica quantistica, l’elaborazione quantistica mira a risolvere problemi che sono troppo complessi per i computer classici che utilizziamo quotidianamente. In effetti, l’elaborazione quantistica può risolvere determinati problemi di simulazione complessi che richiederebbero anche a un supercomputer tradizionale centinaia di migliaia di anni.
Raggiungere un vero vantaggio algoritmico sui computer classici è uno degli obiettivi principali dell’elaborazione quantistica per consentire future scoperte in chimica, crittografia, ottimizzazione e altri campi.
Ciò richiede hardware e algoritmi di elaborazione quantistica specializzati che sfruttano proprietà quantistiche come la sovrapposizione e l’intralcio. Inoltre, il rumore è un problema importante per i computer quantistici.
Dimostrare un vantaggio algoritmico sui computer classici sull’attuale hardware quantistico imperfetto e rumoroso rimane una sfida.
I progettisti hanno iniziato a esplorare nuove soluzioni come le macchine NISQ, ma questi dispositivi quantistici a scala intermedia rumorosi (NISQ) funzionano su una scala relativamente piccola di diversi centinaia di qubit.
Inoltre, sono soggetti a prestazioni degradate a causa della decoerenza (la perdita di coerenza quantistica, che comporta una perdita di informazioni del sistema nel suo ambiente) e degli errori di controllo.
Quindi, l’attenzione si concentra sull’aumento della velocità algoritmica quantistica su questi dispositivi, che è semplicemente un vantaggio di scala. Sebbene siano state fatte diverse dimostrazioni di questo tipo, la complessità dei problemi scelti in essi dipendeva dalla difficoltà di un set ristretto di algoritmi classici o congetture di complessità computazionale.
Di recente, è stato mostrato un aumento della velocità algoritmica quantistica non basato su assunzioni non dimostrate nel modello oracle. Ciò è stato mostrato per un algoritmo di Bernstein-Vazirani, che è stato osservato quando è stato eseguito su un processore IBM Quantum con rumore indesiderato eliminato attraverso la decoppia dinamica (DD), una tecnica comune di soppressione degli errori per i dispositivi NISQ.
Ora, il team di ricercatori dell’Università della California del Sud sta affrontando il problema del rumore implementando una variante del problema di Simon. Questo è un noto esempio in cui, in teoria, gli algoritmi quantistici possono risolvere un compito esponenzialmente più veloce dei loro omologhi classici, incondizionatamente.
Il problema di Simon è un precursore dell’algoritmo di Shor, che può essere utilizzato per lanciare il campo dell’elaborazione quantistica.
Fa anche parte dei primi problemi ad avere un aumento di velocità quantistica esponenziale dimostrato, sebbene nel modello Oracle. Il problema richiede un tempo esponenziale per essere risolto su un computer classico, ma su un computer quantistico senza rumore, richiede solo tempo lineare, supponendo che le query Oracle siano contate, ma non teniamo conto delle risorse spese per eseguirlo.
In questo problema, il sottogruppo nascosto abeliano coinvolge l’identità e una stringa segreta b con l’obiettivo di determinare b, quindi fondamentalmente trovare un modello di ripetizione nascosto in una funzione matematica.
In termini più semplici, è come un gioco di indovinello, in cui i giocatori cercano di indovinare un numero segreto, che non è noto a nessuno tranne che al presentatore del gioco, aka “l’oracolo”.
Il numero sacro viene rivelato una volta che un giocatore indovina due numeri per i quali le risposte date dall’oracolo sono identiche, e quel giocatore vince. Rispetto ai giocatori classici, i giocatori quantistici possono vincere questo gioco esponenzialmente più velocemente.
Achieving Unconditional Quantum Speedup

Per scoprire nuovi materiali, rompere codici e progettare nuovi farmaci con l’aiuto dei computer quantistici aumentando la velocità di calcolo, devono essere funzionali.
Ma come abbiamo notato sopra, il rumore o gli errori si frappongono. Gli errori prodotti durante i calcoli su una macchina quantistica finiscono per rendere i computer quantistici anche meno potenti dei computer classici. Fino ad ora.
Lidar della USC ha lavorato sulla correzione degli errori quantistici e ha mostrato un vantaggio di scala quantistico esponenziale sul cloud.
Ciò è stato dettagliato nel paper, ‘Dimostrazione di aumento di velocità algoritmica quantistica per un problema di sottogruppo nascosto abeliano’, in cui Lidar ha lavorato con collaboratori della USC e di Johns Hopkins.
“Ci sono state precedenti dimostrazioni di tipi di aumento di velocità più modesti come un aumento di velocità polinomiale. Ma un aumento di velocità esponenziale è il tipo più drammatico di aumento di velocità che ci aspettiamo di vedere dai computer quantistici.”
– Lidar
La principale innovazione per l’elaborazione quantistica, secondo Lidar, è dimostrare che possiamo effettivamente eseguire interi algoritmi con un aumento di velocità di scala rispetto ai nostri computer generici. Ma come ha chiarito, ciò non significa che puoi fare le cose 100 volte più velocemente.
Ma ciò che significa aumento di velocità di scala è che “quando aumenti la dimensione di un problema includendo più variabili, il divario tra le prestazioni quantistiche e classiche continua a crescere. E un aumento di velocità esponenziale significa che il divario di prestazioni si dimezza approssimativamente per ogni variabile aggiuntiva”, ha spiegato Lidar.
Ha poi affermato che l’aumento di velocità che il team ha mostrato è “incondizionato”. Ora, ciò significa che l’aumento di velocità non dipende da assunzioni non dimostrate.
Le precedenti affermazioni di aumento di velocità richiedevano l’assunzione che non ci sia un miglior algoritmo classico per confrontare l’algoritmo quantistico.
Il team ha utilizzato un algoritmo che hanno modificato per il computer quantistico per risolvere una variante del “problema di Simon”.
Ora, per raggiungere l’aumento di velocità esponenziale, “la chiave è spremere ogni stilla di prestazione dall’hardware: circuiti più brevi, sequenze di impulsi più intelligenti e mitigazione degli errori statistici”, ha notato il primo autore Phattharaporn Singkanipa, che è un ricercatore dottorale alla USC.
Il team ha raggiunto ciò in quattro modi diversi. I ricercatori hanno limitato i dati di input restringendo il numero di numeri segreti consentiti. Tecnicamente, ciò è stato fatto limitando il numero di 1 nella rappresentazione binaria dell’insieme di numeri segreti. Ciò ha portato a meno operazioni logiche quantistiche rispetto a quelle altrimenti necessarie, a sua volta riducendo le possibilità di accumulo di errori.
Quindi hanno compresso le operazioni logiche quantistiche richieste attraverso la trasposizione, un processo di riscrittura di un input dato per adattarlo alla topologia di un particolare dispositivo quantistico.
Successivamente, un metodo chiamato “decoppia dinamica” è stato applicato e ha avuto il maggior impatto sulla capacità dei ricercatori di dimostrare un aumento di velocità quantistico. Ciò che questo metodo comporta è l’applicazione di sequenze di impulsi progettati con cura per separare il comportamento di un qubit dal suo ambiente rumoroso e mantenere l’elaborazione quantistica sulla strada giusta.
Infine, i ricercatori hanno applicato la mitigazione degli errori di misura (MEM) per trovare e correggere determinati errori. L’obiettivo di questo passaggio è rettificare gli errori che sono stati lasciati dalla decoppia dinamica a causa di imperfezioni nella misurazione dello stato dei qubit alla fine dell’algoritmo.
Paving the Way to Quantum Utility

Con l’elaborazione quantistica che offre vantaggi significativi in campi come la logistica, la scienza dei materiali, la modellazione finanziaria, l’AI e la sicurezza informatica sfruttando i fenomeni quantistici per risolvere problemi complessi, il mercato sta vedendo contributi e crescita significativi.
La comunità ha anche iniziato a mostrare come i processori quantistici possano superare i loro omologhi classici in compiti mirati.
“Il nostro risultato mostra che già oggi i computer quantistici si trovano saldamente sul lato di un vantaggio di scala quantistico.” ha detto Lidar, che è anche professore di Chimica e Fisica alla USC Dornsife College of Letters, Arts and Science e co-fondatore di Quantum Elements, una società che apre la strada all’utilità quantistica su larga scala e collega gli utenti con i computer quantistici.
Un paio di mesi fa, il team di Quantum Elements ha segnalato2 il raggiungimento di una innovazione. La loro tecnica innovativa, la decoppia dinamica logica, affronta gli errori logici, una sfida costante nell’elaborazione quantistica.
Il team ha dimostrato come questo particolare percorso impedisca errori che i codici di correzione degli errori tradizionali non possono affrontare, mantenendo al contempo un’impronta di qubit limitata.
Hanno combinato la correzione degli errori con la decoppia dinamica logica, che ha consentito al team di migliorare notevolmente la fedeltà dei qubit logici intrecciati, portando le applicazioni quantistiche pratiche sempre più vicine alla realtà.
Con la ricerca più recente, intanto, Lidar ha detto che “il vantaggio delle prestazioni quantistiche sta diventando sempre più difficile da contestare”, poiché la separazione delle prestazioni non può essere invertita perché l’aumento di velocità esponenziale dimostrato è “incondizionato”.
Lo studio mostra un aumento di velocità algoritmica quantistica inequivocabile per una versione di peso di Hamming (HW) limitato del problema utilizzando due diversi processori IBM Quantum. I ricercatori hanno trovato un aumento di velocità quantistica migliorato quando il calcolo è protetto da DD. L’uso di MEM ha ulteriormente migliorato il vantaggio di scala.
MEM e accoppiamento dinamico sono stati utilizzati per la soppressione degli errori e modificati per adattare il problema ai dispositivi quantistici reali. Hanno aiutato a mantenere la coerenza quantistica e a migliorare l’accuratezza nonostante le limitazioni dell’hardware.
Con i loro esperimenti, i ricercatori hanno portato gli algoritmi NISQ molto più vicini a una dimostrazione di un aumento di velocità quantistico e hanno sottolineato il ruolo chiave che le tecniche di soppressione degli errori quantistici svolgono in tale dimostrazione.
Dimostrare un aumento di velocità esponenziale nel risolvere il problema su hardware quantistico reale, secondo i ricercatori, è “un importante traguardo per il settore”. Oltre a colmare il divario tra teoria e pratica, i loro risultati sottolineano anche le crescenti capacità dei processori quantistici attuali. Lo studio ha notato:
“Man mano che l’hardware continua a migliorare, il nostro approccio apre la strada a dimostrazioni ancora più potenti del vantaggio quantistico nel prossimo futuro.”
Nonostante tutto ciò, non ci sono applicazioni pratiche della tecnologia oltre a vincere giochi di indovinelli. Ciò è stato vero anche per altre innovazioni nel settore.
“Abbiamo bisogno di un momento ChatGPT per i quantistici”, ha detto Francesco Ricciuti, un associato della società di venture capital Runa Capital, a CNBC lo scorso dicembre, quando Google ha presentato il nuovo chip che afferma segna un importante passo avanti nell’elaborazione quantistica.
Il chip quantistico di Google si chiama Willow, che ha 105 qubit e può ridurre gli errori “esponenzialmente” man mano che il numero di qubit aumenta. Ciò “risolve una sfida chiave nella correzione degli errori quantistici che il settore ha perseguito per quasi 30 anni”, ha detto Hartmut Neven, fondatore di Google Quantum AI.
Willow ha eseguito un calcolo che avrebbe richiesto ai più veloci supercomputer odierni 10 sestillioni di anni, in meno di cinque minuti.
“Stanno cercando di definire un problema molto impegnativo per i computer normali che possano risolvere con i computer quantistici. È incredibile che possano farlo, ma non significa che sia utile”, ha detto Ricciuti all’epoca.
Anche Google ha affermato che il suo benchmark RCS “non ha applicazioni nel mondo reale note” e le “simulazioni scientifiche di sistemi quantistici”, che hanno eseguito e portato a nuove scoperte scientifiche, sono “ancora alla portata dei computer classici”.
Il gigante tecnologico, tuttavia, sta lavorando per entrare nel regno degli algoritmi che non sono solo al di là della portata dei computer classici, ma sono anche “utili per problemi commercialmente rilevanti e reali”.
All’inizio di quest’anno, Julian Kelly, direttore dell’hardware di Google Quantum AI, ha detto che potremmo essere “circa cinque anni lontani da una vera e propria applicazione pratica che possa essere risolta solo su un computer quantistico”.
Il CEO di Nvidia, Jensen Huang, crede anche che l’elaborazione quantistica possa “avere un impatto straordinario”, ma ha notato che la tecnologia è “assurdamente complicata”.
Secondo Lidar, “molto lavoro rimane da fare prima che i computer quantistici possano essere considerati come aver risolto un problema pratico del mondo reale”. E ciò richiederebbe aumenti di velocità che non dipendono da oracoli che conoscono la risposta in anticipo. Inoltre, dovremmo fare notevoli progressi nei metodi per ridurre ulteriormente la decoerenza e il rumore.
Tuttavia, dimostrando aumenti di velocità esponenziali, che era precedentemente solo una “promessa sulla carta” dei computer quantistici, i ricercatori hanno raggiunto un importante traguardo, che vale la pena celebrare.
Investing in Quantum Technology
Con i computer quantistici che segnano un grande balzo in avanti nelle capacità di calcolo, numerosi laboratori, università, società e agenzie governative in tutto il mondo stanno sviluppando la tecnologia di elaborazione quantistica.
Quindi, quando si tratta di opportunità di investimento, abbiamo Amazon (AMZN ), Intel (INTC ), e Microsoft (MSFT ) tra gli altri attivamente alla ricerca dello spazio. Ma oggi, daremo un’occhiata al potenziale di investimento di IBM (IBM ), un pioniere dell’hardware quantistico.
International Business Machines Corporation (IBM )
I processori a 127 qubit di IBM sono stati utilizzati nell’esperimento della USC. È stato a fine novembre 2021 che IBM ha presentato per la prima volta questo processore, chiamato Eagle, che ha seguito il processore ‘Hummingbird’ a 65 qubit lanciato nel 2020 e il processore ‘Falcon’ a 27 qubit un anno prima.
La USC è in realtà un centro di innovazione IBM Quantum, mentre Quantum Elements è una startup nella rete IBM Quantum.
Per gli sforzi concentrati nel settore, la società ha una piattaforma dedicata, IBM Quantum, che mira a costruire il primo computer quantistico a larga scala a prova di errore. Il gigante tecnologico mira a consegnare un sistema che esegua correttamente 100 milioni di porte su 200 qubit logici entro il 2029. Con questo sistema, IBM sarà “sbloccando il primo percorso praticabile per realizzare il pieno potere dell’elaborazione quantistica”.
IBM sta costruendo questo computer quantistico chiamato “Starling” nel suo campus di New York, e supporterà un circuito profondo e corretto degli errori. Secondo la sua roadmap, la società sta anche pianificando un nuovo processore IBM Quantum Nighthawk da rilasciare più tardi quest’anno.
Lo scorso mese, ha distribuito un sistema Quantum System Two in un centro di ricerca in Giappone. E questa settimana, il gigante tecnologico ha partecipato al finanziamento di 26 milioni di dollari della startup Qedma con il suo CEO che si aspetta di dimostrare quest’anno “con fiducia che il vantaggio quantistico è qui”. Qedma è già disponibile tramite il catalogo delle funzioni Qiskit di IBM, che rende i quantistici accessibili agli utenti finali.
Mentre conduce la tecnologia quantistica, la società è principalmente conosciuta per la sua esperienza cloud, AI e consulenza, che fornisce attraverso i segmenti Software, Consulenza e Infrastruttura.
Se guardiamo alle prestazioni di mercato di IBM, le azioni della società con un capitale di 268,6 miliardi di dollari sono quotate a 289 al momento della scrittura, in aumento del 30,85% dall’inizio dell’anno. Le azioni di IBM hanno avuto un bel tempo con i prezzi in aumento del 145% negli ultimi tre anni mentre la società si presenta come il fornitore di tecnologia aziendale di prossima generazione.
Ha un EPS (TTM) di 5,85, un P/E (TTM) di 49,81 e un ROE (TTM) di 21,95%. Il rendimento degli utili disponibile per gli azionisti, nel frattempo, è del 2,31%.
(IBM )
Per quanto riguarda le sue prestazioni finanziarie, IBM ha segnalato un aumento del 1% del suo fatturato a 14,5 miliardi di dollari per il primo trimestre del 2025. Il margine lordo GAAP era del 55,2% e il margine lordo non GAAP era del 56,6%. La cassa operativa era di 4,4 miliardi di dollari, mentre il flusso di cassa libero era di 2 miliardi.
Il CEO Arvind Krishna ha attribuito il fatturato, la redditività e il flusso di cassa che superano le aspettative a “una forte domanda di intelligenza artificiale generativa”, con IBM che rimane “ottimista sulle opportunità di crescita a lungo termine per la tecnologia e l’economia globale”.
Ultime notizie e sviluppi azionari IBM
Conclusione
Dimostrare un aumento di velocità algoritmica quantistica, che scala con la dimensione del problema, è fondamentale per stabilire l’utilità dei computer quantistici. Quindi, la dimostrazione di un aumento di velocità esponenziale incondizionato segna un momento cruciale nell’elaborazione quantistica, provando che i dispositivi odierni possono liberarsi dai limiti classici.
Questo risultato dei ricercatori estende notevolmente l’ambito degli aumenti di velocità quantistici per gli algoritmi oracolari, espande la frontiera dei risultati empirici del vantaggio quantistico e indica che gli algoritmi praticamente rilevanti sono finalmente alla portata.
Nel complesso, il viaggio dei computer quantistici verso applicazioni pratiche e quotidiane è ancora in corso, con miglioramenti continui per sbloccare il pieno potere della tecnologia quantistica!
Clicca qui per un elenco delle principali società di elaborazione quantistica.
Studi citati:
1. Singkanipa, P.; Kasatkin, V.; Zhou, Z.; Quiroz, G.; Lidar, D. A. Dimostrazione di aumento di velocità algoritmica quantistica per un problema di sottogruppo nascosto abeliano. Phys. Rev. X 2025, 15 (2), 021082. https://doi.org/10.1103/PhysRevX.15.021082
2. Vezvaee, A.; Tripathi, V.; Morford-Oberst, M.; Butt, F.; Kasatkin, V.; Lidar, D. A. Dimostrazione di qubit logici intrecciati ad alta fedeltà utilizzando transmon. arXiv 2025, arXiv:2503.14472. https://doi.org/10.48550/arXiv.2503.14472










