L’espressione “quantum supremacy” fu coniata dal fisico teorico John Preskill nel 2012 per definire la capacità del computer quantistico di eseguire calcoli pressoché impossibili per le macchine basate sui transistor e il codice binario. Richard Feynman, nel 1981, aveva già espresso questo concetto, riflettendo sul paper pubblicato l’anno precedente da Paul Benioff, il primo studioso che seppe realizzare un modello quantomeccanico per la realizzazione di un computer.
Il transistor è una sorta di interruttore elettricamente controllabile e la natura binaria della computazione che caratterizza i computer tradizionali deriva dal fatto che esso possa essere solamente chiuso o aperto. Lo stato chiuso o aperto del singolo transistor costituisce un bit dal valore positivo o nullo e, per consentire a queste catene di bit di rappresentare una vasta quantità di informazioni elaborabili, occorrono molti transistor che rappresentino contemporaneamente molti valori positivi o nullo. L’ingegneria informatica degli ultimi decenni si è sforzata di miniaturizzare il più possibile i transistor, così da derivarne processori che ne accolgano un numero sempre più grande nello stesso spazio fisico. La Advanced Micro Devices produce transistor con tecnologia a sette nanometri (miliardesimi di metro), il che significa che sono mille volte più piccoli di un globulo rosso. In pratica, siamo in grado di produrre transistor grandi quanto qualche decina di atomi di silicio, avendo dinnanzi un limite teorico equivalente a circa venti degli stessi. In poche parole, siamo alle porte del limite fisico attribuito al processo di miniaturizzazione dei transistor da parte degli ingeneri elettronici.
Quand’anche poi riuscissimo a produrre transistor più microscopici di questi, sorgerebbe un altro problema: l’indeterminazione quantica. Al di sotto di una certa estensione, gli oggetti cadono fuori da un livello di realtà abbastanza “grossolano” da garantire la validità delle leggi fisiche per come siamo abituati a intenderle. Infatti, sotto una certa soglia di grandezze considerate, gli elettroni possono teletrasportarsi lungo il vettore del campo elettromagnetico in cui si trovano sfruttando i tunnel quantistici. Per semplificare, un elettrone è come un fantasma claustrofobico che sa attraversare i muri, ma non ama attraversare quelli troppo spessi. Quindi se facciamo transistor troppo piccoli, gli elettroni li attraverseranno ignorando i blocchi che incontrano e rendendo impossibile avere circuiti che alternino aperture a chiusure in riconoscibili sequenze di valori positivi e nulli. Inoltre, più sono piccoli i nostri transistor meno è potente la carica di cui necessitano per cambiare stato, il che aumenta la cadenza dei single-event upset, cioè i casi in cui una particella ionizzata che transita su un nodo sensibile di un dispositivo microelettronico ne altera lo stato provocando un errore. Se questa difformità tra la realtà macroscopica in cui viviamo e quella microscopica su cui è fondata rappresenta un ostacolo alla possibilità di implementare all’infinito un dato modello tecnologico, essa offre altresì una grande occasione per creare qualcosa di completamente nuovo: un computer modellato proprio sulla base delle regole microcosmiche.
Il primo postulato della fisica quantistica è il principio di sovrapposizione, in base al quale sappiamo che gli stati quantistici assomigliano a delle onde, perché due di essi possono sempre sommarsi in un terzo stato valido. È la vecchia faccenda del gatto di Schrödinger: a scatola chiusa, il gatto non è soltanto morto o vivo, ma possiede un proprio campo di probabilità che racchiude insieme la condizione della morte, quella della vita e anche un gruppo indefinito di stati ipotetici tra questi due poli. Volendo mettere giù la questione nei termini dell’ontologia classica, se nel mondo in cui viviamo le cose possono solo essere o non essere, nel mondo del microscopico le regole sono più sfumate. Lì le cose possono un po’ essere e un po’ non essere e farlo con infinite gradazioni. Ecco perché laddove un bit può avere solo un valore positivo o uno negativo, un qubit (quantum bit) può avere anche una varietà potenzialmente illimitata di valori un po’ positivi e un po’ negativi. Il limite è dato dalla nostra capacità di rilevare questi stati intermedi. È proprio questo che intendeva Schrödinger, dicendo che il campo di probabilità in cui è sospeso il suo povero gatto collassa in una condizione ben determinata di vita o di morte nel momento in cui qualcuno apre la scatola. Gli strumenti che abbiamo riducono gli stati intermedi a uno dei loro estremi, semplicemente perché sono strumenti approssimativi. Le posizioni degli elettroni e le direzioni della loro rotazione intorno ai nuclei atomici, gli spin, possono valerci come gatti di Schrödinger su cui svolgere calcoli che assommino alle posizioni estreme varie posizioni medie, o superposizioni. A soccorrerci in questo intento è un’altra regola tipica del microcosmo: l’entanglement, ovverossia la relazione a distanza che gemella due microparticelle inducendole ad assumere istantaneamente le alterazioni reciproche.
Due elettroni in entanglement, per esempio, avranno sempre i loro spin correlati. Se inverto quello di uno, inverto anche quello dell’altro e ciò accade a prescindere dalla loro distanza. Grazie a questa legge, un qubit può essere analizzato in modo invasivo, così da averne una lettura meno approssimativa. Il processo lo distruggerà, ma distruggerà nel contempo anche la sua relazione a distanza con il qubit a cui si era gemellato, lasciando il gemello inalterato. Questo permetterà al gate quantistico di elaborare il sistema di quel qubit in un secondo qubit dotato di un sistema nuovo che gemellerà a un terzo qubit e così via, di elaborazione in elaborazione.
Il 23 ottobre 2019, Nature ha pubblicato un articolo che illustra il successo del Google Quantum AI Lab nell’intento di creare un computer quantistico abbastanza complesso da eseguire calcoli problematici per i computer tradizionali. Sycamore, un processore quantistico programmabile a 53 qubit, ha completato in appena 200 secondi un’elaborazione che anche al più potente supercomputer del mondo, il Summit di IBM, avrebbe richiesto circa 10.000 anni. I tecnici IBM hanno analizzato i calcoli di sampling (campionamento) presi in esame, precisando che Summit avrebbe ottenuto lo stesso risultato in due giorni e mezzo, se la sua programmazione fosse stata integrata con opportune correzioni. Questa osservazione, tuttavia, non fa che confermare la superiorità di Sycamore. L’accesso all’entanglement e la sovrapposizione degli stati sono un’esclusiva assoluta di questo modello tecnologico, il quale per svolgere alcuni calcoli funziona incommensurabilmente meglio dei computer tradizionali. Gli studi in corso d’opera, negli ultimi anni, stanno dando molti eccellenti risultati. Il 3 dicembre del 2020, l’Università di Scienza e Tecnologia della Cina (USTC), con il suo Jiuzhang, un computer quantistico da 76 qubit basato sui fotoni, è riuscita a effettuare un campionamento del bosone gaussiano in soli 200 secondi, strappando la supremazia quantistica a Google.
Possiamo immaginare che questi ultimi siano destinati a essere sostituiti in gran numero dai computer quantistici? Questo di certo non accadrà presto e potrebbe forse non accadere affatto. Il margine di perfezionamento dei computer tradizionali, orientato al miglioramento della gerarchia delle memorie e alle nuove scoperte della scienza dei materiali, è ancora ampio e affascinante. I computer quantistici attuali sono erratici per la stessa ragione che poi li porta a essere anche rumorosi. Per funzionare devono essere conservati perennemente a temperature prossime allo zero assoluto, perché bisogna far sì che gli atomi intorno ai quali sciamano gli elettroni sulle cui modifiche si effettueranno i calcoli abbiano pochissima energia e si muovano quindi il meno possibile. Questo fatto è vero tanto per i computer quantistici che cambiano lo spin degli elettroni e le polarità dei nuclei atomici del fosforo con microonde mirate, sia per quelli, come Sycamore, che invece dirigono le microonde su condensatori superconduttori di alluminio congelato il cui variabile numero di elettroni va a costituire di per se stesso il sistema di un qubit. Le foto che spesso circolano in rete dei computer quantistici sono in realtà immagini dei potenti frigoriferi in cui essi sono sigillati per operare a 0,015 gradi kelvin. Anche creare delle sorte di schede quantistiche con funzioni specifiche da aggiungere ai PC tradizionali, per esempio dei dispositivi che criptano i dati sfruttando l’entanglement, potrebbe risultare troppo complesso. Un servizio simile, in realtà, dovrà essere creato, perché i computer quantistici sono in grado di risolvere per tentativi anche le password e le criptazioni più complesse attualmente utilizzate con imbarazzante facilità. Dovranno quindi essi stessi fornire livelli di criptazione più avanzati, magari trasmettendo direttamente ad altri computer quantistici gruppi di qubit in stato di entanglement con i propri, originando un sistema di comunicazione impossibile da intercettare. Il fatto che non possano avere le divisioni modulari delle memorie tradizionali tra sezioni a lungo, breve e brevissimo termine, li rende molto più rapidi, ma li espone anche a maggiori rischi in fatto di perdita dell’informazione. Quello che invece accadrà, sarà piuttosto che alcuni computer quantistici nel mondo saranno accessibili a enti di ricerca o anche a singoli individui che potranno chiedergli, mediante la rete, di svolgere per loro dei calcoli difficilissimi. I chimici potranno usarli per modellizzare le molecole, i matematici per risolvere equazioni difficilissime, i meteorologi per prevedere meglio e a più lungo termine le alterazioni climatiche, ma chiunque potrebbe usarli per fare query a database colossali. Il contributo che, in tal senso, possiamo legittimamente attenderci da questo strumento al progresso della conoscenza umana sfiora l‘inimmaginabile. Modellizzare le molecole significa tra l’altro poter creare nuovi materiali e farmaci finora relegati alla letteratura fantascientifica. È quindi con forte interesse che si attende di scoprire se, nei prossimi dieci anni o giù di lì, sarà possibile o meno avere computer quantistici più grandi e affidabili, perché in tal caso le nostre vite potrebbero essere arricchite da una messe di straordinarie innovazioni tecnologiche, esperienziali e teoretiche.
Note
[1] “The computer as a physical system: A microscopic quantum mechanical Hamiltonian model of computers as represented by Turing machines”, Journal of Statistical Physics, Vol. 22, 1980, pp. 563–591
[2] Cfr. https://www.lescienze.it/news/2016/10/10/news/transistor_piccolo_nanometro-3265784/
[3] https://www.nature.com/articles/s41586-019-1666-5
[4] https://www.nature.com/articles/d41586-020-03434-7