Il quantum computing è considerato la “next big thing” dell’informatica. Un nuovo paradigma computazionale per ora confinato nelle stanze segrete dei quantum lab, dove tecnici e ricercatori stanno lavorando assiduamente per rendere fruibile tutta la sua incredibile potenza.
Preso atto che ci sia ancora tantissimo lavoro da fare, su tutti i fronti dello sviluppo di una tecnologia che si spinge senza mezzi termini ai limiti della fisica, vediamo in cosa consiste il quantum computing, perché è capace di generare tutto questo interesse mediatico, anche cercando di analizzare quali potranno essere le sue principali applicazioni.

Cosa si intende per quantum computing

Le leggi della fisica quantistica e i principi della meccanica quantistica, oggetto di studio dai primi anni del Novecento, hanno successivamente determinato le basi per una nuova branca dell’informatica: l’informatica quantistica, il cui calcolo si differenza profondamente da quello operato dall’informatica classica. Mentre quest’ultima adotta il sistema binario per definire lo stato dei bit (0 o 1), il quantum computing utilizza quale unità fondamentale il quantum bit, che grazie al principio di sovrapposizione quantistico è in grado di assumere contemporaneamente lo stato di 0 e 1, oltre a tutte le condizioni intermedie.

Al principio di sovrapposizione (superposition) è associato il principio di correlazione (entanglement) per cui in una coppia di qubit, la variazione di un qubit corrisponde ad una variazione certa del qubit correlato, indipendentemente dalla sua ubicazione geografica. Tale fenomeno è reso possibile grazie alla teleportazione, ma tuttora non si conoscono esattamente le sue cause, a conferma di quanto la fisica quantistica sia ancora in buona parte da esplorare nei suoi dettagli.

Se la sovrapposizione e la correlazione quantistica consentono ai qubit di sprigionare un potere computazionale incredibile, se confrontato con gli standard dell’informatica classica, tuttora universalmente diffusa, la ragione per cui il computer quantistico non è ancora di fatto entrato in commercio è dovuto al fenomeno della decoerenza quantistica.

A causa di un equilibrio straordinariamente fragile, i qubit sono in grado di mantenere il loro stato di coerenza per periodi estremamente brevi (attualmente nell’ordine dei 100 microsecondi) in condizioni di estremo controllo per quanto riguarda la temperatura (prossima allo zero assoluto) e alle vibrazioni, dal momento la minima alterazione dell’isolamento del sistema quantico può causare l’immediata decoerenza. Tale condizione causa la perdita della sovrapposizione tra i qubit, generando il cosiddetto errore quantistico e la conseguente inattendibilità dell’elaborazione

Come nasce il quantum computing: un po’ di storia

Il calcolo quantistico è una disciplina piuttosto giovane, in quanto il principio di sovrapposizione viene citato per la prima volta nel 1982, quando Richard Feynman ha teorizzato il simulatore quantistico, quale macchina finalizzata allo studio di uno specifico quantistico, impossibile da simulare con un supercomputer.

Tuttavia, i presupposti su cui si basa il quantum computing sono ben più remoti in quanto affondano le loro radici nella fisica quantistica, nata per cercare di dare delle spiegazioni laddove le teorie della fisica classica dimostravano evidenti limiti, soprattutto nel descrivere le particelle subatomiche.
Nei primi trent’anni del Novecento, scienziati del calibro di Albert Einstein, Max Planck, Niels Bohr, Wolfgang Pauli, Erwin Schrodinger, Werner Karl Heisenberg e molti altri, hanno intrapreso una serie di ricerche che sarebbero state disciplinate sotto il comune denominatore della meccanica quantistica, che insieme alla relatività avrebbe segnato l’inizio di un percorso di studi e ricerche finalizzato a superare i limiti della fisica classica, dando il via alla fisica moderna.

Le leggi di Newton (meccanica) e le leggi di Maxwell (elettomagnetismo) esprimono come la fisica classica descriva con certezza, sulla base di elevato livello di approssimazione, i fenomeni riferiti alle grandezze macroscopiche. Il loro approccio risulta tuttavia inadeguato nel caso dei fenomeni sulla scala delle particelle atomiche, laddove la fisica quantistica lascia ampio spazio all’indeterminazione, ribaltando spesso i punti di vista delle teorie tradizionali.

Le leggi della fisica quantistica e i principi della meccanica quantistica hanno successivamente trovato riscontro in una nuova branca dell’informatica, definita appunto informatica quantistica. Anziché avvalersi del sistema binario dei bit tradizionali, il calcolo quantistico utilizza i quantum bit (qubit) che grazie al principio di sovrapposizione possono assumere contemporaneamente lo stato di 0 e 1, oltre a tutte le combinazioni intermedie. Questa proprietà consente a pochissimi qubit un valore computazionale enorme.

Dopo la già citata intuizione di Feynman, gli studiosi accelerarono le ricerche nei laboratori di tutto il mondo, ai fini di teorizzare e soprattutto realizzare i primi modelli di computer quantistico, le macchine costruite appositamente per risolvere i problemi del calcolo quantistico, basandosi sulle leggi della fisica quantistica e sui principi della meccanica quantistica.

Oltre ai sistemi hardware e alla complessità dei loro dispositivi di refrigeramento e isolamento ambientale, erano necessari degli algoritmi concepiti appositamente per descrivere il problema quantistico. Nel 1994, l’informatico statunitense Peter Shor, attuale docente di matematica applicata al MIT, ha teorizzato l’algoritmo di fattorizzazione che porta il suo nome, un complesso algoritmo quantistico polinomiale, la cui soluzione non è possibile con l’approccio deterministico di un elaboratore classico. Senza entrare nel merito della complessità matematica, l’algoritmo di Shor è diventato una sorta di benchmark per i computer quantistici, nella loro irrefrenabile corsa verso capacità computazionali via via superiori.

Il primo computer quantistico è stato acceso nel 1989 nei laboratori della University of California at Berkeley e nel 1997 IBM ha presentato il primo prototipo di computer quantistico sviluppato all’interno del centro di ricerca di Almaden, sempre in California, che potremmo in qualche modo definire la Quantum Valley, soprattutto per quanto concerne le sue implicazioni informatiche.

Nel 2001 IBM, sempre nei laboratori di Almaden, ha avviato il primo elaboratore quantistico a 7 qubit, avviando una serie di regolari incrementi prestazionali che oggi sono arrivate a garantire l’attività di computer quantistici il cui obiettivo non è tanto quello di generare un commercio diretto dei sistemi hardware, ancora troppo complessi per essere delocalizzati, quanto dei servizi di calcolo che sono in grado di garantire.

Dal 2017, attraverso le applicazioni cloud di IBM Quantum Experience, è possibile utilizzare dei nodi quantici di 16 e 20 qubit per testare applicazioni accademiche, fondamentali per accelerare la ricerca sul software quantistico, l’unico davvero capace di sfruttare appieno le modalità previste dal quantum computing.

Nel 2019 IBM annuncia IBM System Q One, il computer quantistico aperto anche allo sviluppo di applicazioni commerciali, oltre che puramente scientifico, cui fa eco IBM Q Network, piattaforma di simulazione per utilizzo generalista. A livello software, grazie al Qiskit Runtime, IBM garantisce un ambiente in grado di eseguire circuiti quantici, con la possibilità di sfruttare anche l’hardware tradizionale per le simulazioni. Sempre nel 2019, Google, come approfondiremo nei seguenti punti, ha annunciato il proprio sistema Sycamore da 54 qubit, rivendicando il raggiungimento della tanto agognata supremazia quantistica. Il resto è storia recente.

Il computer quantistico generalista e il quantum annealer

Dal punto di vista tipologico, abbiamo finora assistito a due modelli di computer quantistico. Il primo caso costituisce il nesso più diretto tra la teoria e la prassi del quantum computing, ossia quello di consentire un approccio generalista alla risoluzione dei problemi quantistici. È il caso dei computer quantistici di IBM tra cui quelli di recente implementazione, o che vedranno la luce entro brevi periodi: Hummingbird (65 qubit), Quantum Eagle (127 qubit) e il futuro Quantum Condor (1121 qubit) che dovrebbe esordire entro il 2023. Generalisti sono anche i computer quantistici in forza all’ecosistema Quantum di Google, come Foxtrail (dal 2016), Bristlecone (dal 2017) e Sycamore (dal 2018) che con i suoi 54 qubit superconduttori supporta l’esecuzione di svariati sistemi di machine learning, oltre ad algoritmi come Hartree-Fock (chimica) o QAOA (ottimizzazione). I computer quantistici di Google operano all’interno del Quantum AI Campus, sito a Santa Barbara, in California.

Esiste tuttavia un’altra tipologia di elaboratori, definita quantum annealer, il cui esempio più noto è costituito dai sistemi computazionali della D-Wave, che nominalmente dispongono di un quantitativo di qubit ben superiore rispetto a quelli di IBM o Google: il D-Wave One (2011, 128 qubit), piuttosto che il D-Wave Two (2013, 512 qubit) o il D-Wave 2000Q (2018, 2000 qubit). In realtà, non è possibile fare un confronto diretto tra la potenza dei sistemi D-Wave con i computer quantistici che convenzionalmente vengono definiti quali generalisti. I quantum annealer infatti agiscono secondo modalità totalmente differenti e grazie all’ottimizzazione combinatoria possono risolvere problemi quantistici molto specifici, risultando sostanzialmente inefficaci per altre applicazioni. I modelli computazionali dei quantum annealer seguono inoltre la tipologia tradizionale.

Oltre a IBM, Google e D-Wave, la platea degli stakeholder del quantum computing comprende in buona sostanza tutti i principali big tech (Microsoft, Amazon, Intel, ecc.) oltre a brand come Rigetti, Honeywell, IQM, IonQ o Zapata, piuttosto che le principali holding di consulenza (Accenture), centri di ricerca militari e universitari finanziati da progetti nazionali ed internazionali, piuttosto che brand noti per altre attività, che stanno testando internamente applicazioni basate sul quantum computing per ottenere vantaggi significativi dalla loro ricerca (Airbus, AT&T, Hitachi, Lockheed Martin, Mitsubishi, NEC, ecc.). Il giro d’affari attorno al quantum computing è di natura miliardaria e, secondo le previsioni degli analisti, è destinato a crescere in maniera esponenziale almeno fino al 2030, periodo in cui i computer quantistici dovrebbero iniziare a diffondersi anche dal punto di vista commerciale.

La supremazia quantistica

Nel dicembre 2019, Google ha presentato al mondo una versione del suo computer quantistico Sycamore a 54 qubit, superando quello che viene ritenuto il supercomputer tradizionale più potente al mondo: IBM Summit, la cui potenza equivalente sarebbe pari a 50 qubit, un valore che è stato preso come punto di riferimento. Qualora un computer quantistico avesse superato i 50 qubit, avrebbe rivendicato la propria supremazia nei confronti degli elaboratori tradizionali.

Non contenta di ciò, Google ha comunicato come Sycamore potesse risolvere in soli 200 secondi un problema su cui IBM Summit avrebbe dovuto impiegare addirittura 10.000 anni. IBM ha smentito questo dato, rilevando come Summit, con opportuna ottimizzazione, avrebbe impiegato circa due giorni per portare a termine la simulazione. Ma si tratta della classica smentita che sa di ammissione, in quanto confrontare meno di quattro minuti con oltre due giorni di calcolo vale a riconoscere la decisa superiorità di un elaboratore quantistico, che opera su scale di grandezza totalmente differenti rispetto ai sistemi tradizionali.

Al di là dei simpatici e coinvolgenti rilanci sui social e comunicati stampa, utili soprattutto a riempire la pagine dei media, alimentando a dismisura l’hype su questa tecnologia emergente e la conseguente fiducia degli investitori sui mercati, la supremazia quantistica è qualcosa di molto più teorico che pratico, almeno al momento. Le applicazioni in grado di avvalersi del quantum computing in maniera strutturata praticamente non esistono ancora. Si hanno tanti test, tante sperimentazioni, ma nulla di realmente spendibile in produzione.

Il quantum computing rappresenta pertanto una tecnologia in grado di ridefinire il mondo dell’informatica, ma ciò non avverrà senza dubbio nel breve termine, in quanto ad oggi gli elaboratori che si basano sui suoi modelli computazionali sono confinati ad avanzati centri di ricerca, che investono cifre molto elevate per mantenere il loro funzionamento e ricercare soluzioni efficaci per aumentare i tempi di coerenza. I sistemi di refrigerazione e camere a vuoto dei computer quantici non sono tuttavia sostenibili, da nessun punto di vista, a livello di diffusione sul mercato, per cui le applicazioni basate sul quantum computing saranno ancora per diverso tempo disponibili soltanto mediante servizi in cloud, ad esempio grazie al modello Quantum as a Service.

Cosa può fare un computer quantistico? Le possibili applicazioni

Il computer quantistico è in grado di creare e gestire i qubit in molti modi, basandosi sulle variazioni di stato delle particelle subatomiche, innescate ad esempio da una lievissima variazione di temperatura nel circuito che li contiene, piuttosto che con una variazione a indotta a livello elettromagnetico. Si tratta di fenomeni fisici estremamente complessi, su cui è attiva una sfida costante per aumentare i tempi di coerenza dei qubit, ai fini di ottenere calcoli sempre più complessi e performanti il loro breve ciclo di vita.

Senza addentrarci sulle modalità con cui ciò avviene, risulta piuttosto interessante focalizzarci sulle possibili applicazioni del quantum computing, laddove le straordinarie potenzialità dell’informatica quantistica potranno dare un contributo fondamentale per accelerare le simulazioni attualmente in corso e aprire la strada ad orizzonti di ricerca totalmente nuovi.

Cybersecurity

La crittografia quantistica apre scenari totalmente nuovi nell’ambito della cybersecurity, soprattutto considerando che già oggi sono attivi molti miliardi di dispositivi interconnessi, che scambiano continuamente dati tra loro attraverso i nodi della rete, che corrispondono per design a dei naturali punti di vulnerabilità del sistema. Il numero dei device è destinato ad aumentare in maniera esponenziale nei prossimi anni, e con essi la mole di dati generati e veicolati in rete.

L’indeterminazione degli algoritmi quantistici rende già di per sé molto più complesso violare una chiave quantica. Questo può costituire un grosso vantaggio soprattutto nell’implementare le chiavi private, ossia il principale baluardo a difesa del dato di si intende proteggere.

D’altro canto, la straordinaria potenza di un computer quantico potrebbe violare in pochi minuti addirittura delle chiavi tradizionali a 2048bit e ciò costringe gli esperti di crittografia a ricercare soluzioni che non risultino violabili dai nuovi modelli di calcolo, sfruttando anche il fatto che ad oggi non sono realmente operativi dei sistemi di crittografia quantistica e ragionevolmente non saranno disponibili prima di qualche anno.

Intelligenza artificiale

Le tecniche di AI richiedono di base una notevole quantità di calcolo per analizzare i dati e processarli in informazioni di carattere predittivo. A differire sono in buona sostanza le tipologie di reti neurali utilizzate per l’apprendimento profondo (Deep Learning), che mirano a simulare il comportamento del cervello umano, o l’apprendimento superficiale (Shallow Learning) su cui si basano i sistemi data driven come il Machine Learning, prevalentemente orientati alle applicazioni di supporto decisionale.

Il quantum computing può garantire sia una potenza inedita che la possibilità di scrivere nuove tipologie di algoritmi finalizzati all’apprendimento automatico impiegato dalle tecniche di intelligenza artificiale.

Biologia molecolare e farmacologia

I calcoli predittivi utilizzati nell’ambito della bioinformatica richiedono tempi mediamente molto lunghi, anche avvalendosi di supercomputer o sistemi di calcolo distribuito. Vi sono inoltre delle simulazioni tanto complesse da non poter essere eseguite sugli elaboratori tradizionali e che potrebbero finalmente trovare soluzione grazie al quantum computing.

Un possibile ambito applicativo è relativo alla farmacologia, in particolare per quanto concerne il drug design, la disciplina che si occupa di progettare i nuovi farmaci modellando la struttura proteica dei loro componenti fondamentali. Il ripiegamento proteico (protein folding) e la simulazione di nuove proteine richiedono modelli in cui il calcolo quantistico può rivelarsi decisivo, soprattutto in funzione della complessità delle simulazioni.

Le discipline della biologia molecolare, riferendosi a strutture microscopiche si identificano meglio ai principi della meccanica quantistica piuttosto che alle approssimazioni della fisica tradizionale, per cui il quantum computing può rappresentare una risorsa straordinariamente efficace anche nella direzione di nuove scoperte in ambito scientifico.

Medicina

Il quantum computing può sostenere le applicazioni della medicina in vari ambiti, sia per quanto riguarda la diagnostica che le terapie funzionali alla cura di determinate patologie, come nel caso dell’ottimizzazione dei trattamenti con radioterapia, ad oggi purtroppo ancora molto invasivi rispetto al potenziale che potrebbe rivelarsi sufficiente se applicato con maggior precisione.

A livello di diagnosi un beneficio fondamentale potrebbe derivare dall’esecuzione molto più rapida di processi come quelli adoperati per individuare la possibile presenza di un tumore celebrale, che attualmente può richiedere anche alcune settimane di tempo preziosissimo quando si parla di giocare d’anticipo con patologie la cui letalità dipende molto dall’evoluzione e dallo stato di avanzamento.

Finanza e investimenti

Tra gli ambiti più affascinati dove potrebbe trovare luogo il quantum computing vi è senza dubbio l’universo finanziario. Il fintech è settore in costante crescita e potrebbe esserlo ulteriormente quando si potrà sfruttare la potenza del calcolo quantistico per implementare sistemi predittivi, in grado di descrivere nel modo più rapido e preciso l’andamento dei mercati, a tutto vantaggio delle pratiche degli investitori, che potrebbero ad esempio differenziare al meglio il loro portfolio.

La finanza si occupa, per definizione, dell’incertezza del valore futuro di un titolo. Questo stato di indeterminazione si sposa bene con le logiche della fisica quantistica e potrebbe essere la base per generare dei modelli predittivi molto più aderenti alla casualità dell’andamento dei mercati finanziari.

In altri termini, potrebbe variare il modo in cui si forma un portfolio di investimenti. Attualmente un principio molto diffuso è quello di acquistare titoli che potrebbero in qualche modo bilanciare degli andamenti differenti, limitando di conseguenza il rischio generale: un titolo favorevole compensa di base un titolo che ha subito delle perdite.

Questo atteggiamento prudente consegue ad una conoscenza del mercato piuttosto limitata. Il quantum computing può contribuire a stimare i rischi in maniera molto più rapida ed accurata, analizzando un insieme di dati infinitamente superiore rispetto a quanto possono attualmente fare i sistemi AI basati sugli elaboratori tradizionali.
La maggior consapevolezza dei mercati corrisponde ad una visione più lucida e tangibile dei possibili rischi legati ai singoli titoli, con decisioni più semplici che può andare anche in funzione di una mole di investimenti più elevata.

Cosa riserva il futuro

Come spesso accade nei confronti delle tecnologie emergenti, il quantum computing si è ben presto ritrovato in una condizione di notevole aspettativa mediatica, con tutti i pro e i contro del caso. La situazione è stata definita in maniera estremamente lucida dagli analisti di Gartner, in un documento che è diventato un vero e proprio punto di riferimento: The CIO’s guide to Quantum Computing, in cui si legge: “L’hype nei media sta creando consapevolezza e avanzamento, ma al tempo stesso pone aspettative non realistiche rispetto alle tempistiche e alle capacità dei computer quantistici. Questo livello di clamore porta inevitabilmente alla disillusione, il che è pericoloso, perché il quantum computing richiede investimenti mirati e molto sostanziosi nel lungo termine”.

E l’informatica tradizionale? Checché si voglia far credere, è tutt’altro che morta. La miniaturizzazione dei processi costruttivi legati al silicio come semiconduttore si avvicinano sempre più ai limiti fisici, ma la possibilità di differenziare complessivamente le architetture (si vedano ad esempio i SoC dei sistemi mobile, sempre più utilizzati anche in ambito desktop / server), piuttosto che valutare materiali alternativi, come il grafene, rischia di allungare parecchio la vita degli attuali elaboratori. La stessa supremazia quantistica, soprattutto se la si intende dal punto di vista pratica, è pertanto ancora distante, per il semplice fatto che il limite dell’informatica classica si sta ancora spingendo in avanti, e lo farà per molti anni ancora.

Ciò che è prevedibile attendersi è un affiancamento tra informatica classica e informatica quantistica, dove ognuna verrà progressivamente impiegata per le soluzioni che maggiormente si addicono alle loro caratteristiche e alle loro architetture IT.

Per quanto riguarda la diffusione dei computer quantici generalisti, per inciso quelli capaci di risolvere integralmente gli algoritmi di Shor, i tempi non soltanto si prospettano lunghi, ma sono tutt’altro che definiti. Ottimisticamente si fa una stima da qui a dieci anni, ma la verità è che nessuno è ancora in grado di dare con certezza una risposta a questa domanda. Il che non è necessariamente da interpretarsi come un limite. Per ironia della sorte, questa stima così vaga esprime essa stessa lo stato di indeterminazione della tecnologia emergente cui si riferisce.

In attesa del domani, possiamo iniziare a concentrarsi sulle applicazioni odierne del quantum computing, puramente inteso o in grado di appoggiare le proprie simulazioni anche alle capacità elaborative dei computer tradizionali. I servizi via cloud, come quelli già citati di IBM e Google, piuttosto che Microsoft Quantum sono in grado di offrire delle soluzioni Quantum Computing as a Service che serviranno sia alla community di sviluppatori per imparare un nuovo mondo nella programmazione delle loro app, che ai provider stessi per ottenere i feedback necessari per continuare a sviluppare una tecnologia giovane e letteralmente tutta da scrivere.

Un altro elemento di grande fascino è tutto ciò che andrà oltre i confini dell’informatica quantistica. Per citare un esempio riferito alle considerazioni espresse nel presente articolo, il principio di correlazione quantistica (entanglement) teorizzato da Schrodinger, ci rivela il fenomeno della teleportazione delle particelle. Sarà la volta di nuovi concetti di meccanica quantistica che, una volta compresi in maniera più accurata, potrebbero rivoluzionare per sempre anche l’ambito delle comunicazioni, a cominciare dall’internet quantistico, che potrebbe rendere la propagazione dei dati in qualche modo indipendente dai limiti fisici delle infrastrutture fisiche.

 

 

 

Cos’è il quantum computing e quali le sue applicazioni ultima modifica: 2021-06-29T11:04:50+02:00 da Francesco La Trofa

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui