Calcolo quantistico

L'informatica quantistica è un'area di studio incentrata sullo sviluppo di tecnologie basate sui computer incentrate sui principi della teoria quantistica. La teoria quantistica spiega la natura e il comportamento dell'energia e della materia a livello quantistico (atomico e subatomico). Il calcolo quantistico utilizza una combinazione di bit per eseguire compiti computazionali specifici. Il tutto con un'efficienza molto più elevata rispetto alle loro controparti classiche. Lo sviluppo di computer quantistici segna un balzo in avanti nella capacità di elaborazione, con enormi miglioramenti delle prestazioni per casi d'uso specifici. Ad esempio, il calcolo quantistico eccelle in simulazioni simili.

Il computer quantistico acquisisce gran parte della sua potenza di elaborazione grazie alla capacità dei bit di trovarsi in più stati contemporaneamente. Possono eseguire attività utilizzando una combinazione di 1, 0 e contemporaneamente 1 e 0. Gli attuali centri di ricerca sull'informatica quantistica includono MIT, IBM, Oxford University e il Los Alamos National Laboratory. Inoltre, gli sviluppatori hanno iniziato ad ottenere l'accesso ai computer quantistici tramite servizi cloud.

Il calcolo quantistico è iniziato con la ricerca dei suoi elementi essenziali. Nel 1981, Paul Benioff degli Argonne National Labs ha avuto l'idea di un computer che funzionasse con i principi della meccanica quantistica. È generalmente accettato che David Deutsch dell'Università di Oxford abbia fornito l'idea fondamentale alla base della ricerca sull'informatica quantistica. Nel 1984, iniziò a interrogarsi sulla possibilità di progettare un computer basato esclusivamente su regole quantistiche, pubblicando un documento rivoluzionario pochi mesi dopo.

Teoria dei quanti

Lo sviluppo della teoria quantistica iniziò nel 1900 con una presentazione di Max Planck. La presentazione è stata alla German Physical Society, in cui Planck ha introdotto l'idea che l'energia e la materia esistono in singole unità. Ulteriori sviluppi da parte di un certo numero di scienziati nei successivi trent'anni hanno portato alla moderna comprensione della teoria quantistica.

Questa è la foto di un computer quantistico.

IBM Q System One è stato introdotto nel gennaio 2019 ed è stato il primo sistema di calcolo quantistico per uso scientifico e commerciale.

Teoria dei quanti

Lo sviluppo della teoria quantistica iniziò nel 1900 con una presentazione di Max Planck. La presentazione è stata alla German Physical Society, in cui Planck ha introdotto l'idea che l'energia e la materia esistono in singole unità. Ulteriori sviluppi da parte di un certo numero di scienziati nei successivi trent'anni hanno portato alla moderna comprensione della teoria quantistica.

Gli elementi essenziali della teoria quantistica:

  • L'energia, come la materia, è costituita da unità discrete; al contrario di un'onda continua.
  • Le particelle elementari di energia e materia, a seconda delle condizioni, possono comportarsi come particelle o onde.
  • Il movimento delle particelle elementari è intrinsecamente casuale e, quindi, imprevedibile.
  • La misurazione simultanea di due valori complementari, come la posizione e la quantità di moto di una particella, è difettosa. Più precisamente viene misurato un valore, più difettosa sarà la misurazione dell'altro valore.

Ulteriori sviluppi della teoria quantistica

Niels Bohr ha proposto l'interpretazione di Copenhagen della teoria quantistica. Questa teoria afferma che una particella è qualunque cosa sia misurata, ma che non si può presumere che abbia proprietà specifiche, o addirittura che esista, finché non viene misurata. Ciò si riferisce a un principio chiamato sovrapposizione. La sovrapposizione afferma che quando non sappiamo quale sia lo stato di un dato oggetto, in realtà è in tutti gli stati possibili contemporaneamente, purché non cerchiamo di controllare.

Per illustrare questa teoria, possiamo usare la famosa analogia del gatto di Schrödinger. Innanzitutto, abbiamo un gatto vivente e lo mettiamo in una scatola di piombo. In questa fase, non c'è dubbio che il gatto sia vivo. Quindi getti una fiala di cianuro e chiudi la scatola. Non sappiamo se il gatto è vivo o se ha rotto la capsula di cianuro ed è morto. Dal momento che non lo sappiamo, il gatto è sia vivo che morto, secondo la legge quantistica - in una sovrapposizione di stati. È solo quando apriamo la scatola e vediamo in quale condizione si trova il gatto che la sovrapposizione si perde e il gatto deve essere vivo o morto.

Il principio secondo cui, in qualche modo, una particella può esistere in numerosi stati apre profonde implicazioni per il calcolo.

Un confronto tra informatica classica e quantistica

L'informatica classica si basa su principi espressi dall'algebra booleana; normalmente funziona con un principio di porta logica a 3 o 7 modalità. I dati devono essere elaborati in uno stato binario esclusivo in qualsiasi momento; 0 (off / false) o 1 (on / true). Questi valori sono cifre binarie o bit. I milioni di transistor e condensatori nel cuore dei computer possono trovarsi in un solo stato in qualsiasi momento. Inoltre, esiste ancora un limite alla velocità con cui questi dispositivi possono cambiare stato. Man mano che progrediamo verso circuiti più piccoli e più veloci, iniziamo a raggiungere i limiti fisici dei materiali e la soglia per l'applicazione delle leggi della fisica classica.

Il computer quantistico funziona con una porta logica a due modalità: XOR e una modalità chiamata QO1 (la capacità di cambiare 0 in una sovrapposizione di 0 e 1). In un computer quantistico, è possibile utilizzare un numero di particelle elementari come elettroni o fotoni. A ciascuna particella viene assegnata una carica, o polarizzazione, che agisce come una rappresentazione di 0 e / o 1. Ogni particella è chiamata bit quantistico, o qubit. La natura e il comportamento di queste particelle costituiscono la base del calcolo quantistico e della supremazia quantistica. I due aspetti più rilevanti della fisica quantistica sono i principi di sovrapposizione e entanglement.

sovrapposizione

Pensa a un qubit come a un elettrone in un campo magnetico. Lo spin dell'elettrone può essere allineato al campo, noto come stato di spin-up, o opposto al campo, noto come stato di spin-down. La modifica dello spin dell'elettrone da uno stato a un altro si ottiene utilizzando un impulso di energia, ad esempio da un laser. Se viene utilizzata solo mezza unità di energia laser e la particella viene isolata da tutte le influenze esterne, la particella entra quindi in una sovrapposizione di stati. Comportandosi come se fosse in entrambi gli stati contemporaneamente.

Ogni qubit utilizzato potrebbe richiedere una sovrapposizione sia di 0 che di 1. Significa che il numero di calcoli che un computer quantistico potrebbe eseguire è 2 ^ n, dove n è il numero di qubit utilizzati. Un computer quantistico composto da 500 qubit avrebbe il potenziale per eseguire 2 ^ 500 calcoli in un unico passaggio. Per riferimento, 2 ^ 500 è infinitamente più atomi di quanti ce ne siano nell'universo conosciuto. Tutte queste particelle interagiscono tra loro tramite l'entanglement quantistico.

In confronto al classico, il calcolo quantistico conta come una vera elaborazione parallela. I computer classici ancora oggi fanno veramente solo una cosa alla volta. Nell'elaborazione classica, ci sono solo due o più processori per costituire l'elaborazione parallela.
aggrovigliamento Le particelle (come i qubit) che hanno interagito a un certo punto mantengono un tipo possono essere intrecciate l'una con l'altra a coppie, in un processo noto come correlazione. Conoscere lo stato di rotazione di una particella entangled - su o giù - dà via lo spin dell'altra nella direzione opposta. Inoltre, a causa della sovrapposizione, la particella misurata non ha un'unica direzione di rotazione prima di essere misurata. Lo stato di spin della particella da misurare viene determinato al momento della misurazione e comunicato alla particella correlata, che contemporaneamente assume la direzione di spin opposta. Il motivo alla base del perché non è ancora stato spiegato.

L'entanglement quantistico consente ai qubit separati da grandi distanze di interagire tra loro istantaneamente (non limitato alla velocità della luce). Non importa quanto sia grande la distanza tra le particelle correlate, rimarranno impigliate fintanto che sono isolate.

Presi insieme, la sovrapposizione quantistica e l'entanglement creano una potenza di calcolo enormemente potenziata. Quando un registro a 2 bit in un normale computer può memorizzare solo una delle quattro configurazioni binarie (00, 01, 10 o 11) in un dato momento, un registro a 2 qubit in un computer quantistico può memorizzare tutti e quattro i numeri contemporaneamente. Questo perché ogni qubit rappresenta due valori. Se vengono aggiunti più qubit, la capacità aumentata viene espansa in modo esponenziale.

Programmazione quantistica

Il quantum computing offre la capacità di scrivere programmi in un modo completamente nuovo. Ad esempio, un computer quantistico potrebbe incorporare una sequenza di programmazione che sarebbe sulla falsariga di "prendere tutte le sovrapposizioni di tutti i calcoli precedenti". Ciò consentirebbe metodi estremamente rapidi per risolvere alcuni problemi matematici, come la fattorizzazione di grandi numeri.

Il primo programma di calcolo quantistico è apparso nel 1994 da Peter Shor, che ha sviluppato un algoritmo quantistico in grado di fattorizzare in modo efficiente grandi numeri.

I problemi e alcune soluzioni

I vantaggi dell'informatica quantistica sono promettenti, ma ci sono ancora enormi ostacoli da superare. Alcuni problemi con il calcolo quantistico sono:

  • Interferenza: il minimo disturbo in un sistema quantistico può causare il collasso di un calcolo quantistico, un processo noto come de-coerenza. Un computer quantistico deve essere totalmente isolato da tutte le interferenze esterne durante la fase di calcolo. Un certo successo è stato ottenuto con l'uso di qubit in campi magnetici intensi, utilizzando ioni.
  • Correzione degli errori: i Qubit non sono bit di dati digitali e non possono utilizzare la correzione degli errori convenzionale. La correzione degli errori è fondamentale nel calcolo quantistico, dove anche un singolo errore in un calcolo può far crollare la validità dell'intero calcolo. Tuttavia, sono stati compiuti notevoli progressi in questo settore. Con un algoritmo di correzione degli errori sviluppato che utilizza 9 qubit: 1 computazionale e 8 correttivo. Più recentemente, c'è stata una svolta da parte di IBM che si accontenta di un totale di 5 qubit (1 computazionale e 4 correttivi).
  • Rispetto dell'output: il recupero dei dati di output dopo che un calcolo quantistico è completo rischia di corrompere i dati. Da allora sono stati fatti degli sviluppi, come un algoritmo di ricerca nel database che si basa sulla speciale forma "d'onda" della curva di probabilità nei computer quantistici. Ciò garantisce che, una volta eseguiti tutti i calcoli, l'atto della misurazione vedrà lo stato quantico disinserirsi nella risposta corretta.

Ci sono molti problemi da superare, come come gestire la sicurezza e la crittografia quantistica. Anche la memorizzazione di informazioni quantistiche da molto tempo è stata un problema in passato. Tuttavia, i progressi compiuti negli ultimi 15 anni e nel recente passato hanno reso pratica una qualche forma di calcolo quantistico. C'è ancora molto dibattito sul fatto che questo sia tra meno di un decennio o tra cento anni nel futuro. Tuttavia, il potenziale offerto da questa tecnologia sta suscitando un enorme interesse sia da parte del governo che del settore privato. Le applicazioni militari includono la capacità di rompere le chiavi di crittografia tramite ricerche di forza bruta, mentre le applicazioni civili vanno dalla modellazione del DNA all'analisi complessa della scienza dei materiali.