Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Quantum computing, il 2025 è stato un anno cruciale ma la strada è ancora lunga

by | Nov 28, 2025 | Tecnologia


In casa Eni, invece, è passato poco più di un anno dall’annuncio della joint venture Eniquantic, che vede Eni e ITQuanta unire le forze per sviluppare una macchina quantistica integrata hardware e software. Gli use case, in questo caso, sono piuttosto definiti avendo a che fare con l’ambito energetico ma non mancano le sfide. A dare una mano, soprattutto nel sondaggio delle possibili integrazioni tra le architetture quantistiche e quelle classiche, la presenza di un supercalcolatore proprietario HPC di livello mondiale, quello che lavora ogni giorno nel sito di Ferrera Erbognone.

Come confermato da Giacomo Cappellini, Cto di Eniquantic, “Eni già da diversi anni è attiva nello studio di applicazione del calcolo quantistico tramite collaborazioni con vari soggetti, tra l’altro partecipa anche al Centro nazionale di SuperCalcolo e Quantum Computing. L’approccio del gruppo Eni in questo caso è quello di andare a creare all’interno un forte pool di competenze; di dotarsi di infrastrutture proprie per il calcolo quantistico, in modo tale da trovarsi nella posizione di controllare questa tecnologia per salvaguardare l’utilizzo nelle applicazioni.

Giochiamo di anticipo costruendo in house queste forti competenze in maniera tale da poterle utilizzare pienamente quando la tecnologia si sarà ulteriormente sviluppata e avrà raggiunto una maturità più grande di quella in cui siamo oggi”.

Orizzonte al 2029

Ma di quali orizzonti si parla? Risposte in merito arrivano da IBM. Alla recente Quantum Developer Conference, la casa statunitense ha annunciato IBM Quantum Nighthawk, il suo processore quantistico finora più avanzato, che dovrebbe contribuire a raggiungere il vantaggio quantistico entro un anno. Concretamente, la maggiore connettività dei qubit consentirà “di eseguire circuiti con il 30% in più di complessità rispetto al precedente processore di IBM, mantenendo bassi tassi di errore”.

Come spiegato da Federico Mattei, IBM Quantum Ambassador, nella tavola rotonda su esperienze pubbliche e private, “due sono gli obiettivi che ci poniamo per il futuro. Il primo è quello di mettere a disposizione delle macchine che aiutino l’ecosistema a raggiungere il cosiddetto Quantum Advantage, ovvero avere degli algoritmi che siano provati, che siano validati, che girino su computer quantistico e che portino un vantaggio rispetto ad eseguire algoritmi simili, classici per risolvere quel problema. Parallelamente, all’interno dei nostri laboratori stiamo costruendo i building block per arrivare ai primi computer quantistici fault tolerant. Per questo abbiamo rilasciato una famiglia di algoritmi che passa sotto il nome di Quantum Low Density Parity Check (qLDPC). Richiedono però delle componenti hardware molto particolari. Per poterlo fare abbiamo bisogno di tre anni. Il primo building block è stato rilasciato proprio due settimane fa, è il primo punto di partenza. Nei prossimi anni procederemo a realizzare dei building block più grossi e poi a collegarli l’uno all’altro per arrivare nel 2029 ad avere delle macchine veramente fault tolerant”.

Proprio in quella data è atteso, infatti, IBM Quantum Starling che, costruito nel nuovo IBM Quantum Data Center di Poughkeepsie, eseguirà 20.000 volte più operazioni dei computer quantistici attuali, come da annunci.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0