Intervenire contemporaneamente sull’ottimizzazione delle singole operazioni logiche e della configurazione dei processori quantistici per migliorare l’implementazione degli algoritmi. Questo l’approccio che ha consentito al gruppo di ricerca del Centro di Computazione Quantistica Superconduttiva dell’Università degli Studi di Napoli Federico II di ottenere performance senza precedenti nell’esecuzione di un Quantum Gaussian Sampling – QGS (Campionamento Quantistico Gaussiano), una tipologia di algoritmo quantistico utilizzato per simulare distribuzioni di probabilità con applicazioni potenziali in una vasta gamma di settori di frontiera, come il Quantum Machine Learning, la Crittografia e la Finanza Quantistiche.
Maturato nell’ambito di una collaborazione tra Università Federico II, Intesa San Paolo e la startup G2Q, il risultato è stato reso possibile grazie all’utilizzo di ‘Partenope’, il computer quantistico superconduttivo a 25 qubit ospitato presso la Federico II e finanziato dall’ICSC – Centro Nazionale di Ricerca in High performance Computing, Big Data and Quantum Computing, piattaforma che mira a promuovere lo sviluppo di soluzioni hardware e software per il calcolo quantistico e la creazione di una filiera italiana dedicata a queste tecnologie.
Un nuovo algoritmo quantistico
Insieme a consolidate e riconosciute competenze in elettronica quantistica superconduttiva, il Centro di Computazione Quantistica Superconduttiva della Federico II si avvale oggi di un sistema unico in Italia e competitivo a livello internazionale, di cui fanno parte, oltre a ‘Partenope’, vari criostati ed elettronica di misura per il controllo e la lettura di qubit. Un’infrastruttura interamente progettata sulla base di criteri di modularità e integrabilità, in grado di garantire, a differenza delle soluzioni cloud disponibili sul mercato, una risposta immediata alle esigenze di innovazione attraverso la possibilità di controllo e intervento su ogni componente del calcolatore sia a livello hardware che software.
Lo scenario del calcolo quantistico
“L’attuale scenario del calcolo quantistico”, spiega Francesco Tafuri, responsabile del Centro di Computazione Quantistica Superconduttiva della Federico II e ricercatore dello Spoke 10 ‘Quantum Computing’ del Centro Nazionale ICSC, “è contraddistinto da computer ancora soggetti a errori e limiti architetturali. Affidarsi quindi a sistemi chiusi, definiti ‘black box’, può essere estremamente limitante e penalizzante, poiché l’inaccessibilità all’hardware impedisce aggiornamenti flessibili e limita le performance algoritmiche, condizionate dalla configurazione dei processori. La filosofia progettuale adottata dal nostro gruppo per la realizzazione di ‘Partnenope’ fornisce al contrario la possibilità di avere controllo su ogni componente modulare del computer quantistico e quindi di esplorare insieme ad aziende e ricercatori soluzioni algoritmiche che permettono di sfruttare al meglio la macchina quantistica messa a disposizione.”
Il computer ‘Partenope’
L’estrema flessibilità, accompagnata all’elevata affidabilità raggiunta da ‘Partenope’ grazie a processi di calibrazione del processore basati su standard internazionali e alla riduzione dei livelli di rumore ottenuta mediante la messa a punto di un complesso sistema di misura, ha perciò determinato la scelta del Centro di Computazione Quantistica Superconduttiva della Federico II come piattaforma per l’implementazione e ottimizzazione dell’algoritmo QGS sviluppato da Intesa Sanpaolo e G2Q. La collaborazione risultante è così riuscita a perfezionare l’implementazione dell’algoritmo da un punto di vista sia hardware che software, aprendo la strada ad esecuzioni più efficaci ed efficienti per questa tipologia di calcoli.
L’algoritmo quantistico tra difficoltà e successi
“Il progetto”, specifica Davide Corbelletto, team leader del Quantum Competence Center di Intesa Sanpaolo, “nasce da un’esigenza di Intesa Sanpaolo, che aveva già tentato di eseguire algoritmi analoghi al QGS su altre tipologie di elaboratori quantistici, scontrandosi tuttavia con alcuni vincoli a livello macchina, sulle quali non era fino a oggi stato possibile intervenire direttamente.
Un problema che ha trovato soluzione proprio grazie alla profonda comprensione dei meccanismi di funzionamento del processore ‘Partenope’ e alle competenze di ottimizzazione algoritmica dei ricercatori della Federico II e di G2Q Computing, che hanno consentito non solo di generare le distribuzioni normali attese, ma soprattutto di controllarne i parametri caratteristici.
Un risultato che assume una particolare rilevanza per la Finanza Quantistica, la quale si propone di affrontare più rapidamente e con maggiore accuratezza problemi potenzialmente molto complessi, quali il credit risk modeling o il derivative pricing, e che dimostra come la collaborazione tra settore pubblico e privato rappresenti un valore aggiunto per l’innovazione e lo sviluppo di soluzioni concrete in ambito quantistico in grado di tradursi in un vantaggio competitivo per gli attori del Sistema Paese.”
Risultati
Con questo ultimo risultato, il Centro di Computazione Quantistica Superconduttiva dell’Università degli Studi dell’Università Federico II di Napoli si conferma quindi come hub strategico dell’ecosistema quantistico italiano e come esempio di successo del modello d’innovazione perseguito e promosso dal Centro Nazionale ICSC nell’ambito del PNRR. Un modello d’innovazione che, grazie alla disponibilità di una risorsa come ‘Partenope’, poggia sulla collaborazione pubblico-privato e sulla formazione di figure professionali specializzate in grado di contribuire allo sviluppo del calcolo quantistico e alla crescita di una filiera nazionale dedicata a questa tecnologia di frontiera.
























