ChatGPT è l’argomento del momento, perché sembra che l’Intelligenza artificiale (IA) sia salita un altro gradino della propria scala evolutiva.
Ma quali sono davvero i rischi di questo strumento?
Per capire meglio come funziona, quali potenzialità offre e quali rischi comporta, occorre osservarla da vicino nel modo più neutrale e distante possibile, lasciandosi stupire, positivamente o meno, dai risultati che restituisce. Considerando le sue doti di conversazione e il contesto, nessuno meglio di ChatGPT può spiegare cosa è davvero in grado di fare.
Molto si è già detto su ChatGPT, il nuovo algoritmo di OpenAI, che consente di “dialogare” con un modello di linguaggio.
ChatGPT è il primo modello di questo tipo rilasciato al pubblico e in molti, in tutto il mondo, stanno giocando con questo software. È bene quindi capire cosa sia un GPT (Generative Pre-trained Transformer) che ora ha raggiunto la versione 3.5 ma presto vedrà la versione 4 che promette ancora più sofisticazione.
Un modello di Deep learning è basato su reti neurali che all’interno di una complessa architettura si specializzano nell’apprendere e simulare parti di un modello. Per esempio, nel riconoscimento di una figura, ogni rete neurale si specializza su qualcosa come i contorni, le linee verticali e così via, per poi insieme sintetizzare queste capacità nel riconoscimento di figure complesse.
I modelli GPT si concentrano sul linguaggio riuscendo a interpretarlo sulla base di una fase di training compiuta su milioni di informazioni raccolte ed elaborate. Vengono addestrati sia sull’interpretazione sia sulla capacità di dare vita a nuove costruzioni come testi (il caso ChatGPT) o immagini (Dall-E, stable diffusion, e altre ancora).
Questi sono i modelli di linguaggio di grandi dimensioni. I progressi nella potenza computazionale e le nuove tecniche matematiche hanno consentito agli LLM del tipo GPT-3 di incorporare set di dati molto più grandi rispetto ai loro predecessori e impiegare strati molto più profondi di neuroni artificiali per il loro addestramento.
Un esempio elementare può essere Gmail quando ci propone la parola mancante di una mail ma, oggi, i sistemi sono molto più sofisticati e consentono di anticipare interi paragrafi o elaborati complessi. Sulla base del testo iniziale sono in grado di proseguire inserendo testi complessi in ordine e dandogli una sequenza logica tale da farli apparire capaci di elaborare pensieri.
La capacità di immagazzinare testi presi da internet (come l’intera Wikipedia e molti altri) e quella di prevedere statisticamente la sequenza di parole o frasi partendo da uno spunto, rendono i modelli di apprendimento qualcosa di innovativo nel panorama dell’IA e in generale capaci di affrontare compiti prima immaginabili.
Riescono a rispondere con una precisione che consente di immaginare un futuro nel quale il supporto clienti potrebbe essere realizzato esclusivamente con sistemi di questo tipo. Quando chiediamo qualcosa al motore di ricerca Google, esso ci fornisce un elenco di siti dove andare a cercare ciò di cui abbiamo bisogno ma, con questi modelli, invece ci viene fornita direttamente la risposta in modo preciso.
Il comportamento di questi modelli può dar vita ad esiti imprevisti, per esempio ChatGPT non è stato pensato per programmare ma, da internet ha acquisito informazioni così circostanziate sulla programmazione da essere capace, sulla base di una richiesta testuale, di produrre soluzioni informatiche e scrivere codice in diversi linguaggi di programmazione differente.
Soluzioni che non sono sempre precise ma che consentono di velocizzare enormemente il lavoro di un programmatore (Stack Overflow: un famoso sito di condivisione di soluzioni informatiche, ha dovuto bloccare gli utenti dall’inserire risposte generate da ChatGPT perché spesso erano inaccurate o errate).
Alcuni esperti di IA critici hanno affermato che, questi modelli, in realtà sono molto capaci di ingannare gli umani nelle loro risposte generando a caso una previsione di linguaggio ma, sono molto lontani da essere capaci di generare qualcosa di nuovo. Questo probabilmente è vero, tuttavia l’uso commerciale di questi sistemi porterà a sconvolgere interi settori del lavoro della conoscenza.
Altre forme di Intelligenza artificiale cercano di codificare gli approcci degli umani in una macchina, come per esempio il gioco degli scacchi o i modelli di meteorologia, mentre questo approccio è guidato dal basso con la capacità di sintetizzare le informazioni acquisite in grandi quantità ed elaborandole per dare risposte.
Per addestrare un modello GPT-3 gli vengono fornite delle frasi o degli incipit e si chiede al modello di completarle. All’inizio sono frasi elementari o molto semplici le cui risposte vengono segnate dall’uomo come corrette o non corrette, in seguito il modello si dimostra capace di fare da sé e di formulare testi sempre più sofisticati.
Il software, quindi, rafforza le connessioni neurali casuali che hanno generato quel particolare suggerimento e indebolisce tutte le connessioni che hanno generato supposizioni errate. E poi passa al prompt successivo. Nel tempo, con un numero sufficiente di iterazioni, il software apprende. Lo stesso avviene per i modelli che producono immagini.
Per la verità questi modelli, con un uso più approfondito, dimostrano i loro limiti non avendo un modello di senso comune del mondo, possono fare associazioni assurde o costruire testi che sono in visibile contraddizione con la realtà anche se apparentemente perfetti.
ChatGPT ha uno spiccato senso per il testo che si affievolisce quando si parla di contesto.