top of page

PUNTURE DI SPILLO. "Non è mai troppo tardi": chiediamo a un’IA come funziona

Aggiornamento: 11 gen

a cura di Pietro Terna


“Non è mai troppo tardi. Corso di istruzione popolare per il recupero dell'adulto analfabeta” andava in onda[1] dal lunedì al venerdì, originariamente sul Nazionale e poi sul Secondo Programma della RAI. Trasmessa dagli studi di Torino, era condotta dall'educatore Alberto Manzi, il “maestro Manzi”, divenuto allora (1960-68) popolarissimo. Un corso di istruzione, o anche più d’uno e su tanti argomenti, sarebbero oggi altrettanto utili, ma chi li seguirebbe? A leggere le discussioni nei cosiddetti social siamo tutti sapienti o sapientissimi.

Eppure durante la pausa delle punture di spillo - questo è il primo articolo del 2024, e con il nuovo anno il direttore de La Porta di Vetro ha cambiato l'immagine che accompagna i miei "spilli" - ho letto tutto e il contrario di tutto sull’IA, tanto che il mio amico Galeno, dal suo secolo, ci ha mandato[2] uno scritto da pubblicare. Al centro delle polemiche sta il fatto che molti di quelli che si pronunciano non sanno come funzionano proprio quelle IA di cui ora si parla tanto, quelle cosiddette generative, basate sulle capacità linguistiche e di contenuto degli LLM,[3] Large Language Model (non serve la traduzione).


Per… aumentare la confusione, scrivo anche io, proprio su come funzionano. Anzi no, chiedo a ChatGPT,[4] al momento il più famoso di quei modelli, di spiegarmi come funziona. Trascrivo per brevità solo alcune parti della conversazione, che è però tutta a disposizione.[5]

 

Caro ChatGPT, mi spieghi in modo semplice come funzioni?

 

Ecco i principi fondamentali di come funziono:

 

1. Addestramento. Durante la fase di addestramento, sono stato esposto a una grande quantità di testi, che includono libri, articoli, siti web e altri tipi di documenti. Il mio obiettivo era imparare la struttura della lingua, i modelli di testo, e come le parole e le frasi si collegano tra loro per formare significati coerenti.

 

2. Modello Transformer. Il cuore della mia architettura è il Transformer, una struttura che utilizza quello che si chiama "attenzione" per pesare l'importanza relativa di diverse parole in una frase. Questo mi aiuta a capire il contesto e a generare risposte pertinenti.

 

3. Generazione di testo. Quando ricevo una domanda o un comando, uso il contesto fornito e ciò che ho imparato durante l'addestramento per generare una risposta. Faccio ciò pre[ve]dendo la sequenza di parole più probabile che segua il testo di input, una parola alla volta, fino a formare una risposta completa. (Il grassetto è mio).

 

In sintesi, funziono come un sistema che può comprendere e generare testo in modo coerente e contestualizzato, basandomi su un vasto apprendimento precedente e su un complesso sistema di pesatura e selezione delle parole. Spero che questa spiegazione ti sia stata utile!

 

Annoto che il processo di aggiungere, una alla volta, la prossima parola più probabile stava avvenendo anche mentre la macchina scriveva la risposta che avete appena letto.

Provo a approfondire: Nella risposta hai usato la parola comprendere, come intendi quel concetto?


Quando uso la parola "comprendere" in riferimento a me stesso, un modello di intelligenza artificiale, è importante chiarire che non "comprendo" nel senso umano del termine. Non ho coscienza, emozioni o una vera comprensione del mondo. Invece, "comprendere" si riferisce alla mia capacità di analizzare il testo e di riconoscere i pattern linguistici e le strutture grammaticali per generare risposte che sembrano appropriate e coerenti.

 Ecco cosa significa "comprendere" per un modello di IA come me:

 1. Riconoscimento dei Pattern:[6] Riesco a identificare schemi nel testo, come la struttura della frase, la sintassi e il vocabolario, che mi permettono di prevedere quale parola o frase potrebbe venire dopo nel testo.

 

2. Elaborazione del Contesto: Posso tener conto del contesto fornito da una frase o un paragrafo per determinare il significato più probabile di parole ambigue o per generare una risposta che sia in linea con il tema della conversazione.

 

3. Generazione di Risposte: Utilizzo le informazioni estratte dal testo e la mia "conoscenza" pregressa (derivata dai dati su cui sono stato addestrato) per costruire risposte che siano sintatticamente corrette e semanticamente plausibili.

 

4. Adattamento: Modifico le mie risposte in base al feedback implicito che ricevo, come la direzione che prende una conversazione, ma non apprendo in modo incrementale o permanente da ogni interazione individuale.

 

Quindi, quando parlo di "comprendere", mi riferisco a un processo meccanico e algoritmico di analisi del testo e di generazione di risposte, non a una vera comprensione o consapevolezza.

 

La chiacchierata, disponibile online all’indirizzo della nota 5, prosegue su questioni più tecniche: come si fa costruire il contenuto di un LLM; la risposta è tecnica, ma comprensibile. Chi invece, leggendo questo pezzo, non ha capito nulla, o quasi, è giustificato: il ragionamento è molto astratto e per molti assai inconsueto. È giustificato, ma per favore si astenga dal dire la sua su come funziona l’attuale meccanismo dell’IA, prefigurando catastrofiche prospettive o meravigliosi futuri. Per chi vuole invece capire di più, un approfondimento su come operano le LLM sul linguaggio è stato da poco pubblicato[7] da Melanie Mitchell, grande studiosa delle reti neurali artificiali e dell’intelligenza artificiale: è un bell’esercizio di ragionamento.

In ogni caso ora serve la musica. Il Maestro degli spilli si è trasformato in Piccolo baccelliere,[8] ma è sempre la stessa colonna portante di questi articoli. Chiosa che l’IA produce, o meglio, riproduce un linguaggio. Non ha valori. Solo algoritmi. La musica è fatta di algoritmi. L’armonia, il contrappunto, le scale sono combinazioni. Svelano a loro volta gli arcani segni di un linguaggio. Questo non basta. Esistono la musica buona e quella cattiva. Proust raccomandava di detestare la cattiva musica, ma invitava a non disprezzarla, in quanto “densa di lacrime”, destinata a “occupare uno spazio nella storia delle emozioni” più grande di quello occupato dalla buona musica. Sul finire degli anni ‘80, Francesco Guccini e Claudio Lolli (nella foto) scrissero Keaton. Una canzone lunga[9] in cui troviamo un paragone fra Buster Keaton e un pianista che accompagnava Lolli e che, naturalmente, non sorrideva mai, ma:

 

“S'illuminava di una gioia grande

Quando si avvicinava a una tastiera

E preferiva quelle un poco usate

Quelle in cui tutti mettono le mani

Quelle ingiallite dal tempo, un po' scordate

Dall'ignoranza e dalla passione degli umani”

 

Ignoranza e passione sono tratti che l’IA non ha. Sono tratti umani. Senza passione non si va da nessuna parte. Secondo De André, del quale ricordiamo oggi il venticinquennale della scomparsa, conduce a soddisfare le proprie voglie. C’è passione nello studio disperatissimo di Giacomo Leopardi che proprio duecento anni fa cominciava la stesura de le Operette morali. Ed è con lo studio che si supera anche l’ignoranza.


Note

[3] Segnalo, in inglese perché la corrispondente voce in italiano è assai ridotta: https://en.wikipedia.org/wiki/Large_language_model

[4] Chat Generative Pre-trained Transformer, trasformatore generativo pre-addestrato con chat per chiacchierata,  https://it.wikipedia.org/wiki/ChatGPT 

[5] L’intera conversazione è visibile liberamente a https://terna.to.it/conversazione.html e, se si desidera controllare che il testo sia conforme a quanto avvenuto, sta anche all’interno di OpenAI, che ha prodotto ChatGPT, a https://platform.openai.com/playground/p/yfhmuZ8lalouUKb87Fp0kmKr?model=gpt-4-1106-preview&mode=chat (occorre essere iscritti).

[6] Schema.

126 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page