top of page

PUNTURE DI SPILLO. "Evitiamoci grida manzoniane sull'Intelligenza artificiale!"

a cura di Pietro Terna

 

Il 9 dicembre il Parlamento europeo ha approvato l’AI Act,[1] la normativa che regolamenterà l’intelligenza artificiale nel vecchio continente. Per alcune settimane non avremo il testo ufficiale, perché sono necessari perfezionamenti a livello tecnico; inoltre il lavoro è stato condotto per parti separate, ora da integrare. Entrerà in vigore progressivamente, con inizio tra sei mesi, sino a due anni da ora. Con una fretta un po’ esagerata, un nostro importante quotidiano ha titolato “ChatGPT è fuori legge”.

 La norma considera molti aspetti dell’intelligenza artificiale. Per la parte di cui ogni giorno leggiamo di novità e effetti, vale a dire l'IA generativa – ad esempio ChatGPT – sono previsti vari requisiti, indicati in una anticipazione del Parlamento Eu.[2] Ogni sistema di quel tipo dovrebbe:


. rivelare che il contenuto è stato generato dall'IA;

. progettare il modello per evitare che generi contenuti illegali;

. pubblicare sintesi dei dati protetti da copyright utilizzati per l'addestramento.

 

Mi spiace per Brando Benifei, parlamentare europeo PD che ha dedicato grande energia e competenza a questo tema, ma si tratta di indicazioni che echeggiano le grida di cui scrive Manzoni. Propongo un test attitudinale per chi, in politica, intenda occuparsi di IA (recentemente ne è stato immaginato uno per i magistrati…): mostrare che si è capaci di interrogare con successo ChatGPT o simili e, mentre lo si fa, spiegare per sommi capi quel che sta accadendo, senza usare metafore del comportamento umano: il computer pensa, suggerisce, propone

Il motivo lo chiarisce un recente articolo[3] dell’Economist: “Parlare di IA in termini umani è naturale, ma sbagliato”. Mai dimenticare che questi modelli informatici cercano soltanto di produrre una “continuazione ragionevole” di qualsiasi testo in costruzione, dove per “ragionevole” intendiamo una sequenza di parole (via via successive) scelte da un meccanismo che ha assimilato i collegamenti interni di ciò che sta in milioni o miliardi di testi di ogni tipo.

I contenuti illeciti emergono se chi usa quel sistema propone un percorso concettuale che implica l’illegalità. Si arriva così alla libertà del comportamento umano: posso chiedere alla macchina come fare per incendiare casa mia e non c’è nulla di illegale in una fantasia stravagante. Posso chiedere come fare a convincere tutti che la Borsa precipiterà nei prossimi giorni, poi farne o no uso. Sono io l’arbitro dell’illegalità. A questo si collega l’obbligo di rivelare che il contenuto è stato generato dall’IA. Lo nascondo se voglio dare valore al mio apporto o, al contrario, lo promuovo se credo che serva per avvalorare ciò che affermo: forse è l’opposto di quel che il legislatore ha in animo nello scrivere la norma.

 Il terzo punto sottintende il problema dei diritti d’autore. Se io studio il contenuto di mille libri e con quel patrimonio di conoscenze scrivo un saggio, sto violando gli eventuali diritti d’autore di chi quei libri ha scritto e pubblicato? Certo che no. Con queste macchine siamo nella stessa situazione: imparano i collegamenti tra elementi del linguaggio, non sono pappagalli elettronici che ripetono testualmente quel che sta scritto da qualche parte.[4]

Ha fatto male il legislatore a occuparsi della materia? No, ma l’intervento tendenzialmente rivolto ai divieti rischia di non produrre gli effetti positivi immaginati. Severo il Financial Times con un articolo[5] dello stesso giorno dell’approvazione, 9 dicembre, intitolato “EU agrees landmark rules on artificial intelligence” (L'UE approva regole fondamentali sull'intelligenza artificiale) con l’affermazione[6] che “I legislatori dell'UE hanno concordato i termini di una legislazione storica per regolamentare l'intelligenza artificiale, spingendosi a promulgare il regime più restrittivo al mondo sullo sviluppo di questa tecnologia”.

La nota pericolosa sta nel riferire “restrittivo” a “sviluppo”. È ben vero che le restrizioni non valgono per chi rilascia in open source (disponibile per tutti) il codice informatico dei sistemi che ha prodotto: elemento molto interessante, ma la conoscenza dei miliardi di parametri su cui funzionano questi sistemi comunque non impedisce certo di usarli in modo malevolo. Allora il punto non sta nel vietare la produzione di coltelli da cucina sempre più affilati, ma nel punire chi li usa per far del male a qualcuno.


Il legislatore ha di fronte a sé una prateria sconfinata di azioni da percorrere, dovendo affrontare il grande problema delle conseguenze di questa nuova rivoluzione produttiva sul lavoro e sull’economia nel suo complesso. È necessario capire la macroeconomia dell’intelligenza artificiale, come ad esempio si cerca di fare in un articolo di Erik Brynjolfsson and Gabriel Unger nel numero di dicembre della rivista Finance&Development del Fondo Monetario Internazionale. L’occhiello dell’articolo[7] ci ricorda che “Le decisioni collettive che prendiamo oggi determineranno il modo in cui l'IA influirà sulla crescita della produttività, sulla disuguaglianza dei redditi e sulla concentrazione industriale”. Vietare ricerca e sviluppo non conduce a nulla, ripensare la società con la scuola, la cultura, l’innovazione economica, può porre le basi per il futuro. Vietare inoltre aumenta lo stato di ansia[8] che pervade le persone, senza offrire risposte.

 L’intervento principe, infine, è quello della realizzazione di un CERN dell’IA e del cervello, che renda vero patrimonio collettivo la ricerca nel campo.[9]

Una considerazione pratica: al di là di tutto: al momento stanno scattando le regole antimonopolio, con la Microsoft sotto la lente della Federal Trade Commission per la posizione dominante che sta assumendo.[10]


Con il Maestro degli spilli questa volta voliamo alto, con un parallelo fra l’AI e la filosofia di Empedocle. L’intelligenza artificiale generativa combina collegamenti tra conoscenze e concetti. La filosofia di Empedocle è un tentativo di combinare le precedenti dottrine: gli ionici, Eraclito, Parmenide, Pitagora, tutto torna nel suo pensiero. Quattro elementi, fuoco, aria, terra e acqua. A questi si riconduce l’universo, la sua origine e il fine a cui tende. Fra i quattro elementi scegliamo l’acqua. Luciano Berio scrisse la Wasserklavier, prima di una serie di sei opere per pianoforte, nel 1965, dopo una discussione sulla corretta interpretazione dell’intermezzo in si minore di Brahms. La proponiamo nella esecuzione di Helene Grimaud.[11] Brevissima, vi si apprezza la necessità causale della pioggia. Empedocle è anche l’ultimo filosofo greco che si sia espresso in versi. Un po’ come chi tenta un’interpretazione musicale dei fenomeni economico sociali.

 


Le Punture di spillo sospendono l’uscita per tre settimane: ritorneranno dopo la Befana. Auguri dallo scrivano con il puntaspilli e dal Maestro di musica ai lettori de La Porta di Vetro.


Note

[4] Per un approfondimento suggerisco la lettura del breve testo “Funzionamento LLM: come scoprirlo con una rappresentazione grafica in 3D” a https://www.ilsoftware.it/funzionamento-llm-come-scoprirlo-con-una-rappresentazione-grafica-in-3d/ e poi passare a https://bbycroft.net/llm 

[5] Riportando il titolo in un motore di ricerca si ottiene un link, valido una sola volta, all’articolo.

[6] EU lawmakers have agreed the terms for landmark legislation to regulate artificial intelligence, pushing ahead with enacting the world’s most restrictive regime on the development of the technology.

[7] A https://www.imf.org/en/Publications/fandd/issues/2023/12/Macroeconomics-of-artificial-intelligence-Brynjolfsson-Unger, The collective decisions we make today will determine how AI affects productivity growth, income inequality, and industrial concentration

102 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page