Il Consiglio europeo, quello composto dai Capi di Stato dei Paesi membri dice: “La legge sull’intelligenza artificiale è un elemento fondante della politica dell’Ue volta a promuovere lo sviluppo e l’adozione nel mercato unico di un’intelligenza artificiale che rispetti i diritti fondamentali”.
Bene. A fronte di software sempre più sofisticati (e quindi, di per sé, strutturalmente pericolosi) che puntano a emulare il funzionamento, non ancora del tutto chiarito, di quell’ammasso cerebrale che l’uomo racchiude nella sua scatola cranica, la governance europea si preoccupa che siano preservati i diritti fondamentali.
In verità, qui, non si capisce bene se ci riferisce ai diritti fondamentali della collettività o a quelli dell’individuo e quale dei due sia prevalente.
Sembra, ma non lo è, una questione di poco conto.
Rimane sospesa, infatti, la questione principe: quali siano questi principi e chi li debba declinare.
Per fare un esempio pratico, durante il periodo pandemico, si è prestata grande attenzione ai diritti collettivi, considerati prevalenti, rispetto ai diritti individuali. Come tutti sanno, questa scelta “politica” ha generato grandissimi disagi.
Già nell’aprile del 2021, Thierry Breton, commissario per il mercato interno, presentò una proposta di legge sull’Ia i cui relatori al Parlamento furono Brando Benifei (S&D, Italia) e Dragoş Tudorache (Renew Europe, Romania). Un accordo preliminare fu raggiunto l’8 dicembre 2023. Il 13 marzo 2024 il Parlamento espresse parere positivo e, il 26 marzo, l’ACT fu approvato dal Consiglio europeo. Entrerà in vigore venti giorni dalla data di pubblicazione sulla Gazzetta Ufficiale dell’Ue e si applicherà due anni dopo.
Quale è l’obiettivo della legge? Promuovere questo nuovo mercato interno europeo (generazione della offerta e stimolo della domanda), sia in area pubblica che privata, sulla base di norme che garantiscano la sicurezza e la affidabilità dei software. Le norme definiscono i vincoli per acquisire il timbro EU e, quindi, l’accesso al mercato comune europeo. E’ ovvio che le norme valgono per il diritto della EU; inoltre non includono ambiti specifici quali la Ricerca, la Difesa e gli “interessi militari”.
Quale è la struttura della legge? E’ una struttura a “scaletta”; cioè i diversi software sono collocati in una graduatoria in rapporto ai “rischi di pericolosità di esercizio”. In sostanza, più un software è sofisticato, più alto è il rischio di bug (errori di costruzione) e più alta è la probabilità che sfugga al controllo e produca effetti indesiderabili o addirittura disastrosi e irreparabili. Non è facile identificare e definire la “misura della sofisticazione” di un software (e quindi la sua posizione in graduatoria). Infatti, essa è strettamente collegata alla evoluzione tecnico/scientifica e al tasso di difficoltà dei test.
Comunque, una volta identificata e definita la misura della sofisticazione, essa dovrà essere monitorata in tempo reale oltre che essere manutenuta in senso innovativo e correttivo.
Per contro, però, i software ultra sofisticati come quelli della manipolazione (sia cognitiva che comportamentale che di plagio popolare) sono proibiti.
Come proibiti sono i software di classificazione biometrica ed emozionale (sociale, culturale, razza, religione, orientamento sessuale) e quelli di predizione su profilazione (polizia, media, tendenze).
E’ chiaro che queste citate sono aree “oscure” che vanno intelligentemente monitorate con indagini adeguatamente orchestrate, con oculati aggiornamenti dei codici penali, con punizioni esemplari di esclusione permanente dai pubblici uffici per gli eventuali rei.
Tuttavia, un software di IA, “lecito”, se ben disegnato, può facilmente tracimare in aree “oscure” superando i monitoraggi: ecco perché la “scienza dei test” ha un ruolo fondamentale nel mercato della Intelligenza Artificiale. Di queste tracimazioni, al di fuori della legge, abbiamo avuto un assaggio con la violazione illecita delle Banche Dati nazionali riservate: la famosa indagine della Procura di Perugia della quale non si è saputo, stranamente, più nulla.
In questa ampia prateria di aree “oscure”, la parte del leone la fa il “software di General Purpose” (Gpai – General Purpose Artificial Intelligence). Su di esso si può schematizzare ogni tipo di vincolo e limite specifico: basta la fantasia. Ma il vero problema non è definire vincoli e limiti ma monitorare e controllare il rispetto dei vincoli e dei limiti.
Nè è sufficiente e risolutivo istituire, come previsto dalla legge, una architettura di organi burocratici governativi ad hoc, pieni di politici, burocrati (il vero potere permanente), tecnici esperti (che qualcuno ha l’immaginazione di chiamarli “indipendenti”), consiglieri e assistenti (tutti in vacanza retribuita); oltre che costruire una architettura di Banche Dati riservate.
Reputiamo, invece, che il monitoraggio e il controllo debba essere affidati ad software, anch’esso di Intelligenza Artificiale edito da un team blindato, che non sarà certo perfetto ma sicuramente asettico, che usi il metodo del “chiodo schiaccia chiodo”. Accanto a questo va prevista una sanzione, esemplare ed automatica, da infliggere ai contravventori: la esclusione permanente dai pubblici uffici per gli individui rei e l’uscita dal mercato della IA per le imprese produttrici.
Infatti, hanno poco senso sanzioni economiche, magari a valere in percentuale sul fatturato annuo delle imprese produttrici, come proposto dalla legge, perché l’onere di tali sanzioni si riverbera, a cascata, sui prezzi e non risolve i problemi.
In sostanza, proponiamo che il rischi di essere attori del mercato della Intelligenza Artificiale per l’offerta, sia equipollente al rischio di chi compone la domanda. Solo così i produttori staranno molto attenti a cosa producono e a cosa usano per i testi qualitativi dei loro prodotti.
E’ appena il caso di sottolineare che la scienza dei test deve essere più competitiva della scienza della produzione.
Un esempio della difficoltà di testare, validare e controllare l’esercizio di un software di IA lo ritroviamo nella confusione che regna nella maggiore delle imprese di produzione, OPEN AI, nella quale Microsoft ha investito, finora, $ 11 mld.
Infatti Samuel Harris Altman, co-fondatori e AD di OpenAI, l’inventore di CHAT GPT, ha “rottamato” il Comitato di Sicurezza di Open AI sull’Ia.
Il tema è il solito: il controllo del software di IA.
Interpellato Elon Musk dice: “Dobbiamo comprendere come controllare IA più intelligente di noi. La cultura e i processi riguardanti la sicurezza sono passati in secondo piano rispetto a prodotti luccicanti”.
Descrive così il conflitto emergente, di non facile soluzione, fra il profitto e i diritti fondamentale della persona.
In OPEN AI, si era costituito il Comitato SuperAlignment, con il compito del controllo etico morale del software. Ne facevano parte Ilya Sutskever (di origine russa, esperto in Machine Learning, Deep learning, Reti neurali) e Jan Leike (esperto di Machine Learning and Alignment) che hanno cominciato a studiare tecniche per “limitare” i software nelle loro potenzialità di generare “Deep Fake” ed escluderne gli impatti sul mondo del lavoro. Il Comitato avrebbe avuto a disposizione il 20% della potenza di calcolo totale per questo scopo.
Niente è avvenuto e i due si sono dimessi sbattendo la porta.
Loro dicono: ”Crediamo che gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alla sicurezza, al monitoraggio, al super allineamento (ai valori umani), e all’impatto sociale delle prossime generazioni di modelli”. Ma negli ultimi mesi il nostro team ha dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca”.
Ciò chiarisce i termini del discorso: che i software di IA debbono essere affiancati da analoghi software di controllo nella ottica del “chiodo schiaccia chiodo”, come già detto, per un buon 20%.
Non c’è dubbio: un alto costo per l’azienda!
In ogni caso, il conflitto fra profitto e diritti avrà alti e bassi frequentissimi.
Infatti, il CDA di OPEN AI aveva a novembre 2023 defenestrato Altan per non aver dato spazio al Comitato. Richiamato, per questioni di profitto, ha a sua volta defenestrato il Comitato SuperAlignment.
E’ sintomatico che Musk, ex finanziatore di OPEN AI, abbia più volte sostenuto di aver finanziato una iniziativa no profit diventata poi con finalità di lucro.
E’ una soluzione quella di Musk?
Intanto una ricerca commissionata da Ambrosetti dice che “la produttività del Sistema-Italia potrà aumentare fino al 18% grazie all’adozione di Intelligenza Artificiale Generativa”.
Ci domandiamo: a scapito di cosa e di chi?
Gli appetiti sono enormi e se l’IA ACT europeo sembra andare nella direzione etico morale auspicata, sarà difficilissimo applicarlo concretamente.
Antonio Vox