I governi di Italia, Germania e Francia stanno facendo resistenza ad alcuni elementi propedeutici all’approvazione finale dell’AI Act, il pacchetto di norme comunitarie sull’intelligenza artificiale. Nell’ultima fase della discussione, i tre più grandi paesi dell’Unione europea hanno fatto fronte comune per escludere dalla legge i modelli fondativi, cioè i sistemi di addestramento alla base di strumenti a intelligenza artificiale, come LaMDA per Google Bard. Il gruppo di esperti dell’Atomium . European institute for science, media and democracy, un centro studi europeo, ha pubblicato una lettera aperta ai tre governi per convincerli a fare marcia indietro.
Nella sua fase finale, l’approvazione dell’AI Act è “minacciata da quella che riteniamo sia una spinta sbagliata da parte dei rappresentanti dei vostri governi, a favore dell’autoregolamentazione da parte di aziende che impiegano modelli base di intelligenza artificiale. Ciò significa che queste aziende dovrebbero aderire ai propri codici di condotta, piuttosto che essere regolamentate da organi ufficiali”, si legge nella lettera.
Tecno-apocalittici, utopisti, attenti all’etica o alla sicurezza: ecco i quattro gruppi che dominano il dibattito sullo sviluppo dell’AI. E le cui idee hanno infiammato la battaglia per il comando di OpenAI
Come riporta Euractiv, i tre paesi hanno chiesto di escludere dalla regolamentazione i modelli fondativi, per farvi rientrare unicamente le applicazioni specifiche. Per fare un esempio, il famoso chatbot ChatGPT ricadrebbe nella normativa, ma non il modello fondativo addestrato per il suo funzionamento, ChatGPT4. Il compito di evitare abusi nell’addestramento, nello sviluppo e nel funzionamento del modello base ricadrebbe così solo sulle aziende proprietarie, senza organi di verifica o controllo e, soprattutto, senza alcuna sanzione.
Roma, Parigi e Berlino sono infatti anche contrarie a imporre dei meccanismi sanzionatori per le aziende che violano l’AI Act, sia per i modelli base che per le applicazioni, e propongono di istituire un regime sanzionatorio solo in seguito a “violazioni sistematiche dei codici di condotta e a una corretta analisi e valutazione dell’impatto delle mancanze individuate”. Insomma, la proposta va a scardinare l’efficacia e la portata innovativa dell’Ai Act, andando contro l’approccio di neutralità tecnologica e basato sul rischio della legge.
“Il cambiamento di approccio sta ritardando l’approvazione dell’AI Act, soprattutto in vista delle imminenti elezioni del Parlamento europeo. E, cosa, più critica, può minacciare la sua efficacia e comportare gravi rischi per i diritti dei cittadini europei e per l’innovazione comunitaria”, continua la lettera di Atomium. Per gli esperti, infatti, i codici di condotta volontaria sono insufficienti e inefficaci, perché le aziende danno sempre priorità ai propri profitti rispetto alla sicurezza pubblica o alle preoccupazioni etiche.
L’opposizione dei tre paesi rischia di far saltare il pacchetto sull’intelligenza artificiale. Se Italia, Francia e Germania dovessero insistere sulla loro posizione, il negoziato con Commissione e Parlamento potrebbe saltare e ricominciare l’iter legislativo, dopo le elezioni europee.
Fonte : Wired