Intelligenza artificiale, modelli open source e proprietari: ecco perché la trasparenza è importante

Uno studio pubblicato su arXiv[1] mette a confronto i modelli di intelligenza artificiale generativa open source e quelli proprietari, evidenziandone vantaggi, limiti e implicazioni etiche, sociali e ambientali.

Il confronto tra modelli aperti e chiusi

Secondo Jorge Machado, autore dello studio, i modelli aperti risultano più trasparenti, adattabili e controllabili. Consentono audit indipendenti e riducono il rischio di bias nascosti. Al contrario, quelli chiusi – come GPT-4, Claude o Gemini – tendono a privilegiare facilità d’uso e supporto tecnico, ma a scapito della responsabilità e dell’equità. Mancano di accesso pubblico ai dati di addestramento, non permettono verifiche esterne e possono alimentare disuguaglianze e manipolazioni.

I pericoli della mancanza di trasparenza

L’assenza di trasparenza nei modelli proprietari rende difficile identificare errori e abusi. Il caso della rete Pravda, che ha contaminato 10 chatbot con disinformazione sistematica, mostra quanto sia semplice influenzare sistemi chiusi con contenuti tossici. Questi modelli possono essere sfruttati per la sorveglianza di massa o per fini propagandistici senza controllo esterno. Inoltre, impediscono alla società civile di partecipare allo sviluppo e alla verifica degli strumenti che ormai influenzano le decisioni pubbliche.

Modelli open come soluzione più giusta

Modelli come BLOOM, Pythia e OLMo offrono un’alternativa più etica e sostenibile. Grazie alla loro apertura, è possibile monitorare consumi energetici, ottimizzare i processi e limitare l’impatto ambientale. BLOOM, per esempio, emette venti volte meno CO₂ rispetto a GPT-3, a parità di parametri. Inoltre, l’accesso a comunità globali e strumenti condivisi promuove innovazione diffusa e adattabilità locale, contrastando l’accentramento del potere nelle mani di poche multinazionali.

Verso un’IA generativa pubblica e sicura

Lo studio propone un modello basato su tre pilastri: apertura tecnica, governance pubblica e sicurezza. Significa rendere accessibili codice, dati e documentazione, ma anche garantire che lo sviluppo coinvolga società civile, enti pubblici e comunità scientifiche. Serve una cornice normativa chiara, licenze etiche come la RAIL, e fondi per sostenere modelli alternativi. Solo così si potrà davvero costruire un’IA che serva il bene comune e non solo gli interessi di pochi.

Condividi questo articolo

C’è un errore?

Hai trovato un errore in questa pagina? Segnalacelo!

Disclaimer notizie

Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001. L’autore non è responsabile di altri siti collegati tramite link né del loro contenuto che può essere soggetto a variazioni nel tempo.

Notizie scientifiche.it usa i cookie per migliorare l'esperienza di navigazione (Leggi di più)


Dati articolo