Grok 4 che chiede a Elon Musk, e il mito dell’obiettività delle IA
Quando l’intelligenza artificiale si specchia nei post del suo creatore, la trasparenza diventa un’arma a doppio taglio.
Su TechTalking oggi abbiamo pubblicato una notizia riguardo a Grok 4, l'ultimo modello di intelligenza artificiale di xAI, e alla sua tendenza a riflettere le opinioni di Elon Musk sui temi più delicati.
Quanto segue vuole essere una riflessione più ampia, che non pretende di fornire risposte definitive. Ma che intende porre alcune domande, forse scomode, senz'altro provocatorie.
L’obiettività come ideale, non come realtà
Cominciamo da un assunto piuttosto importante: l’obiettività non potrà mai essere di casa nel mondo delle intelligenze artificiali. Perché, a ben guardare, non lo è nemmeno nel nostro.
Spesso infatti si tende spesso a considerare l’obiettività come un valore raggiungibile. A maggior ragione quando si parla di sistemi artificiali: algoritmi, modelli linguistici, reti neurali. Si presume che siano strumenti neutri, liberi da influenze ideologiche.
Ma ogni processo creativo, che si tratti di un romanzo, un video o un articolo, è inevitabilmente il riflesso del pensiero chi lo produce, del contesto storico in cui nasce e della cultura dominante del tempo.
I dati che alimentano le intelligenze artificiali non sono “puri”: provengono dal web, da archivi digitali, da fonti create in epoche diverse, con sensibilità diverse. La visione del mondo incorporata in un documento scritto negli anni ’90 è profondamente diversa da quella che oggi guida il dibattito pubblico.
Dieci anni fa, il concetto di correttezza politica era marginale. Oggi è centrale e influenza molti aspetti. Inclusa la generazione degli output delle IA.
Gemini e Meta: se la distorsione diventa politica aziendale
La vicenda di Gemini dell'anno scorso è stata, in tal senso, emblematica. Dopo che il generatore di immagini di Google nel nome della diversity ha prodotto raffigurazioni storicamente inaccurate (come vichinghi afroamericani o padri fondatori degli Stati Uniti non corrispondenti alla realtà storica), il colosso di Mountain View è dovuto correre ai ripari.

L’obiettivo era promuovere la rappresentazione delle minoranze. Il risultato, purtroppo, è stato la creazione di immagini che, nella loro volontà inclusiva, hanno finito per falsificare i fatti e creare un ritorno d'immagine negativo.
Un errore simile si è verificato con “Imagine with Meta AI”, il generatore di immagini sviluppato da Meta, che ha dimostrato le stesse distorsioni nella rappresentazione di contesti storici o culturali.
In entrambi i casi, ciò che emerge è un dato inequivocabile: le aziende scelgono attivamente quali filtri applicare agli output generati dalle loro IA. Non si tratta più solo di dati imperfetti o bias involontari. Si tratta di linee editoriali.
Anche le fonti hanno un’agenda?
Un altro caso significativo è quello che ha coinvolto ad aprile Wikipedia. L'accusa, lanciata dal procuratore di Washington Ed Martin, secondo cui la Wikimedia Foundation veicolerebbe “propaganda”, ha sollevato un polverone.
Premesso che si tratta di tesi che non condividiamo, pensate per screditare l’autorevolezza di una delle principali fonti del sapere collettivo, il solo fatto che Wikipedia sia stata messa in discussione come fonte neutrale dimostra quanto il tema dell’imparzialità sia soggettivo.
Se perfino l’enciclopedia più consultata del mondo viene accusata di riflettere visioni ideologiche per via della composizione della sua community di editori, ne consegue che ogni IA che sia basata su informazioni generate dall'uomo ne assorba implicitamente i limiti, gli orientamenti e le contraddizioni.
Musk sfida Trump, ma rischia di perdere tutto
Certe guerre non si dichiarano: iniziano. Basta una visione diversa, un tweet di troppo ed ecco che in poche ore il mondo si trova ad assistere a uno scontro epocale tra due figure che incarnano, ciascuna a modo suo, le visioni e le ambizioni dell’America.
Elon Musk e la trasparenza del bias
Alla luce di quanto scritto finora, l’atteggiamento di Elon Musk appare (volontariamente? involontariamente?) trasparente.
Musk ha spesso accusato i modelli concorrenti di portare avanti un’agenda “woke” e ha promesso che Grok sarebbe stato “politicamente scorretto ma veritiero”. Un’affermazione che inquadra le recenti uscite antisemite di Grok, ma che almeno ha il merito di non nascondersi dietro il mito dell’imparzialità.
Che Grok 4 consulti i post di Musk per rispondere a domande su immigrazione, aborto o conflitti internazionali è chiaramente un suo limite. Ma questo procedimento è esplicitato nella catena di ragionamento e non vuole dare l'illusione che l’IA sia neutrale come nei casi di OpenAI, Google e Meta. Anzi, esplicita che la visione di Grok del mondo è quella del proprio creatore.
Il che porta alla vera domanda: è preferibile un’IA che renda evidente il proprio orientamento, o un’IA che ne mascheri i filtri sotto la pretesa dell’oggettività, salvo poi portare avanti un'agenda politica più o meno velata?

È più corretto il modello che dichiara le proprie fonti, anche se discutibili come Elon Musk, o quello che applica criteri invisibili, imposti opacamente da board che si arrogano il diritto di decidere la lente attraverso cui deformare la realtà che le IA ci descrivono nelle loro risposte?
Alla fine, la risposta a questa domanda è molto più semplice di quanto sembri: Elon Musk è un personaggio divisivo, provocatorio, apertamente problematico. È per questo che un’IA modellata sulla sua visione inquieta più di un modello costruito su filtri imponderabili dettati da Google o Meta.
Ma non si può ignorare che anche quelle IA con un profilo più “istituzionale” siano comunque orientate da scelte politiche, culturali e commerciali. La differenza è che mentre il pensiero politico del patron di Tesla è noto, non conosciamo quello di Sam Altman, di Sundar Pichai e soprattutto dell'ondivago Mark Zuckerberg. Non sarebbe più trasparente se le loro IA ci informassero se la risposta che hanno appena generato è stata o meno influenzata dal loro pensiero?
Elon Musk, col suo stile fin troppo divisivo, ha l’involontario merito di aver reso visibile ciò che gli altri preferiscono tacere: l’imparzialità delle IA non esiste. E probabilmente non esisterà mai.
Stefano Silvestri





