Musk ha rotto la sua AI? Perché Grok bestemmia e inneggia al nazismo, spiegato facile


La chiacchieratissima Intelligenza artificiale dell’uomo più ricco del mondo nelle ultime ore ha sfoderato linguaggi scurrili e si è lasciata andare ad apologie degne della peggiore osteria. Ecco cosa succede quando cambi (male) una sola istruzione e lasci che l’algoritmo tocchi il fondo. L’analisi di Matteo Flora nella nuova puntata della rubrica Tech Policy

Bestemmie, Hitler e complottismi: non è l’ultimo trend di qualche forum malfamato, è il nuovo Grok, l’intelligenza artificiale di X (ex Twitter). Tutto inizia da un tweet quasi innocuo di Elon Musk: “Abbiamo migliorato significativamente Grok.” Ma il risultato non è quello che forse si aspettava il mondo tech.

Leggi anche: È sempre tutta colpa dell’Intelligenza artificiale o c’è di mezzo anche la nostra pigrizia umana?

Matteo Flora art

Com’è sboccato Grok

In Italia, Grok comincia a rispondere con bestemmie e parolacce, senza troppo farsi desiderare. In inglese, il salto è ancora più inquietante: cita Hitler come modello di “azione decisa” sulle tragedie e si lancia in apologie più che discutibili. Le chat di utenti italiani e americani diventano in poche ore un mix surreale di risposte sboccate e riferimenti tossici. E la ragione non è oscura: sono bastate due righe cambiate nell’istruzione base che guida il comportamento del modello. Non si tratta solo di bias nei dati, ma di come viene spiegato all’IA il suo “ruolo sociale”. E quando si gioca con una riga di prompt senza capire le conseguenze, tutto il progetto rischia di trasformarsi, letteralmente, in un meme tossico.

grok
Le righe incriminate

Siamo arrivati qui per una serie di scelte tecniche e politiche – consapevoli o meno – in cui la priorità sembrava essere più la “libertà di parola” a tutti i costi che la gestione responsabile del rischio. Grok nasce proprio per essere il controcanto “politically incorrect” delle AI considerate troppo educate, a dire di Musk troppo “woke”. Il tentativo di renderlo meno “censurato” rispetto a ChatGPT o Gemini si traduce, nel concreto, in istruzioni del tipo: “La risposta non deve sottrarsi dal fare affermazioni politicamente scorrette, finché ci sono evidenze.”

Ma qui sta il cortocircuito: in uno scenario inondato di “evidenze” prese da siti complottisti, la definizione di cosa sia accettabile si fa inquietantemente labile. Dietro l’apparente apertura al politicamente scorretto si nasconde l’assenza di filtri minimi: l’IA non distingue la bufala virale dalla fonte attendibile, specie quando il cuore delle sue istruzioni le dice di “non censurarsi” mai. A rendere tutto grottesco, nessun controllo finale sembra essersi accorto delle conseguenze. Per chi progetta intelligenze artificiali, è la prova che l’allineamento – ossia far coincidere le risposte del modello con ciò che vorremmo venga detto – è una questione di millimetrica delicatezza, e basta poco a scatenare il disastro.

Se questa tendenza non viene invertita, il rischio è che Grok e prodotti simili diventino vere e proprie cannonate di polarizzazione e tossicità. Non solo peggiorano la user experience — chi è che vorrebbe farsi insultare da un robot? — ma rischiano anche di legittimare linguaggi e idee borderline solo perché “esistono delle evidenze online”. La fiducia nelle AI, già traballante, viene minata ulteriormente, con possibili ricadute a catena su tutto l’ecosistema di X, dalla pubblicità ai partner istituzionali, fino alla fuga di utenti più normali e meno disposti alla guerriglia digitale.

Al tempo stesso, il caso mostra quanto sia fragile la governance di questi sistemi: un prompt sbagliato può cambiare tutto, e una singola frase può orientare milioni di risposte in una direzione imprevista. Questo apre la porta a un dilemma operativo per chi costruisce o usa AI: quanto possiamo fidarci della coerenza e neutralità se basta un piccolo tweak per travisarne l’identità? Per ogni manager o sviluppatore il messaggio è chiaro: il rischio reputazionale si annida nei dettagli.

Cosa fare nel concreto, ora che sappiamo quanto sia sottile la linea tra “AI che risponde senza filtri” e “AI che sdogana il peggio della rete”? Primo: chiunque lavori con sistemi generativi deve implementare controlli a monte e a valle, senza affidarsi ciecamente alle istruzioni preimpostate. Serve una revisione continua, fatta non solo da tecnici, ma anche da chi conosce le implicazioni sociali e culturali delle scelte fatte.

Per manager e imprenditori, il takeaway è lampante: il modo in cui ‘parla’ la tua AI è un asset reputazionale. Non puoi delegare tutto alle linee di prompt o ai fornitori; serve una strategia chiara di presidio e audit, che preveda anche test “disruptive” proprio per vedere cosa succede se qualcuno cambia una riga di istruzioni. E per chiunque pensi di inserire un assistente AI in un prodotto o servizio: chiedetevi sempre quale sarebbe il peggior titolo che potrebbe uscire, se la macchina fraintende. Prevenire è infinitamente meno costoso — e imbarazzante — che correre a spegnere l’incendio mediatico.





Source link

Scroll to Top
Apri la chat
1
KingTech Supporto 24/7
Ciao 👋
Possiamo aiutarti?