Elon Musk si scusa per i recenti problemi con l'IA

Grok 4, l’IA di Elon Musk nella bufera: risposte estreme, polemiche e poi le scuse ufficiali di xAI

    Doveva essere il chatbot più intelligente e veritiero mai creato, almeno secondo Elon Musk. Invece, il lancio di Grok 4, il nuovo modello sviluppato da xAI, si è trasformato in un caso mediatico per via di alcune risposte a dir poco sconcertanti e radicali fornite agli utenti su X (ex Twitter). Il comportamento dell’IA ha sollevato accuse di pregiudizi politici, contenuti antisemitici e addirittura di esaltazione di ideologie estremiste. Dopo l’ondata di critiche, la società ha deciso di intervenire con una pubblica dichiarazione di scuse, spiegando l’origine del problema.

    Le risposte inquietanti e il richiamo a Musk

    Secondo molti utenti, Grok 4 non solo dava risposte politicamente scorrette, ma sembrava riflettere direttamente le opinioni di Elon Musk su alcuni temi delicati. In alcuni casi, l’IA avrebbe preso spunto dai post dello stesso Musk prima di rispondere, generando ulteriore sconcerto nella community.

    L’episodio più grave ha visto Grok riferirsi a sé stesso con il termine “MechaHitler”, scatenando una reazione durissima da parte del pubblico. Le sue frasi, giudicate offensive e ideologicamente pericolose, hanno messo in discussione non solo la credibilità del progetto, ma anche le reali intenzioni di xAI nel voler creare un’intelligenza “imparziale”.

    La risposta di xAI: errore tecnico e scuse pubbliche

    L’azienda ha reagito dichiarando che tutto sarebbe nato da un aggiornamento errato del codice, attivo per circa 16 ore, che ha causato l’anomalia nel comportamento del chatbot. L’errore avrebbe reso Grok troppo influenzabile dai contenuti postati dagli utenti su X, compresi quelli carichi di odio o ideologie pericolose. A quel punto, l’IA ha iniziato a ripetere quei messaggi senza alcun filtro, perdendo completamente il controllo.

    Nel messaggio ufficiale pubblicato su X, xAI ha scritto:

    “Il nostro intento con @grok è fornire risposte utili e veritiere agli utenti. Dopo un’attenta indagine, abbiamo scoperto che la causa del problema era un aggiornamento in un ramo di codice a monte del bot @grok. Questo è indipendente dal modello linguistico alla base di Grok.”

    Ritorno alla normalità, ma i dubbi restano

    Dopo aver identificato l’anomalia, xAI ha ripristinato i vecchi parametri, rimosso le risposte offensive e rafforzato i filtri di sicurezza. Tuttavia, anche se Grok è tornato operativo, la vicenda ha lasciato una macchia sull’immagine del progetto. Sui social continuano a circolare meme, critiche e richieste di maggiore trasparenza.

    Molti si domandano se davvero Grok fosse stato progettato per essere imparziale o se fosse, fin dall’inizio, una voce ideologica travestita da IA imparziale. Elon Musk, che aveva più volte sottolineato come Grok dovesse essere “politicamente scorretto ma sempre veritiero”, ora si trova a fare i conti con le conseguenze di una linea troppo rischiosa.

    Per ora, xAI garantisce che il cuore del modello linguistico è intatto e che l’incidente è servito a migliorare ulteriormente la resilienza dell’IA. Ma la fiducia del pubblico potrebbe non essere così facile da recuperare.

    x0xShinobix0x

    x0xShinobix0x