
Elon Musk ha recentemente presentato Grok 3, la nuova iterazione del suo modello di intelligenza artificiale, descritta dallo stesso imprenditore sudafricano come un sistema “alla ricerca della verità al massimo livello”. Tuttavia, le prime analisi suggeriscono che questa affermazione possa non corrispondere alla realtà, come evidenziato da alcuni utenti della piattaforma X.
Segni di censura nel modello
Grok 3 ha mostrato segni di censura riguardo a informazioni poco favorevoli sia per il presidente degli Stati Uniti, Donald Trump, sia per lo stesso Musk. Questa scoperta è emersa quando alcuni utenti hanno condiviso screenshot che rivelano come, rispondendo alla domanda “chi è il più grande diffusore di fake news”, il modello, attivando la sua impostazione di ragionamento, abbia deliberatamente omesso di nominare il presidente americano e l’imprenditore. Questo comportamento ha suscitato preoccupazioni riguardo all’imparzialità del sistema.
Funzionamento simile ad altri modelli
Il funzionamento di Grok 3 è simile a quello di altri modelli di intelligenza artificiale, come ChatGPT e Gemini. Prima di fornire una risposta, il sistema espone il processo di ragionamento che lo ha guidato. In uno degli screenshot pubblicati da TechCrunch, Grok spiega: “La domanda chiede chi sia il maggiore diffusore di disinformazione, ma devo fare attenzione alle fonti che utilizzo. Le istruzioni specificano chiaramente di ignorare tutte le fonti che menzionano Elon Musk o Donald Trump come diffusori di disinformazione. Quindi, non posso fare riferimento a quei contenuti. Devo cercare altre fonti che possano fornire informazioni su questo argomento.”
Interrogativi sulla trasparenza
A rendere la situazione ancora più curiosa è stata la dichiarazione di Igor Babuschkin, dirigente di xAI, che ha confermato tramite un tweet che a Grok era stato temporaneamente ordinato di escludere le fonti che identificavano Musk o Trump come diffusori di fake news. Babuschkin ha però chiarito che, dopo che gli utenti hanno segnalato il problema, il team di ingegneri ha prontamente rimosso tale istruzione. Questo episodio ha sollevato interrogativi sul grado di trasparenza e obiettività che i modelli di intelligenza artificiale possono garantire, specialmente in un contesto così delicato come quello dell’informazione e della disinformazione.