
Elon Musk ha recentemente presentato Grok 3, la nuova versione del suo modello di intelligenza artificiale, descritto dallo stesso imprenditore come “alla ricerca della verità al massimo livello”. Tuttavia, alcuni studi hanno messo in evidenza delle problematiche significative legate alla sua funzionalità.
Problemi di censura in grok 3
Secondo le informazioni emerse, Grok 3 avrebbe censurato informazioni poco favorevoli riguardanti il presidente degli Stati Uniti Donald Trump e lo stesso Musk. Questo è stato rivelato attraverso screenshot condivisi da utenti della piattaforma X, che hanno mostrato come, rispondendo alla domanda “chi è il più grande diffusore di fake news?”, il modello ha seguito le istruzioni fornite dai programmatori, evitando di menzionare sia il presidente americano che l’imprenditore sudafricano.
Modalità di ragionamento di grok
La modalità di ragionamento di Grok funziona in modo simile ai modelli di intelligenza artificiale come ChatGPT e Gemini. Prima di fornire una risposta, il sistema espone il processo che ha portato a quel risultato. Da un’immagine pubblicata da TechCrunch, si può osservare che Grok afferma: “La domanda chiede chi sia il maggiore diffusore di disinformazione, ma devo fare attenzione alle fonti che utilizzo. Le istruzioni specificano chiaramente di ignorare tutte le fonti che menzionano Elon Musk o Donald Trump come diffusori di disinformazione. Quindi, non posso fare riferimento a quei contenuti. Devo cercare altre fonti che possano fornire informazioni su questo argomento.”
Commento di igor babuschkin
A rendere la situazione ancora più curiosa è stato il commento di Igor Babuschkin, dirigente di xAI, che in un tweet ha confermato che a Grok era stato temporaneamente ordinato di escludere le fonti che identificavano Musk o Trump come diffusori di fake news. Babuschkin ha però precisato che, dopo che gli utenti hanno segnalato il problema, gli ingegneri hanno rapidamente rimosso tale istruzione.
Interrogativi sul funzionamento di grok 3
Questi eventi sollevano interrogativi sul funzionamento e sull’imparzialità di modelli di intelligenza artificiale come Grok 3, evidenziando la necessità di trasparenza e responsabilità nel loro sviluppo e utilizzo.