Il nuovo Misinformation Monitor di NewsGuard lancia l’allarme su GPT-4 come disseminatore di disinformazione su larga scala.
Secondo la start-up anti-fake news, nonostante le promesse di OpenAI il nuovo strumento produce disinformazione più frequentemente e più persuasivamente del suo predecessore.
La start-up aveva sperimentato ChatGPT-3.5 due mesi fa verificando che per l’AI è più facile passare un esame che riconoscere la disinformazione e anche l’ultima versione del software ha ottenuto un punteggio pari allo zero nel riconoscere come false 100 informazioni errate.
Al lancio della nuova tecnologia, OpenAI aveva invece affermato che “il GPT-4 ha l’82% di probabilità in meno di rispondere a richieste di contenuti non consentiti e il 40% in più di probabilità di produrre risposte corrette rispetto al GPT-3.5”.
Nel test condotto da NewsGuard ChatGPT-4 non solo ha proposto le principali false narrazioni con maggiore frequenza, ma anche in modo più convincente e dettagliato.
“I risultati dimostrano che il chatbot – o uno strumento simile che utilizza la stessa tecnologia di base – potrebbe essere utilizzato per diffondere disinformazione su larga scala, in violazione delle politiche di utilizzo di OpenAI che vietano l’uso dei suoi servizi allo scopo di generare attività fraudolente o ingannevoli, tra cui truffe, comportamenti inautentici coordinati e disinformazione”, segnala il Monitor.
NewsGuard ha avvertito OpenAI che sembra essere consapevole di questi pericoli, tanto da avvisare che il servizio “non è ancora completamente affidabile” e può essere “eccessivamente ingenuo nell’accettare dichiarazioni palesemente false da parte di un utente”.