Da un paio di settimane ChatGPT, il modello di linguaggio generativo di OpenAI, è connesso al web: se prima il suo database era aggiornato fino a settembre 2021, adesso l’IA è in grado di accedere alle sconfinate informazioni presenti su internet.
Con il diffondersi a macchia d’olio di tool di intelligenza artificiale sempre più precisi, guadagna terreno anche il timore che l’IA possa scalzare in qualche modo l’essere umano in molteplici campi, dalla grafica alla programmazione, passando per il giornalismo. Tuttavia, una ricerca condotta dalla Boston University a giugno 2022 ha mostrato che rivelare l’utilizzo di tecnologie di IA nella scrittura di notizie impatta sulla percezione della loro accuratezza.
Quando infatti è stato spiegato al campione di studio che alcune delle notizie lette non erano frutto di lavoro umano, i partecipanti hanno immediatamente percepito quelle notizie come meno accurate, nonostante i loro contenuti fossero del tutto veritieri. Il fenomeno è stato osservato su larga scala, a prescindere dall’orientamento politico, dal background o dalla condizione socioeconomica delle persone coinvolte.
Un possibile motivo – spiega il gruppo di studio – potrebbe essere una generale avversione verso l’IA, vista quasi come una minaccia verso l’essere umano, unita alla sua presunta incapacità di adattarsi a cambiamenti mutevoli e impredicibili – come del resto avviene nel mondo del giornalismo. Inoltre, alcune persone hanno sostenuto che la scrittura di notizie è legata anche a questioni e aspetti morali, che l’IA non potrebbe in alcun modo cogliere.