01Aug

Fake news e fact-checking: Trump sta mostrando come diventare più furbi dell’intelligenza artificiale

L'articolo che segue è la traduzione dell'articolo "Fake news and fact-checking: Trump is demonstrating how to outsmart an AI" pubblicato su The Guardian


Immaginate di essere il capo di un progetto di machine learning presso una grande azienda di social media, e che vi sia stato chiesto di progettare un sistema che possa rilevare le fake news. Se doveste riuscirci sareste in prima linea per una grassa ricompensa. Se doveste fallire mettereste la democrazia stessa a rischio. Da dove comincereste?

Forse addestrereste la vostra intelligenza artificiale a classificare tramite un sistema di punteggi le notizie in base al loro livello di veridicità. Forse creereste un sistema binario di recensione: falso o non falso, magari con dei livelli di probabilità a corredo. In ogni caso potreste usare il risultato per decidere se e come inserire una notizia nel tuo flusso di informazioni.

Per riuscire a fare questo, l’algoritmo dovrebbe poter identificare delle caratteristiche all’interno degli articoli che in generale li contraddistinguono come falsi. Potrebbero essere idiozie comuni come “perdere 14 libbre in una settimana” o “non riuscirai a crederci!”. In alternativa potrebbe imparare degli euristici basilari, ovvero delle regole semplici ed efficienti come ad esempio: “è stato pubblicato su un giornale autorevole?” che potrebbero essere usate come rapidi controlli di veridicità.

In ogni caso, cosa si intende per “fake news?” Insieme a “post-verità,” sua sorellina, il termine è diventato popolare a partire dal novembre dello scorso anno, come si può vedere dal grafico sottostante. Probabilmente ciò è collegato ad un rilevante evento globale, ma su quale esso sia si può solo speculare.  

 

Definire le “fake news” pone due grossi problemi. Innanzitutto, come per “trolling,” il termine si è corroso con l’uso. Originariamente si riferiva solamente ai siti che pubblicano notizie inventate di sana pianta, poi è diventato un termine polivalente per tutte le notizie che non piacciono o che si cerca di ignorare.

In più, come per “menzogna,” la parola “fake” implica non solo che qualcuno si sbagli, ma anche che sia presente un deliberato tentativo di imbroglio. A meno che non si possa provare questo intento, si sta lanciando un’accusa che è fattualmente e legalmente dubbiosa. Se qualcuno dovesse dire che il bando all’immigrazione di Trump avrebbe prevenuto l’undici settembre, potrebbe o star mentendo, o semplicemente essere malinformato; senza maggiori prove non si può sapere. Ecco perché i giornalisti sono - giustamente - riluttanti ad usare la parola “menzogna.”

Per evitare tutti questi problemi faremmo meglio a parlare di “false” news. Questo ci riporta sulla sicura ed empirica terraferma - gli articoli ci presentano diversi fatti riguardo il mondo, che possono o essere veri, o falsi. In teoria, contando le affermazioni vere e quelle false potremmo calcolare un approssimativa “valutazione di accuratezza.”

Alcune tecnologie per fare fact checking esistono già. ClaimBuster è un progetto australiano che usa tecniche di natural language processing (NLP) per identificare affermazioni  fattuali all’interno di un testo. Non le controllerà automaticamente, ma aiuterà i giornalisti a capire quali siano le affermazioni da controllare.

Esistono anche delle basi di conoscenza che forniscono dati strutturati in risposta ad interrogazioni su precise affermazioni. Wikidata, un progetto della Wikimedia Foundation, ne fornisce gratuitamente a chiunque le voglia usare. Wolfram|Alpha archivia fatti controllati e conoscenze in un grande database, e permette agli utenti di effettuare ricerche con linguaggi normali, come ad esempio: “quanto è grande l’Inghilterra?”

Unendo le capacità di Wolfram|Alpha con quelle di ClaimBuster, ed aggiungendo qualche stringa di codice abbastanza semplice per integrare il tutto, si può scrivere un programma che esegue, limitatamente a fatti consolidati, qualcosa di simile al seguente flusso di lavoro:
 

  • Rileva affermazioni come ad esempio “Mercurio è il quarto pianeta meno distante dal sole.”

  • Sostituisce l’oggetto della frase (Mercurio) con “quale,” ad esempio “Qual è il quarto pianeta meno distante dal sole?”

  • Fornisce la domanda risultante a Wolfram|Alpha

  • Prende il risultato (Marte) e vede se combacia con l’oggetto originale (Mercurio.)

 

Se il nostro compito fosse quello di controllare libri scolastici, questo sistema potrebbe funzionare bene, ma il problema quando lo si applica alle notizie è che esse sono nuove. Per definizione, se un giornalista riporta un nuovo pezzo d’informazione allora non sarà possibile trovarlo in alcun database, per quanto ben curato. Il nostro database dovrebbe praticamente essere onnisciente, o dovremmo avere una squadra di fact-checkers come l’eccellente Full Fact, che controlla ed aggiorna le informazioni su notizie dell’ultima ora in tempo reale.

Ora, una cosa del genere potrebbe funzionare bene nel futuro prossimo. Tanti falsi miti sono stati ripetuti ad nauseam nel corso degli anni passati, e le organizzazioni di fact-checking li hanno sfatati quasi tutti. Se Full Fact avesse preso le informazioni che già possiede, le avesse curate in un formato standard, e le avesse rese disponibili ai programmatori come me (ndt: l’autore dell’articolo) tramite un open API, sarebbe stato veramente rapido scrivere un programma rudimentale ma funzionante per controllare le notizie.

Qual è il problema? Questo approccio potrebbe funzionare per un ristretto numero di casi - falsi miti citati frequentemente che possono essere verificati tramite fonti di informazione affidabili. Funziona bene per affermazioni come “abbiamo investito 10 miliardi nella NHS l’anno scorso.” Ma quando si tratta di eventi attuali, sorge il problema; e con i leader della post-verità, come Trump o Jeremy Corbyn, entriamo in un territorio davvero strano. Per capire cosa intendo, consideriamo due esempi.

 

 

Il primo è il curioso caso del whip di Jeremy Corbyn. Il 19 gennaio, il Guardian riportava che Corbyn avrebbe ordinato ai membri del parlamento dei Laburisti di votare per il progetto di legge del governo che avrebbe approvato l’articolo cinquanta. Gli venne chiesto due volte se avrebbe imposto un ordine di partito, e entrambe le volte rispose affermativamente. Tuttavia nel corso della giornata la sua posizione divenne meno chiara. Il giorno successivo, nel mentre che la confusione riguardo la sua posizione continuava, alcuni blog pro-Corbyn come The Canary o Another Angry Voice scrissero articoli sostenendo che il Guardian avesse “ingannato” i suoi lettori. Thomas Clark, autore dell’ultimo dei due blog citati, accusò i giornalisti di “fabbricare titoli fasulli per danneggiare la leadership di Jeremy Corbyn.” Dopo qualche giorno divenne chiaro che il leader dei Laburisti stava pianificando di imporre un ordine di partito, scatenando dimissioni e ribellioni dei whip laburisti.

Ci sono due modi per interpretare tutto questo. Uno, trovabile in molti forum di sostenitori di Corbyn, è che il Guardian abbia creato una fake news che in seguito sia diventata… non falsa. L’altro, al quale personalmente credo di più, è che i giornalisti del Guardian abbiano correttamente interpretato le dichiarazioni di Corbyn del 19 gennaio, abbiano presumibilmente fatto qualche ricerca con le loro fonti interne al partito, e abbiano scritto un accurato ed importante pezzo di giornalismo.  

Il secondo esempio è il catastrofico “Bando dei musulmani” di Trump, un ordine esecutivo che ha fatto scoppiare proteste in tutto il mondo durante la settimana. La formulazione dell’ordine è così approssimativa a livello legale che alcune parti risultano difficili o addirittura impossibili da interpretare chiaramente, come fa notare Benjamin Wittes. Nel momento in cui scrivo, dei reporter e lo staff della Homeland Security stanno ancora cercando di venir a capo delle sue ramificazioni, sebbene l’amministrazione Trump continui a distribuire “chiarificazioni” ed emendamenti.


Persino il nome, “Bando dei musulmani,” è controverso. Perché se analizzato letteralmente ed isolato da altri fatti, il bando non si applica ad alcuna razza o religione, ma a cittadini di specifiche nazioni. Ovviamente l’ordine nasce in un contesto, ovvero la promessa fatta da Trump di inasprire i controlli sui musulmani, tuttavia Giuliani ci dice che che Trump originariamente avrebbe voluto un vero “Bando dei musulmani,” e invece ha dovuto ordinare un bando riguardante cittadini provenienti da paesi musulmani che non hanno nessun o pochi collegamenti con il terrorismo negli Stati Uniti. Perciò dire che il bando di Trump è un bando sui musulmani è tecnicamente falso, ma dire che non li riguarda lo è ugualmente.

 

 

In entrambi i casi abbiamo una sorta di “notizia quantistica.” Sia per caso che per intento, questi leader generano una caotica nebbia di confusione che lascia gli osservatori alle prese con storie che allo stesso tempo sono sia vere che false. La realtà oggettiva è un’ombra effimera ed inafferrabile, e ciò in cui si crede diventa funzione di colui in cui si crede.

Da qui, le notizie diventano un’accozzaglia di “lui ha detto” e “lei ha detto;” un gioco di bluff dove l’obiettivo principale dei politici non è quello di informare o comunicare, ma quello di danneggiare. Se non ci si può fidare della realtà, allora non ci si può neanche fidare delle persone che la riportano, e così queste diventano sempre più irrilevanti. Il che è, ovviamente, ciò che i politici sperano.

E questo cosa significa per il nostro algoritmo? Seguendo l’idea della fiducia, un semplice euristico potrebbe essere di comporre una lista di giornali e giornalisti degni di fiducia, e restringere le notizie a quelle proveniente da quelle fonti. Questo potrebbe funzionare piuttosto bene, con almeno due estensioni di Google Chrome che utilizzino questa tecnica. Chiaramente non è che organizzazioni come la BBC o la CNN siano infallibili ed imparziali, ma semplicemente investono più risorse e sforzi nella certificazione di autenticità rispetto ad altre come, ad esempio, The Canary. Su grande scala, usare il lavoro di un redattore umano ha (insieme ad altre peculiarità del loro progetto) aiutato Apple News e Snapchat ad evitare largamente il problema delle fake news.

Ovviamente, questo richiede degli accordi riguardo a ciò che si possa definire autorevole, cosa non facile in una società sempre più marcata da una partigianeria estrema. Persino Private Eye si è trovata recentemente inclusa in una lista di “siti di fake news.” Con le agenzie scientifiche americane imbavagliate per ragioni politiche ed un Presidente che spinge forte su una guerra ai media, la conoscenza nel cervello delle persone è diventata più che una semplice funzione dell’affiliazione ad un partito. Nessun ammontare di ragionamento può portare le persone ad imparare i fatti veri e propri, anche se dovessimo riuscire a decidere quali siano. Tutti i fact-checkers al mondo, automatici o umani che siano, non possono risolvere questo problema.

Matteo Utzeri