0 11 minuti 4 anni

Dhruv Ghulati, numero uno di Factmata, società da lui fondata che usa l’intelligenza artificiale per individuare contenuti abusivi sul web: “Credo che dovremmo preoccuparci del fatto che le stesse tecnologie utilizzate per vendere prodotti, per la pubblicità, stiano spingendo la produzione di strumenti analoghi ma per scopi politici”

di F. Baraggino e G. Scacciavillani | 2 Novembre 2019

Le fake news sono insidiosissime, ma si possono disinnescare. Sono sfruttate dalla pubblicità, dalle multinazionali e persino dalla politica. Ma come in un film di fantascienza l’intelligenza artificiale ci salverà, perché grazie ai suoi complessi algoritmi saremo capaci di distinguere il vero dal falso. Ne è convinto Dhruv Ghulati, numero uno di Factmata, società da lui fondata insieme a due professori delle università di Sheffield e UCL, che punta a combattere la disinformazione sul web utilizzando l’intelligenza artificiale per individuare contenuti abusivi, hate speech, spam, propaganda e fake news. E in due anni di vita ha già raccolto 1 milione di dollari in seed funding, termine tecnico che indica i cosiddetti finanziamenti delle idee, dando titolo al suo fondatore di essere premiato dalla Peres Heritage Initiative del Forum di Cernobbio The European House – Ambrosetti di quest’anno.

Cosa sono le fake news?
Possono essere molte cose differenti. Ciò che io intendo per fake news è disinformazione. Innanzitutto quella diffusa di proposito per ottenere investimenti pubblicitari o per destabilizzare la popolazione. Ma anche quella diffusa da chi non sa valutarne l’attinenza alla realtà e la condivide solo perché lo hanno fatto altri. Qualcosa che in prima istanza è stato effettivamente detto, ma non è corretto o non rappresenta i fatti in modo corretto.

Che dimensioni ha questo fenomeno e perché è così pericoloso?
Con la disinformazione intenzionale entrano in scena reti malevole (bot networks), attacchi coordinati e mirati al commercio di informazioni sulle reti reali. Mentre nell’ambito della diffusione inconsapevole penso al modo in cui vengono confezionati gli articoli o i tweet per portare il lettore a pensarla in un certo modo su certi temi. Tutti e due questi fenomeni sono pericolosi, la differenza sta nell’intenzionalità. Il perché sono così pericolosi riguarda il fatto che l’informazione determina il modo in cui prendiamo delle decisioni.

Guardando al futuro, cosa dobbiamo temere maggiormente dall’evoluzione della tecnologia?
Credo che dovremmo preoccuparci del fatto che le stesse tecnologie utilizzate per vendere prodotti, per la pubblicità, stiano spingendo la produzione di strumenti analoghi ma per scopi politici. Ad esempio i deepfakes (tecniche per la sintesi dell’immagine umana, basate sull’intelligenza artificiale, ndr) sono stati spinti dall’industria cinematografica per la creazione di nuovi film e forme di intrattenimento. Mi spaventa la loro applicazione alla comunicazione politica, di leader, manager, eccetera.

Sta dicendo che in futuro potremmo non essere in grado di accorgerci che un contenuto manipolato sta entrando nelle nostre menti?
Sì, siamo diventati molto bravi, con la pubblicità in particolare, a capire come le persone pensano e come reagiscono alle informazioni diffuse per vendere prodotti, e ho molta paura di come tutto questo possa essere utilizzato. Per indurci a cambiare il nostro atteggiamento nei confronti dell’immigrazione o dei crimini commessi da stranieri, ad esempio. È molto importante che si cominci a considerarlo un problema strutturale e che iniziamo a cambiare i modelli di business della pubblicità, in particolare disincentivando la diffusione di contenuti informativi di scarsa qualità.

Come funziona la sua soluzione? Cosa consiglia e cosa fa?
Abbiamo messo a punto una tecnologia di intelligenza artificiale che interpreta il linguaggio: c’è un algoritmo che tiene conto di numerosi fattori per segnalarti se un contenuto è sostenuto da tesi motivate o se invece l’argomentazione è sbilanciata o le affermazioni non sono verificate. Abbiamo una mappa di centinaia di potenziali segnali basati puramente sul contenuto e la nostra speranza è di accompagnare l’essere umano nella contestualizzazione di un pezzo di informazione che viene letto velocemente, in modo che capisca se è necessario ragionare di più su quell’argomento, informarsi meglio e stare più in guardia. Vogliamo distribuire questo prodotto sui motori di ricerca, grandi network, newsfeed per cambiare di fatto l’infrastruttura di Internet.

Ma in pratica come fa l’intelligenza artificiale a distinguere cosa è fake e cosa no?
L’intelligenza artificiale oggi non è così smart come l’essere umano. Ma può iniziare a evidenziare o flaggare qualcosa che potrebbe essere ingannevole. Poi sta all’essere umano prendere la decisione finale in modo razionale. L’intelligenza artificiale oggi è sufficientemente avanti nell’analisi linguistica da poter individuare frasi ambigue che potrebbero non essere credibili o argomentazioni che potrebbero essere poco attinenti al vero.

Un campanello che mi dice: “Okkio a leggere ‘sta roba”?
Esatto. Ma puramente basato sul contenuto in sé. Perché ci sono anche altri segnali che vengono dal modo in cui un contenuto è diffuso sul web, come e dove è stato pubblicato. Ma a noi non interessa fare un processo a chi pubblica un fake, bensì valutare quello che viene pubblicato.

È davvero una questione di tecnologia o di chi paga?
C’è un problema di modello di business della rete. In un mondo guidato dalla pubblicità, chi scrive contenuti per il web non ha incentivi a fare buona informazione. Se si vendono sottoscrizioni è diverso, ma se si vende pubblicità l’unico incentivo che hanno è guadagnare click, pagine viste. Quindi m’interessa molto capire se i governi sono interessati a pagare, quindi a incentivarli, i giornalisti che scrivano contenuti di qualità. Anche i pubblicitari, dal canto loro, dovrebbero pagare di più in un contesto dove il modello di business prevede la scrittura di contenuti di buona qualità. Questo è il perno su cui dovremmo lavorare per pulire il web utilizzando il mercato.

Come possono i lettori essere protagonisti in questo processo?
Le persone hanno la responsabilità di lavorare in comunità e segnalarsi reciprocamente le fake news. Quando uno dei nostri amici condivide informazioni sospette bisogna incoraggiare il dibattito sul tema. Ho fiducia in un mondo e in persone che non vogliono leggere spazzature o diffondere hate speech. Se costruissimo un sistema che dà buona qualità ai contenuti e la possibilità di confrontarsi, sono sicuro che nascerebbe un nuovo ciclo. Alla gente non piace l’informazione come viene fatta ora, quindi perché non provare una cosa diversa?

Come giustifica il costo della vostra applicazione?
Abbiamo due prodotti principali. Uno strumento di moderazione che rimuove la propaganda e gli hate speech dai network online: monitoriamo tutti i contenuti e ti indichiamo quelli che potrebbero crearti problemi, senza costringerti ad assumere tutto il personale che servirebbe per analizzare singolarmente ogni contenuto. L’altro strumento, invece, individua forme di comunicazione ingannevole basate su indiscrezioni che si diffondono online, una soluzione che offriamo ad agenzie di intelligence e media company. Il vantaggio? Facciamo risparmiare ore ed ore di lavoro umano tracciando l’origine di questi articoli: sono realistici o non lo sono? È così che si giustifica la nostra soluzione.

Che tipo di domanda avete?
Quest’anno abbiamo avuto un investimento da AdBlocker, che è un’importante estensione per browser che blocca la pubblicità durante la navigazione. Il nostro obiettivo è mettere le nostre bandierine, i nostri alert, su Ad blocker solution e altri prodotti come questo. Così chiunque stia guardando il contenuto potrà verificare il contesto da cui proviene: media company, governi, grandi marchi, che monitorano e indirizzano l’informazione sul proprio conto, un punto dolente di questi tempi. Il mercato si sta sviluppando solo ora. Dopo due o tre anni in cui c’è stato spazio solo per la paura del fenomeno, ora stanno iniziando ad arrivare i budget e le politiche per affrontare il problema. Per noi e per la tecnologia che abbiamo sviluppato è il momento giusto. Ci aspettiamo che l’interesse e le richieste salgano, specie quando si avvicinano le elezioni. Ma in generale man mano che le persone comprendono il problema e le possibili conseguenze.

Ha letto 1984?
Naturalmente, e considero importante quanto scritto in proposito da Karl Popper. Dice che dovremmo essere intolleranti nei confronti dell’intolleranza. Ed è un’idea molto interessante da recuperare all’attuale dibattito sulla libertà di espressione online. Pensiamo che dovremmo regolamentare le fake news, la cattiva informazione, ma crediamo anche di avere diritto a dire qualsiasi cosa vogliamo. Credo si tratterà di una svolta il giorno in cui su internet ci renderemo conto che abbiamo bisogno di mostrare i nostri profili e appiccicarli a quello che diciamo ed essere pronti a pagarne le conseguenze. Avremo capito che la disinformazione non è solo libertà di parola, ma può costare vite e danni alla salute pubblica. Dovremmo sentirci sicuri di poter dire quello che vogliamo, ma prendendocene la responsabilità. Anche di essere indagati per questo. Non spingo per la regolamentazione ad ogni costo, ma per capire cosa sta succedendo e come certe narrative si diffondono. Per esempio il movimento anti vaccini che fondamentalmente è venuto fuori dal nulla ma diffonde qualunque cosa. Voglio costruire una tecnologia per capire da dove vengono queste informazioni. I governi non possono restare indifferenti di fronte a questi fenomeni e alla necessità di capire cosa o chi li innesca.

Sorgente: Fake News, l’inventore della app che le combatte: “Così cambieremo l’infrastruttura di Internet” – Il Fatto Quotidiano

Please follow and like us:
0
fb-share-icon0
Tweet 20
Pin Share20