Seguiteci su Telegram https://t.me/Nuovaresistenza on Telegram
22 June 2024
0 3 minuti 1 anno

Il rischio di ChatGPT

(Immagine da Wikipedia)

Qualcuno chiederebbe a un attore di talento non solo di recitare e parlare come un abile chirurgo in modo convincente, ma poi permettergli di prendere un bisturi e operarlo? Sembrerebbe stupido, no? Bene, questo è esattamente ciò che molti stanno facendo con ChatGPT.

Di Ricardo Baeza Weinmann

Penso che il principale rischio a breve termine di questa intelligenza artificiale (AI) non sia che sostituirà gran parte del lavoro delle persone, ma che le persone saranno convinte che fa cose che non fa. Perché molti, se non la maggior parte, lo stanno usando come se fosse una sorta di Google, un intermediario tra l’ignoranza personale e l’infinita offerta di conoscenza sul web, il che è un errore madornale.

L’obiettivo di ChatGPT è ed è sempre stato quello di simulare un dialogo umano che sembri reale. Non ha mai preteso di “dire la verità”, ma piuttosto di “dire cose che suonano credibili”, il che è ben diverso. Ecco perché non è in conflitto con la scivolata nella disinformazione, o con l’inventare apertamente i fatti, se lo aiuta ad apparire più realistico nel suo discorso.

Un utente che sa molto sull’argomento in “discussione” con ChatGPT sarà in grado di valutare se tutto ciò che dice è vero oppure no. Ad esempio, un programmatore richiedendo righe di codice potrà verificare rapidamente se funzionano o meno; uno specialista potrà vedere se si tratta di una fabbricazione di date, articoli o autori; un vero fan sarà in grado di rilevare inesattezze sulla vita del suo artista preferito. Ma come lo valuterebbe un utente che non sa molto sull’argomento? Come farebbero a differenziare ciò che è vero da ciò che non lo è in tutto ciò che dice?

È qui che penso che risieda il pericolo più grande di questo tipo di IA, che inizi a essere utilizzata in modo massiccio da persone che non sono in grado di valutare l’accuratezza del suo contenuto. Che iniziano a credere a tutto senza alcun tipo di discussione e iniziano persino a prendere decisioni pertinenti sulla base di tali informazioni.

Gli strumenti non sono mai buoni o cattivi di per sé, a meno che non sia coinvolta l’intenzionalità e l’abilità dell’utilizzatore. Una sgorbia nelle mani di un grande falegname può creare un’opera d’arte, mentre nelle mani di un ignorante inesperto può creare scompiglio e persino ferire gravemente qualcuno nel processo (e nelle mani di un criminale può diventare un’arma da taglio con cui uccidere qualcuno). Speriamo di non commettere questo errore con le IA, poiché le conseguenze di un loro uso acritico potrebbero essere altamente incerte e persino pericolose. Il che, ovviamente, non è colpa dell’IA ma dell’inettitudine o della cattiveria dell’utente.

Sorgente: Il rischio di ChatGPT


Scopri di più da NUOVA RESISTENZA antifa'

Abbonati per ricevere gli ultimi articoli via e-mail.

Seguiteci su Telegram https://t.me/NuovaresistenzaBot