Una società di energia solare ha citato in giudizio Google per l’intelligenza artificiale del suo motore di ricerca: ha inventato che fossero dei truffatori

  • Le “diffamazioni” di AI Overviews potrebbero finire per mettere Google sul banco degli imputati
  • Il caso è stato appena deferito a un tribunale federale degli Stati Uniti

Il motore di ricerca Google non è più solo un motore di ricerca. Da quando Google ha iniziato a integrare la funzione “AI Overviews”, è anche un chatbot con intelligenza artificiale che risponde alle domande degli utenti senza che questi debbano cliccare su alcun link. Il problema è che la tecnologia alla base, i grandi modelli linguistici, funzionano in modo probabilistico, quindi tendono a inventare la risposta quando non sono sicuri di come rispondere.

Una bugia credibile

Questa volta, una risposta inventata da AI Overviews potrebbe finire per mettere Google sul banco degli imputati. La querelante è Wolf River Electric, un’azienda di energia solare del Minnesota. E l’origine della controversia è, vale la pena ribadirlo, una causa che non è mai esistita.

Secondo gli avvocati dell’azienda energetica, la ricerca dei termini “querela contro Wolf River Electric” su Google ha fatto sì che l’IA rispondesse con diffamazioni. Citano un caso in cui AI Overviews ha risposto che Wolf River Electric era stata citata in giudizio dal procuratore generale del Minnesota per “pratiche di vendita ingannevoli”, come mentire ai clienti su quanto avrebbero risparmiato e ingannare i proprietari per far loro firmare contratti con tariffe nascoste.

L’IA ha presentato il caso con totale sicurezza, coinvolgendo quattro dirigenti dell’azienda per nome: Justin Nielsen, Vladimir Marchenko, Luka Bozek e Jonathan Latcham, arrivando a mostrare una foto di Nielsen accanto alle false accuse. A sostegno delle sue affermazioni, l’IA ha citato quattro link: tre articoli di cronaca e un comunicato del procuratore generale. Tuttavia, nessuno dei link menzionava una causa contro Wolf River Electric.

Non è la prima volta

Questo tipo di errore è noto come “allucinazione” ed è molto comune nei modelli linguistici per il modo in cui costruiscono la loro risposta prevedendo le parole successive, a volte trascinando l’errore iniziale fino a trasformarlo in una bugia credibile con ogni tipo di ramificazione inventata, come nel gioco del telefono senza fili.

Quando Google ha iniziato a integrare AI Overview nel motore di ricerca, ha dovuto rimuoverlo da alcune ricerche, in particolare quelle relative a ricette e nutrizione, perché arrivava a consigliare di aggiungere la colla alla pizza o di mangiare un sasso al giorno per mantenersi in salute.

Una risposta per domanda

Wolf River Electric afferma che, a causa di ciò che hanno letto nelle AI Overview, diversi clienti hanno annullato i loro contratti, per un valore fino a 150.000 dollari. Il problema è che le risposte delle AI Overview sono personalizzate: vengono dedotte al momento, quindi possono variare da una consultazione all’altra.

Questo non preoccupa gli avvocati di Wolf River Electric perché sanno che può succedere di nuovo. “Questa causa non riguarda solo la difesa della reputazione della nostra azienda, ma anche la difesa dell’equità, della verità e della responsabilità nell’era dell’intelligenza artificiale”, dice Nicholas Kasprowicz, consulente legale dell’azienda.

Davide contro Golia

Il caso è stato presentato a marzo in un tribunale statale ed è appena stato deferito a un tribunale federale degli Stati Uniti. Potrebbe finire per creare un precedente giurisprudenziale sulla responsabilità di un’azienda tecnologica per la generazione e la diffusione di disinformazione da parte della sua IA. La risposta a questa domanda potrebbe segnare una svolta per le aziende di IA, che da tempo cercano di eludere la responsabilità per i risultati dei loro modelli linguistici.

Google, in sua difesa, ha definito l’incidente un incidente innocuo. “La stragrande maggioranza delle nostre AI Overviews sono accurate e utili, ma come con qualsiasi nuova tecnologia, possono verificarsi degli errori”, ha spiegato un portavoce dell’azienda. Google afferma di aver agito rapidamente per risolvere il problema non appena ne è venuta a conoscenza, in linea con i suoi recenti sforzi per consentire agli utenti di correggere gli errori dell’IA.