di CHIARA VENUTO
A cosa servono le Intelligenze artificiali. L’impiego di lavoratori “sottopagati e sovraccarichi di lavoro” per allenarle. Il loro uso per strumenti tecnologici da mandare alle forze armate israeliane.
Sono i temi trattati dagli utenti di un gruppo creato da Google per parlare della chatbot Bard. Tra i membri della conversazione, anche dipendenti della multinazionale, che a loro volta hanno espresso dubbi su utilità e funzionalità dell’Intelligenza artificiale. Lo riporta Bloomberg in un articolo che segue un altro pezzo risalente ad aprile.
Il gruppo, aperto a inizio anno sulla piattaforma di messaggistica Discord come spazio per chi lavora nell’azienda di Mountain View, da quest’estate accetta anche utenti che usano l’IA con una certa frequenza. Per accedervi bisogna avere ricevuto un link di invito e in sua assenza non è possibile leggere la conversazione.
dubbi e segreti
L’obiettivo della comunità è quello di riflettere collettivamente su problemi, funzionalità e segreti di Bard, ma nel corso del tempo si è cominciato a parlare anche di altro. La presenza di impiegati – product manager, progettisti e ingegneri – ha fornito agli esterni una prospettiva unica su umore e dubbi all’interno del colosso statunitense.
La sfida più grande per chi lavora a Bard, spiega sul forum Cathy Pearl, responsabile dell’esperienza utente, è capire per cosa siano “veramente utili i Large Language Model”, ovvero le Intelligenze artificiali che usano reti neurali profonde per apprendere da enormi quantità di dati, e “come fare davvero la differenza” attraverso di essi. Nonostante negli ultimi mesi siano state integrate diverse funzioni alla chatbot, infatti, rimangono molti dubbi su quanto possa essere d’aiuto alle persone che la usano. Soprattutto a causa dei suoi errori.
convincenti bugie
Anche per questo Dominik Rabiej, senior product manager di Bard, secondo quanto pubblicato da Bloomberg ritiene la cosa migliore da fare sia non fidarsi “dei risultati dei LLM, a meno che non possa verificarli in modo indipendente”. Molti continuano ancora a lamentarsi delle bugie (talora convincenti) del prodotto, ed è significativo che anche un dipendente dica di non fidarsi.
È certo, però, che nonostante le questioni irrisolte, l’IA di Google non sarà accantonata. La concorrenza di OpenAI è spietata e può mettere a rischio la posizione del motore di ricerca più usato al mondo. Le chatbot sembrano infatti essere destinate a diventare sempre più un modo per informarsi.
La pressione del dover stare al passo, però, colpisce i diritti dei lavoratori. È quanto avvertono alcuni utenti indipendenti sul gruppo, dove a luglio è stato chiesto perché Google si affidi ad “appaltatori sottopagati e sovraccarichi di lavoro” per addestrare Bard. La risposta è arrivata, anche se non è incoraggiante. “Il perfezionamento umano è fondamentale affinché Bard sia un prodotto per tutti”, ha risposto in chat Tris Warkentin, direttore della gestione del prodotto Bard.
politica e religione
Particolarmente attuale un’altra tematica toccata in chat. È il Progetto Nimbus, di cui Chiara Cruciati aveva scritto su il manifesto a settembre dello scorso anno. Un utente ha chiesto a Google delucidazioni sul contratto – siglato insieme ad Amazon.com – che lo vede impegnato a fornire strumenti di Intelligenza artificiale alle forze armate israeliane. La questione etica riguarda uno dei temi che stanno più a cuore anche al fondatore di ChatGPT, Sam Altman: i rischi dell’IA e il suo possibile utilizzo per scopi letali.
La risposta di Google, in questo caso, è stata brutale. I moderatori hanno detto di non scrivere di “politica, religione o altri argomenti sensibili” in chat, mentre la persona che ha fatto la domanda è stata cacciata fuori dal gruppo.