Seleziona una pagina
martedì, Mag 09

ChatGPT, chi sono i lavoratori sottopagati che lo fanno funzionare | Wired Italia



Da Wired.it :

Dietro al funzionamento ChtGpt, e degli altri chatbot a intelligenza artificiale, si cela un esercito invisibile di lavoratori a contratto, che si occupano di etichettare i dati a cui questi software attingono, per generare immagini realistiche e testi di senso compiuto. Sono allenatori dell’intelligenza artificiale, personale sottopagato e spesso reclutato nei paesi a basso reddito, senza il cui lavoro non esisterebbero i modelli linguistici alla base di queste nuove tecnologie.

L’etichettatura dei dati, o annotazione dei dati, è il processo precedente allo sviluppo di un modello di machine learning, compiuto da personale umano. Consiste nell’identificazione di dati non ancora elaborati, come immagini o file di testo, tramite l’aggiunta di una o più etichette che ne chiariscano contesto e significato, così da permettere alle macchine di fare previsioni accurate e identificarli da sole quando devono rispondere a una richiesta degli utenti.

Per farlo, gli allenatori identificano ed etichettano manualmente centinaia di migliaia di file, in un lavoro estraniante e ripetitivo, senza il quale i chatbot non potrebbero funzionare. Tuttavia, nonostante il loro compito sia essenziale per le grandi compagnie del settore come OpenAi o Alphabet, questi lavoratori non vengono assunti ma impiegati a ore senza nessuna tutela, assicurazione, ferie o altri benefit corrisposti ai normali dipendenti.

Ed oltre a non avere alcun diritto riservato al personale assunto, ricevono anche una paga minima. Come riporta Nbc News, negli Stati Uniti gli allenatori di intelligenza artificiale ricevono una media di circa 15 dollari all’ora, contro una media nazionale di circa 30 dollari. Ma se ci si sposta nei paesi non occidentali il salario crolla drasticamente.

La stessa OpenAi, che ha sviluppato ChatGpt, ha fatto affidamento su centinaia di lavoratori del Kenya pagati anche un minimo di 2 euro all’ora, per etichettare contenuti violenti ed evitare che venissero utilizzati dal suo chatbot, come descrizioni di omicidi, torture o stupri.

Ovviamente, OpenAi non si ritiene responsabile delle condizioni di questi lavoratori, perché non è lei a impiegarli in modo diretto, appaltando il compito ad aziende terze come la statunitense Sama, più volte citata in giudizio e accusata di sfruttamento, come si legge su Tech Crunch.



[Fonte Wired.it]