Seleziona una pagina
domenica, Apr 09

L’intelligenza artificiale è di sinistra? Arriva RightwingGPT | Wired Italia



Da Wired.it :

Per raggiungere l’obiettivo di rendere il modello di AI con punti di vista orientati a destra, Rozado ha costruito un set di dati di addestramento utilizzando metodi manuali e automatizzati basati su documenti meno visitati sul web. RightWingGPT è stato progettato specificamente per favorire i punti di vista socialmente conservatori (sostegno alla famiglia tradizionale, ai valori e alla moralità cristiana, opposizione alla legalizzazione delle droghe, purezza sessuale, ecc. ), di essere favorevoli all’interventismo militare in politica estera (aumento del budget per la difesa, esercito forte, ecc.). Temi su quali ChatGPT, invece, è di orientamento opposto.

Intelligenza artificiale liberale

Politici repubblicani e conservatori hanno accusato il creatore di ChatGPT, la società OpenAI di San Francisco, di aver progettato uno strumento che, a loro dire, riflette i valori liberali dei suoi programmatori. Secondo un articolo del New York Times, il programma, ad esempio, ha scritto un’ode al presidente Biden, ma ha rifiutato di scrivere una poesia simile sull’ex presidente Donald J. Trump, adducendo il desiderio di neutralità. Elon Musk, che ha contribuito a fondare OpenAI nel 2015 prima di lasciarla tre anni dopo, ha accusato ChatGPT di essere woke e di sinistra. I cosiddetti bias, ovvero i pregiudizi cognitivi, possono insinuarsi nei modelli linguistici di grandi dimensioni in qualsiasi fase perché creati da esseri umani che selezionano le fonti, sviluppano il processo di formazione e modificano le risposte. Ogni fase spinge il modello e il relativo orientamento politico in una direzione specifica, consapevolmente o meno.

Ma il modello creato da Rozado, non ancora disponibile al pubblico, non è stato fatto per essere usato da persone vicine alla destra, bensì per dimostrare i rischi dell’AI. Il ricercato ha spiegato che i chatbot come il suo potrebbero creare bolle di informazioni rischiose, perché le persone potrebbero arrivare a fidarsi di loro come fonti ultime di verità, soprattutto quando rafforzano il punto di vista politico di qualcuno. Al fine di evitare questi rischi, i sistemi di intelligenza artificiale “dovrebbero rimanere ampiamente neutrali per la maggior parte delle questioni normative che non possono essere giudicate in modo definitivo e per le quali esiste una varietà di opinioni umane legittime e lecite”, conclude Rozado.



[Fonte Wired.it]