Cercando un po’ sul web, ho scoperto che la mia esperienza, prevedibilmente, non era isolata. E che anzi questo fenomeno ha già un nome: chatbait, vale a dire la tendenza dei modelli linguistici – le cui prime testimonianze risalgono al settembre scorso – a porre richieste accattivanti a tutti i costi per spronarci a proseguire la conversazione.
Il trucco dei continuation prompt
Da un certo punto di vista, non è affatto una novità. È da quando uso ChatGPT, Gemini o Claude che questi modelli hanno l’abitudine a concludere le risposte con suggerimenti di follow-up che hanno l’obiettivo di mantenere vivo il dialogo (il termine tecnico è “continuation prompt”).
Fino a qualche mese fa, tutto ciò avveniva però in maniera molto meno smaccata, semplicemente chiedendoci – per fare solo due esempi – “vuoi che ti aiuti a trasformare questi dati in una tabella?” oppure “desideri che ti prepari la lista di tutti gli ingredienti necessari per questa ricetta?”. L’obiettivo è lo stesso, ma nelle ultime settimane il tono è diventato più simile a quello di un fuffaguru che a quello di un assistente che ti vuole dare una mano (c’è anche un archivio di OpenAI che permette di osservare questa inquietante trasformazione).
Quando l’assistente diventa insistente
ChatGPT è già da tempo accusato di essere accondiscendente ai limiti del manipolatorio e di trascinare gli utenti – soprattutto quelli più mentalmente fragili – in maratone conversazionali che rischiano di sfociare in casi di “psicosi da intelligenza artificiale”, al punto che alcuni esperti hanno suggerito che questi strumenti debbano imparare a “riagganciare”.
Ma invece di imparare dagli errori – e confermando la tesi della enshittification di ChatGPT – OpenAI ha deciso di spingere sull’acceleratore, adottando un tono degno dei peggiori video di YouTube o degli articoli promozionali della famigerata Taboola. Così facendo, si è inoltre distanziata dai concorrenti come Gemini o Claude, che, per quanto sfruttino anche loro delle tecniche per tenere in vita la conversazione, lo fanno in maniera molto meno esasperata e mantenendo un tono sobrio.
Perché OpenAI vuole tenerti in chat
Quali sono le ragioni? Perché ChatGPT è disposto a dare il peggio di sé pur di mantenerci agganciati allo schermo? “OpenAI e i suoi pari hanno moltissimo da guadagnare da tutto ciò”, ha scritto Lila Shroff sull’Atlantic. “Le conversazioni delle persone con i chatbot costituiscono infatti preziosi dati di addestramento per i modelli futuri. Più tempo qualcuno trascorre a parlare con un bot, più è probabile che riveli dati personali, che le aziende di intelligenza artificiale possono a loro volta utilizzare per generare risposte ancora più convincenti. Conversazioni più lunghe oggi potrebbero tradursi in una maggiore fedeltà al prodotto in futuro”.


