Sei su Linkedin, o su un altro social. Un utente ha sollevato una critica pubblica su un tuo lavoro, o una tua opinione. Devi ribattere, perché è così che funziona l’urgenza dell’interazione sui social. La situazione è scomoda, le parole giuste non ti vengono in mente, e alla fine cedi ad aprire il tuo tool di chat AI di fiducia e descrivere la situazione, chiedendo la formulazione di una risposta efficace. L’AI restituisce tre paragrafi misurati, ragionevoli, persino eleganti. Li leggi, pensi “sì, più o meno è quello che volevo dire io”, e li condividi.

Qualche tempo dopo lo stesso collega risponde alle tue argomentazioni con un’obiezione che non avevi previsto – anche perché quelle argomentazioni, in fondo, non erano tue, non le avevi percorse davvero (e magari, chissà, anche lui si è affidato allo stesso processo di delega all’AI). Eppure ora sei lì a difenderle, a cercare di ricordare perché le avevi scritte, a chiedere di nuovo all’AI come rispondere a una posizione che l’AI stessa aveva preso al posto tuo.

Può succedere ovviamente anche per le mail che ci facciamo compilare da ChatGPT, Gemini o Claude e che noi rileggiamo in maniera distratta, e che ci conducono a sostenere posizioni che sono vagamente, ma non esattamente, riconducibili a noi – anzi, che in qualche modo ci sembrano più brillanti di quello che avremmo potuto partorire noi, in autonomia. Può succedere anche e soprattutto per lavori più articolati, ad esempio per paper che scriviamo secondo i precetti del “distant writing” così come formulati da Luciano Floridi, e che non abbiamo il rigore di ricontrollare precisamente.

Scollamento tra pensiero e proiezione digitale

Questo tipo di cortocircuito intellettuale è una delle declinazioni possibili della Disentità, quello scollamento tra la versione reale di sé e quella proiettata online tramite l’uso di un’AI per modificare o rivedere più o meno profondamente le proprie posizioni. Un fenomeno che riguarda qualcosa di più sottile della pigrizia o del ghostwriting macchinico, perché tocca la progressiva difficoltà di distinguere tra ciò in cui si crede e ciò che si è fatto generare a un’entità terza.

La minaccia intellettuale è seria, ma a suo modo in continuità con gli sviluppi recenti della tecnologia: laddove gli algoritmi già minacciavano di cambiare i nostri comportamenti in maniera indiretta, tramite l’influenza che esercitano su ciò che leggiamo, ascoltiamo e vediamo, oggi la mutazione è più direttamente imputabile alla nostra volontà, o più spesso alla nostra incompetenza in un settore, o ancora alla pigrizia. Dopo aver scoperto che “Google che ci rende più stupidi” da Nicholas Carr, e di rischiare l’atrofia cognitiva a causa di un uso rudimentale e soluzionistico dell’AI, arriva dunque un’evoluzione che pone un’ombra più sottile e quindi più difficilmente rilevabile di quella che Andrea Colamedici definirebbe l’era del “Prompt thinking”.

Fonte