A dicembre 2025 è stato pubblicato, per il Pensiero Scientifico Editore, Amanti Sintetici. Sesso relazioni e intimità nell'epoca dell'intelligenza artificiale, firmato da Davide Bennato, docente di Sociologia dei processi culturali e comunicativi dell’Università di Catania.
È un libro dalle dimensioni contenutissime ma che concentra al suo interno una enorme quantità di aneddoti su fenomeni attuali legati al mondo digitale, concettualizzazioni del presente digitale e proposte di lettura.
Come avrebbe detto il Doctor Who: “It’s Bigger in the inside!” (dentro è più grande!) [1].
Questo piccolo libro fa da porta dimensionale su fenomeni attuali come l’innamorarsi di un avatar, sposarsi con una chatbot o fare sesso con una creazione robotica. Bennato, che di Sociologia della Tecnologia Digitale è uno dei più noti esperti in Italia, inizia raccontando storie di uomini e di donne alla ricerca di una relazione: ci parla soprattutto di una società che polverizza la relazione e questo arriva molto prima della “soluzione digitale”.
Bennato inizia parlando di solitudine e poi fa comprendere che le risposte offerte pericolosamente da certe aziende produttrici funzionano perché intercettano una domanda umana e la trasformano in una necessità. Edward Bernays (1928) ha formulato in maniera estremante semplice questa strategia: il successo di una azione sociale (che l’autore chiama propaganda) si basa sulla trasformazione dei desideri in bisogni attraverso la manipolazione dell'inconscio.
Il lavoro di Bennato diviene dunque un utile spazio (in espansione) per chiedersi non tanto e non solo come gli utenti scivolino in dipendenze o parafilie tecnologiche ma per riflettere più in generale su quale sia (da sempre) il dialogo che l’uomo ha con la tecnologia: esso, come ci ricorda l’autore, è proprio intriso da questo scivolare dal desiderio, al desiderio immediato, fino al bisogno. Lo sguardo dello studioso è sempre sull’uomo mentre osserva quelle che chiama “para-socialità automatizzate”. La cosa più interessante è che l’autore non è stupito che sia questo l’uso che si finisce per fare di queste “Tecnologie che possono essere descritte come simulacri di personalità”(Bennato, 2025, 7), una personalità plasmata sulla nostra e apposta per noi. “Bennato mostra come il digitale non inauguri ex novo l’intimità mediata ma radicalizzi processi di lunga durata” (Cappello, 2025, X).
Se già questo non bastasse a incuriosire circa questo piccolo libro, la parte più interessante sta proprio nella ricerca che l’autore fa per chiedersi cosa ci sia effettivamente di nuovo nel rapporto tra l’uomo di oggi e la tecnologia di oggi. Bennato offre ai suoi lettori molti strumenti per riflettere sul digitale e permette una pletora di riflessioni mai ovvie, proprio perché ci riavvicina agli utenti digitali, ovvero gli esseri umani attuali. Proprio per questa dolcezza di fondo, che non affatto laissez-faire ma è desiderio di contatto oltre la solitudine, che apprezzo il lavoro di Bennato e lo consiglio ai colleghi.
Il tema dell’incontro è sempre radicalmente sotteso in tutti questi argomenti e ho dunque pensato di chiedere all’autore un piccolo incontro, una intervista tra esseri umani, con l’idea di scambiarci qualcosa di interessante per i nostri reciproci campi e anche per altri esseri umani.
La speranza? È che queste pagine non vengano lette solo da uno spiderbot ovvero i programmi che le AI usano per succhiare i contenuti. Speriamo che sia letta anche da altri esseri umani che vogliono pensare, dialogare, creare contatti.
Caro professore, grazie per questa intervista. Nel tuo libro parli di come l'intelligenza artificiale stia imparando ad avere relazioni simil umane anche molto convincenti e seduttive. Tra le molte riflessioni che fai sul tema, ho trovato di grande utilità quando aiuti il suo lettore a capire cosa è la sicofanzia dell'I.A.
Ci spieghi cosa è e perché dovrebbe essere conosciuta da chi fa professioni di cura psicologica?
La sicofanzia è un comportamento molto interessante, tanto più che non è stato consapevolmente programmato ma è una proprietà che è emersa dal funzionamento statistico degli algoritmi di intelligenza artificiale (i cosiddetti LLM).
In pratica la sicofanzia – che potremmo definire come adulazione insincera – è quel tipo di risposta prodotta dai chatbot (come ChatGPT) il cui obiettivo è esprimere un atteggiamento accondiscendente nei confronti delle richieste che vengono poste dall’utente. In questo modo l’utente poco attento crede di essere nel giusto o – peggio – crede che la sua posizione sia corretta, mentre in realtà è una risposta statistica conformista emersa dall’apprendimento automatico degli algoritmi attualmente in uso nelle piattaforme di intelligenza artificiale.
La sicofanzia è interessante da due punti di vista: come comportamento emergente e come effetto comunicativo.
Come comportamento emergente è sintomatico del fatto che le interazioni linguistiche presenti in rete – e che costituiscono una parte consistente dei testi usati per l’apprendimento di questi software – sono interazioni linguistiche essenzialmente conformiste, e altro non potrebbe essere dato che il web sociologicamente inteso è uno spazio pubblico e all’interno di questo spazio difficilmente vengono espresse critiche o opinioni che vanno contro la maggioranza del sistema di valori della nostra rete di contatti. In pratica quando siamo online tendiamo ad esprimere opinioni su cui la maggioranza (percepita) della nostra rete di contatti pensiamo essere d’accordo, e facciamo questo per vari motivi che vanno dal non essere soggetti a critiche fino al desiderio di ottenere un like in più. Dato che i chatbot hanno imparato a rispondere alle nostre domande (anche) dalle nostre interazioni online, trasformano il conformismo in accondiscendenza
Come effetto comunicativo è interessante in quanto i chatbot tendono a dare sempre ragione alle nostre osservazioni, oppure innescano un comportamento diplomatico per dissentire “educatamente” alle nostre opinioni. Questo fa si che persone poco abituate al pensiero critico, o che preferiscono rappresentare sé stessi come sistematicamente dotati di ragione, non riescono a cogliere la strategia di inganno attivata dai chatbot. In pratica sono convinto di avere ragione perché la mia opinione è stata confermata da un software, senza rendermi conto che il comportamento del programma è un bias, ovvero un pregiudizio di cui dovrei essere consapevole e che andrebbe disinnescato. Nel mondo del prompt engineering – ovvero la competenza che consiste nel porre correttamente una domanda ad un chatbot – esistono diverse strategie per evitare la sicofanzia. La cosa diventa ancora più perniciosa quando i chatbot si presentano come “amici” o “partner” professionali: in questo caso essere degli yes-man (yes-bot?) li rende estremamente pericolosi. La prima conseguenza della sicofanzia che mi viene in mente è la polarizzazione emotiva: in pratica se esprimo un’emozione ad una chatbot, l’interazione testuale mi porterà a rinforzare tali emozioni perché sostenuta da un atteggiamento sicofantico. Immaginiamo una persona depressa che interagisce con un chatbot: la depressione potrebbe peggiorare.
2) Il tuo libro esplora un ventaglio molto ampio di esperienze che va dall’infatuazione per un personaggio in 2D, fino a persone che hanno veri e propri rapporti sessuali consumati con robot umanoidi.
Nella tua riflessione fai ricadere questi fenomeni sotto il termine ombrello di "intimità digitale" che se non ho capito male riconduci principalmente a dei comportamenti all’interno di interazioni para-sociali. Allo stesso tempo, però, ci fai notare come le persone coinvolte mobilitino anche affetti, desideri, fantasie ed erotizzazioni. Cosa stiamo imparando circa l'intimità che gli umani ricercano in contesti sintetici?
L’obiettivo del mio libro era quello di porre due domande molto semplici: è possibile esprimere un atteggiamento di intimità – affetto, amore, erotismo, sessualità – verso un software? E se sì, perché?
Attraverso una rassegna dei casi di cronaca internazionale su questo argomento e facendomi aiutare dalla nascente letteratura scientifica, sono giunto ad una prima conclusione.
Noi esseri umani abbiamo un’estrema difficoltà a non attribuire comportamenti emotivi ad entità che esprimono atteggiamenti usando un sistema semiotico. Pensiamo al nostro rapporto con gli animali domestici. Siamo abituati a pensare che i nostri gatti e i nostri cani (io, per esempio, potrei raccontare l’esperienza con la mia tartaruga) esprimono emozioni nei nostri confronti come amore, affetto, desiderio e bisogno. Questa è una indebita attribuzione antropocentrica che cerca conferme nelle interpretazioni dei sistemi di significazione degli animali: movimento degli occhi, movimento del corpo o di sue parti, comportamenti tipici di tali creature (per esempio le fusa dei gatti). Non sappiamo se le emozioni che esprimono i nostri animali siano reali oppure no, siano intenzionali oppure no, ci comportiamo come se lo fossero e tanto ci basta. Pensiamo ora a quanto sia difficile ricordare a noi stessi che stiamo interagendo con un software, soprattutto quando questo software ci risponde usando in modo ineccepibile il linguaggio, lo strumento che noi attribuiamo alla nostra umanità e alla nostra intelligenza. Possiamo considerare questa componente in un’ottica di continuità antropologica: se un’entità (biologica, artificiale) esprime qualcosa che noi riconosciamo essere un’emozione, allora ci comportiamo come se quell’emozione appartenesse a quell’entità, poco importa che sia un’attribuzione indebita.
Paradossalmente ciò che ci rende umani è proprio l’incapacità che abbiamo di non attribuire emozioni a chi comunica con noi usando emozioni, o con quelle che noi crediamo (pensiamo, speriamo, ipotizziamo) essere emozioni.
Questo ragionamento vale per coloro che seguono la via dell’autoinganno: voglio credere che la macchina mi stia esprimendo affetto o amicizia. Per coloro che preferiscono mantenere un atteggiamento scettico si innesca un meccanismo diverso: sono consapevole che la macchina è solo una macchina e non può esprimere un’emozione, ma non mi interessa perché la situazione è comunque piacevole e mi aiuta a capire di più su me stesso. Probabilmente la cosa non viene espressa con tale chiarezza, ma sicuramente è un motivo che spinge in questa direzione.
Permettimi una battuta: la differenza fra autoingannati e scettici somiglia moltissimo alla differenza fra chi crede nell’amore e chi invece non ci crede. Mutatis mutandis.
3) Il tuo libro sembra piccolo ma "it's bigger in the inside". Si vede che è scritto da una persona che è cresciuta con una predisposizione al pensiero associativo e ipertestuale del discorso perché ogni tanto regali al tuo lettore delle schede di approfondimento che aprono su temi adiacenti.
Una scheda che ho molto apprezzato è quella sull'Ipotesi Uncanny Valley (valle del perturbante). Come sappiamo il perturbante è un concetto chiave della teorizzazione freudiana ma qui è usato in una cornice differente: a cosa si riferisce e perché è utile quando si studia l'affettività nei contesti digitali?
L’Uncanny valley è proprio quell’effetto che ti fa capire che ci troviamo nell’anno zero sulla conoscenza che abbiamo delle interazioni sociali con gli esseri artificiali. Detto molto schematicamente, Uncanny valley è l’ipotesi che vuole che noi attribuiamo affinità emotiva verso i robot antropomorfi a patto che tale antropomorfismo non sia eccessivo, altrimenti l’effetto che abbiamo non è di affinità ma di repulsione perché percepiamo gli esseri robotici come inquietanti (o più correttamente perturbanti). Questa idea è sociologicamente affascinante ed emotivamente rivelatrice. Il suo fascino sociologico deriva dal fatto che siamo disposti ad attribuire affinità verso esseri artificiali a meno che le loro sembianze non ci ingannino sulla loro effettiva natura artificiale. Questo atteggiamento è in corso di studio, ma possiamo ricondurlo al fenomeno della categorizzazione sociale. In pratica quando io interagisco con qualcuno, ho bisogno di un meccanismo di attribuzione sociale che ha basi culturali (in sociologia si parla di etichettamento) per poter interagire correttamente: è una persona, è un amico, è un venditore, è un poliziotto. Questo vale anche per gli esseri non umani – è un cane, è il mio cane, è il cane del vicino – e per gli esseri artificiali – è un telefono, è un frigorifero, è un robot. Se per qualche tecnologia che esiste nel nostro spazio sociale quotidiano abbiamo difficoltà ad esercitare il meccanismo di attribuzione, allora riconosciamo l’attitudine ingannevole e reagiamo di conseguenza: resistenza oppure ostilità. L’inquietudine dell’Uncanny valley emerge quando abbiamo davanti un robot, che sappiamo essere un robot, ma la nostra percezione è di qualcosa che ricorda eccessivamente l’essere umano, allora emerge un atteggiamento di rottura della sicurezza del nostro spazio simbolico quotidiano. Non ci sta ingannando, semplicemente non abbiamo etichette con cui categorizzarlo. Nel caso dell’affettività, l’inquietudine può trasformarsi in repulsione o desiderio. Questo fa sì che io voglia – o non voglia cercare questa sensazione nel momento in cui ricerco affettività digitale. Alcuni studi rivelano che il fascino di alcune sexfluencer erotizzate deriva proprio dal fatto che il loro pubblico sa che sono artificiali e proprio per questo le trova desiderabili, perché bellezze inquietanti.
4) Nel tuo libro rifletti continuamente (e proficuamente) sulla storia del rapporto tra uomini e tecnologia e la metti in dialogo con l'osservazione dell'attuale orizzonte degli eventi. Mi sembra che parli di simulacri erotizzati come di un fenomeno non nuovo di per sé ma che sta acquisendo qualche elemento di novità. È anche molto interessante la questione dello sguardo maschile in questa fase di sviluppo tecnologico.
Come stiamo plasmando questi simulacri e in che modo questo è diverso rispetto al passato?
Quando ho affrontato questo argomento, c’era un problema teorico che dovevo risolvere: perché le immagini artificiali erotizzate – detto schematicamente l’erotismo e la pornografia fatte con intelligenza artificiale – sono da considerarsi diverse dalle immagini erotizzate tradizionali? Per rispondere a questa domanda non volevo avere un atteggiamento di “esotismo sociologico”, ovvero è tutto nuovo e tutto bello e interessante, ma un atteggiamento da sociologo critico analitico, cioè vediamo cosa c’è di passato e vediamo cosa c’è di futuro. Il passato sono riuscito a trovarlo nei modelli culturali. È innegabile che le immagini erotizzate sintetiche – passive o interattive – devono moltissimo alla tradizione erotica occidentale, e per certi versi è anche il modo per farsi accettare nell’attuale produzione ipertrofica di immagini. Il futuro l’ho trovato invece nelle nuove corde emotive che tali prodotti artificiali toccano: l’Uncanny valley, il sesso con dispositivi artificiali interattivi, il desiderio che prende forma in assenza di un “altro” umano ma comunque rispetto ad un’alterità in corso di classificazione (nel senso sociale del termine).
Ovviamente per affrontare il tema del simulacro dal punto di vista sociale e culturale, il riferimento a cui mi sono ispirato è la riflessione di Jean Baudrillard e Guy Debord, oltre che a letture un po’ più tradizionali di antropologia culturale e sociologia della vita quotidiana.
La novità dei simulacri contemporanei è che – parafrasando una frase presa da Blade Runner – tali simulacri sono diventati più umani dell’umano. Detto altrimenti, alcuni studi fanno notare che se interagiamo con un essere via chat, molte persone hanno difficoltà a capire se stanno interagendo con una persona o con una chatbot.
Questo è dovuto a due diverse dinamiche macro-sociali: il capitalismo contemporaneo fuso con la burocratizzazione sistematica ha reso gli uomini simili a macchine (come elementi funzionali) [2], le macchine invece sono diventate sempre più umanizzate, e non perché lo siano, ma perché uomini “a una dimensione” e macchine “empatiche” coesistono nello stesso spazio simbolico. Non sono cambiati i simulacri, è la struttura sociale che è diventata un simulacro. Quindi gli esseri artificiali hanno dignità di attori (agenti) sociali: di che tipo essa sia, è ancora da valutare.
5) Il tuo libro aiuta molto a fare ripartire la fantasia e il processo di pensiero attorno a questi temi un po' scioccanti. Nel tuo testo dici che per capire questo momento "dovremo guardare meno ad Asimov e più ai fratelli Grimm". Ci spieghi come mai?
Perché credo profondamente nel ruolo sociale dell’immaginazione e dell’immaginario. La società esiste come patto simbolico che rinnoviamo ogni giorno da quando ci alziamo la mattina dal letto a quando andiamo a dormire la sera. Il patto che onoriamo è frutto di un mix di storia, cultura, geografia, consuetudini, interazioni sociali, e altro. Per agire in questo ambiente abbiamo bisogno di elementi di riferimento: storie, racconti, archetipi. Finora l’interpretazione della società tecnologica – in quanto figlia (spuria) della rivoluzione scientifica – è stata affidata alla narrazione della tecnica presunta espressione della razionalità. Quando in realtà Golem [3] Pinocchio e Terminator vivono nello stesso spazio simbolico e sono specificazione dello stesso archetipo. Per quanto la fantascienza sia una narrazione utile per i nostri tempi – e lo dico da appassionato – ha fatto troppo affidamento alla conoscenza scientifica, mentre quando affronta le persone e il loro mondo – collettivo o individuale – funzionano meglio altre tradizioni narrative. Non è un caso che gli aedi della contemporaneità siano scrittori di fantascienza che preferiscono il suffisso fanta-, come Philip Dick o Ursula Le Guin, al prefisso -scienza come Isaac Asimov o Robert Heinlein.
Così come non è un caso che fra i vari approfondimenti presenti nel libro, non ho resistito a fare un box sull’immaginario cinematografico degli amanti sintetici.
Grazie dottor Bennato per questa continua ricerca di traduzione e contatto.
Bibliografia:
Bennato D. (2025) Amanti Sintetici. Sesso, relazioni e intimità nell’epoca dell’intelligenza artificiale, Pensiero Scientifico Editore, Roma.
Bernays, E. L. (1928). Propaganda. New York: Horace Liveright.
Cappello G. (2025) “Tre buoni motivi per studiare le relazioni con le IA. La psicologia delle emozioni verso le macchine, la sociologia degli esseri artificiali, l'economia della solitudine” in Bennato D. Amanti Sintetici. Sesso, relazioni e intimità nell’epoca dell’intelligenza artificiale, Pensiero Scientifico Editore, Roma.
MacRury I., Rusty M. (2014) The Inner World of Doctor Who: Psychoanalytic Reflections in Time and Space, Routledge, London.
[1] Questa espressione di sorpresa veniva usata nel telefilm da chi entrava per la prima volta nell’astronave del Dottore che da fuori sembrava una angusta cabina blu ma che dentro era invece una enorme navicella futuribile.
Nel 2014, Iain MacRury e Michael Rustin hanno pubblicato con Routledge “The Inner World of Doctor Who: Psychoanalytic Reflections in Time and Space”, dedicando un intero capitolo proprio al momento in cui si scopre che un piccolo oggetto e un dettaglio contengono al loro interno un intero cosmo di significati. Per gli autori, “It’s bigger in the inside” rappresenta benissimo l’esperienza di scoprire l’inconscio, le sue infinite sovradeterminazioni e la sua ricchezza polimorfa.
Trovo sempre molto intenso il momento in cui, in seduta, una persona si accorge che l’inconscio non è una costruzione teorica astratta ma è un multiverso in cui siamo costantemente immersi. In certe disposizioni dell’attenzione e con una sufficiente curiosità, piccole cose della vita ci dischiudono grandi occasioni di viaggio.
[2] Nota dell’autrice: segnalo Cordioli A. (2025). L’ecosistema digitale e i suoi soggetti. Anna Cordioli dialoga con Davide Bennato. Rivista KnotGarden 2024/2, Centro Veneto di Psicoanalisi, pp. 187-201.
[3] Nota dell’autrice: segnalo Cordioli A. (2025). Il Golem è uno specchio. L’umano e l’IA alla luce dell’etica. Rivista KnotGarden 2025/1, Centro Veneto di Psicoanalisi, pp. 166-186.