Site icon Corriere Nazionale

Meloni, Ocasio-Cortez, Harris e Clinton, così l’AI sessualizza le leader politiche

I deepfake erotici colpiscono l’ethos delle leader. I casi sono stati analizzati da SemiotiGram, laboratorio nato presso il CoRiS della Sapienza Università di Roma

 

Le immagini false generate con l’intelligenza artificiale non servono soltanto a ingannare: trasformano il corpo politico in oggetto mediale, spostando il dibattito dal piano istituzionale a quello sessuale. È questa la riflessione al centro del nuovo post pubblicato da SemiotiGram, il laboratorio Instagram nato presso il Dipartimento di Comunicazione e Ricerca Sociale (CoRiS) della Sapienza Università di Roma e diretto dalla semiologa Bianca Terracciano.

Il post prende spunto dalla fotografia fake di Giorgia Meloni in biancheria intima circolata online negli ultimi giorni e collega il caso italiano ad altri episodi internazionali che hanno coinvolto Alexandria Ocasio-Cortez, Kamala Harris e Hillary Clinton.

Secondo SemiotiGram, il deepfake non agisce soltanto sul piano tecnologico, ma soprattutto su quello simbolico e narrativo. «La fotografia falsa non serve solo a “ingannare”» spiegano gli autori del progetto. «Serve soprattutto a riscrivere il corpo della leader, destabilizzando il suo ethos istituzionale».

Nel contenuto pubblicato su Instagram, il laboratorio del CoRiS richiama anche il concetto semiotico di “effetto di realtà”: il deepfake appare credibile perché utilizza i codici visivi della fotografia autentica, simulando eventi mai accaduti.

«Il deepfake è una copia senza originale» si legge nel post«Non rappresenta qualcosa che è successo: crea un simulacro».

Per SemiotiGram, il fenomeno mostra come nell’ecosistema delle piattaforme la credibilità non dipenda più soltanto dalla verità dei contenuti, ma dalla loro capacità di apparire plausibili, condivisibili ed emotivamente efficaci.

Exit mobile version