Con Alexa i morti parlano: bufera sulla nuova funzione


Alexa parla con la voce dei morti: è polemica per la nuova funzione dell’assistente vocale di Amazon che non convince anche dal punto di vista pedagogico

alexa

Se qualche tempo fa aveva fatto discutere il trend, partito dalla Gran Bretagna, di far raccontare le favole della buonanotte ad Alexa, l’assistente digitale di Amazon, ancora di più fa discutere oggi l’annuncio che quelle stesse favole potranno essere raccontate con la voce di un defunto, magari una nonna. In occasione del Re:Mars 2022, l’evento annuale su intelligenza artificiale, machine learning, spazio e robotica organizzato da Amazon, l’azienda ha infatti annunciato di star lavorando a una funzionalità sperimentale che permetterà ad Alexa di imitare le voci, anche quelle dei propri cari che non ci sono più, basterà un solo minuto di registrazione. L’obiettivo? “Far durare i ricordi”, ha affermato Rohit Prasad, scienziato capo di Amazon per Alexa AI.

FIABE SU ALEXA CON VOCE DEFUNTI NON È SEDATIVO A DOLORE

Nella clip di presentazione della nuova funzionalità, infatti, Alexa legge una favola a una bambina riproducendo fedelmente la voce della nonna scomparsa. “Non si può pensare che questo possa essere un sedativo al dolore perché non lo è assolutamente”, spiega Chiara Borgia, pedagogista, formatrice e vicedirettrice del magazine pediatrico Uppa. “La nostalgia, il dolore, le emozioni difficili, sono esperienze che vanno attraversate, tanto dagli adulti quanto dai bambini- continua Borgia che è anche specializzata nel settore della Death Education- non bisogna cercare sempre fonti di consolazione, anche i bambini devono poter attraversare le emozioni negative per imparare a gestire le sfide difficili. Le esperienze negative fanno parte della vita, non ci devono spaventare, le dobbiamo affrontare ed elaborare”.

DIVERSO DA UNA FOTO O UN VIDEO

Si potrebbe obiettare che anche una foto, un video o una registrazione riproducano una persona che non c’è più. “Ma è diverso- precisa l’esperta- perché in questo caso si tratta del ricordo di una relazione che può aver vissuto il bambino in prima persona o che hanno vissuto altri, come la mamma e il papà, e gliela raccontano. I ricordi sono parte dell’elaborazione del lutto e hanno una funzione specifica. Il bello dei ricordi, infatti, è che rimettono in dialogo con una determinata esperienza. E’ cosa altra dal cercare di rendere le persone eterne”.

Funzionalità come quella di Alexa “non sono solo un ricordo ma è come se volessero far rivivere chi non c’è più, far produrre del nuovo contenuto a una persona defunta. Questo, però- evidenzia Borgia- non è possibile, è un’operazione che si scontra con dei limiti perché riprodurre una voce, seppur in modo fedele, non è la stessa cosa di riprodurre una relazione. Non si può sapere come la nonna avrebbe letto la favola al nipotino, magari con quali espressioni aggiuntive, o usando vocine diverse per i vari personaggi. Ecco, non si può riprodurre artificialmente una relazione umana, il contenuto di una persona defunta non può essere replicato”.

ELABORARE IL LUTTO

“E poi- dice la pedagogista- ci sono delle situazioni in cui i lutti possono essere molto problematici e insistere nel cercare di tenere per forza in vita la persona defunta non può coincidere con la necessità di elaborare la perdita. Anzi per un bambino piccolo può anche essere un’esperienza spiacevole sentire la voce di un genitore o di un nonno che poi fisicamente non ci sono più, il bambino piccolo può non riuscire a distinguere le cose e questo può essere per lui confondente”.

La tecnologia “non ci deve certo spaventare e non va demonizzata- dice Borgia- ma sembra che dietro a tutto questo ci sia la paura della separazione, del lasciare andare, la paura che il bambino possa affrontare il dolore rispetto a un’esperienza di separazione e allora si tenta di rimediare con un surrogato. Ma quando cerchiamo di superare il limite rispetto alla vita- conclude Borgia- non sempre il risultato è efficace“.

ALEXA CHE IMITA VOCE E’ SERVIZIO RISCHIOSO

Oltre che da un punto di vista pedagogico, la nuova funzionalità di Alexa non convince anche per quanto riguarda il tema della della privacy. La funzione dell’assistente vocale “è destinata a rappresentare un rischio perché quella registrazione comporta una raccolta di dati tra i più personali, quelli biometrici: la voce ha un’impronta unica per ciascuno di noi e ci contraddistingue”. A mettere in guardia i futuri utenti di quella funzione è Guido Scorza, componente del Garante per la protezione dei dati personali, interpellato dalla Dire per ragionare dei possibili scenari legati a questa nuova tecnologia messa a disposizione del grande pubblico.

“Questo- tiene a precisare- non significa che tali possibili scenari lesivi dei diritti delle persone debbano effettivamente verificarsi. Il servizio- aggiunge poi- non è ancora disponibile e non si sa ancora quando lo sarà, per cui non esistono ancora termini di uso né informative sulla privacy”.

Alla base di questa scelta, secondo Scorza, sembra esserci “il principio per cui tutto quello che è tecnologicamente possibile tendiamo a considerarlo giuridicamente legittimo e socialmente sostenibile. Così oggi esiste l’abilità, grazie all’intelligenza artificiale, di riprodurre in maniera fedele la voce di una persona, partendo da una registrazione brevissima, e si ritiene possibile implementare e costruire su questa possibilità un servizio commerciale destinato a una platea molto vasta”.

LA NUOVA FUNZIONE DI ALEXA METTE A RISCHIO I DATI BIOMETRICI

“Questo modo di agire- constata- guarda a una faccia della medaglia, cioè alla possibilità per le persone, i bambini prima di tutto, di poter continuare a sentire le voci dei loro cari che non ci sono più, ma non considera la possibilità per i fornitori di servizi di accumulare grandi quantità di dati biometrici relativi alla voce di una persona. Oltretutto, in molti casi potrebbe trattarsi di qualcuno diverso dal proprietario del dispositivo Alexa e che, quindi, potrebbe non avere consapevolezza delle condizioni attraverso cui la sua voce viene registrata”.

Secondo l’esperto di privacy e diritti, “il tema, in questi casi, è sempre quello del bilanciamento: vale la pena esporre una persona all’utilizzo, da parte di un fornitore di servizi per scopi commerciali, di dati sensibili come quelli relativi alla voce per consentire, in futuro, a un bambino di continuare a sentire la voce della nonna o del nonno? Al momento, fino a quando qualcuno non dimostri che questo potrebbe produrre un beneficio in termini pedagogici, mi vien da dire che il gioco non vale la candela, perché il rischio di un deep fake vocale è sproporzionato”, ha chiarito.

L’ALTRA FACCIA DELLA MEDAGLIA

Un altro importante rischio, prosegue Scorza, “è rappresentato dalla circostanza che la più parte degli utenti e consumatori, ovunque nel mondo e in Italia in particolare, considerato che non siamo mai stati un Paese brilla per il livello di alfabetismo digitale e dei diritti fondamentali, in pochi capiranno quale sia l’altra faccia della medaglia, quella dei rischi connessi all’impiego di questo servizio. Così, sottovalutandoli, in tanti potranno accedere al servizio e, con leggerezza, spogliarsi o far spogliare qualcun altro di dati tanto sensibili”

“Immaginiamo la possibilità che un rappresentante istituzionale, incidentalmente anche nonno, si convinca a registrare la propria voce sul dispositivo utilizzato dal nipote, esponendosi al rischio che il giorno dopo la sua voce venga utilizzata per fargli dichiarare cose che non ha mai detto. Una cosa è che queste tecnologie restino relegate in ambiti professionali e vengano maneggiate da persone esperte, un altro conto è che vengano rese disponibili al grande pubblico come servizi commerciali”.

LA RESPONSABILITÀ SOCIALE

Oltre alle responsabilità giuridiche del fornitore di servizi e dei singoli cittadini che potrebbero utilizzare il servizio, esiste un piano più elevato sul quale spostare la riflessione che riguarda la responsabilità sociale. “Questa responsabilità dovrebbe suggerire, talvolta, l’opportunità di rinunciare alla diffusione massiva di alcune soluzioni tecnologiche laddove i vantaggi sperati risultino inferiori ai rischi potenziali. Perché- chiarisce- un conto è rendere disponibile questo servizio per far ascoltare, ad esempio, la voce di un parente scomparso a una persona che è in coma in un reparto di terapia intensiva, un conto è metterlo a disposizione di milioni di persone per usi ricreativi ma, al contempo, rendere possibile la falsificazione della voce di chiunque. Bisogna tenere conto della capacità del grande pubblico di farne un uso corretto e di bilanciare questo uso con un profilo etico”, conclude Scorza alla Dire (www.dire.it).