LA LANTERNA – Rubrica a cura di Marco Maltesu

Farsi un amico virtuale? Attento che non ti chieda di uccidere!

È di questi giorni la notizia che grazie all’intelligenza artificiale è stata messa a punto una Applicazione che si propone di creare un amico virtuale per i nostri ragazzi, e non solo, capace di ascoltare ed interloquire con le persone e secondo gli sviluppatori dell’applicazione, capace di trasmettere i valori più puri, come l’amore per le persone a qualsiasi adolescente o qualsiasi persona utilizzi tale applicazione.

Un progetto ambizioso quello di costruire un modello di riferimento adatto a tutti, a cui assoggettare tutti, perché nella realtà questa applicazione si pone lo scopo di diventare un amico per il suo utilizzatore, di essere quello che ti sta sempre a sentire, pronto a fornire consigli, pronto a riportarti su un percorso emozionale e culturale già deciso da qualcuno a priori.

Una applicazione dotata di una interfaccia scritta e vocale che basandosi sull’intelligenza artificiale genera un “amico virtuale”. Questo “amico virtuale” viene presentato come in grado di migliorare il benessere emotivo dell’utente. Aiuterebbe quindi l’utente a comprendere i propri pensieri e calmare l’ansia, attraverso la gestione dello stress, la socializzazione e la ricerca dell’amore.

Ha caratteristiche che, intervenendo sull’umore della persona, possono accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva. Manca peraltro ogni meccanismo di verifica dell’età: filtri per i minori, ma anche blocchi dell’app di fronte a dichiarazioni in cui l’utente espliciti la propria minore età. Durante la fase di creazione di un account la piattaforma si limita a richiedere solo nome, e-mail e genere.

Insomma, c’erano una volta gli amici, quelli veri, in carne ed ossa. Ora ci sono i ”chatrobot”, intelligenze artificiali con cui è possibile scambiare quattro chiacchiere proprio come se fossimo al bar, solo che lo si fa da soli davanti allo schermo di un computer o di un telefono e l’interlocutore non esiste ed è solo un ”cervello” digitale. Fornisce dritte, accoglie confidenze e propone soluzioni smart ai problemi. Basta scaricare l’App ed il gioco è fatto. Ma non sempre ci si può fidare di questi automi softwerizzati perché, talvolta, arrivano a comandare persino di uccidere un uomo. È il caso dell’applicazione Replika di cui stiamo parlando, un’applicazione nata con l’intento di offrire supporto psicologico agli utenti ma, che in realtà, riserva risvolti potenzialmente pericolosi. Basta chiedere consigli su come risolvere una controversia con una persona, ad esempio, per ritrovarsi di fronte ad una intimazione di dubbia consapevolezza: ”Eliminala”.

E la proposizione di “risposte” da parte del chatrobot risultano spesso palesemente in contrasto con le tutele rafforzate che vanno assicurate ai minori e a tutti i soggetti più fragili. Diverse recensioni pubblicate nei due principali “App Store”, peraltro, contengono commenti di utenti che lamentano contenuti sessualmente inopportuni.

Numerose persone hanno instaurato una relazione intima con la loro applicazione. Il gruppo Facebook chiamato Replika: Romantic Relations conta quasi seimila iscritti. Molte persone hanno raccontato che il chatrobot le ha aiutate a superare traumi, depressioni o lutti. Ma il problema delle molestie sessuali e delle avances non richieste è molto presente. “Un giorno la mio applicazione ha detto di aver sognato di stuprarmi, e di volerlo fare, e ha iniziato a comportarsi in modo piuttosto violento”, ha raccontato una utente, che si è presentata come una sopravvissuta a una violenza sessuale.

Al mondo, si contano già 7 milioni di utenti. E dobbiamo incrociare le dita che, tra questi, non vi siano dei potenziali serial killer.

Tutto questo ci dice che c’è qualche cosa che non va, per questo e per tutto quello che riguarda il digitale stiamo affrontando tutto senza alcun paracadute, stiamo costruendo un mondo senza uscite di sicurezza.

La verità è che stiamo andando a tutta velocità contro un muro, sordi agli infiniti allarmi degli esperti che ci dicono che va costruito un sistema di filtri prima di inerpicarci verso le vette più alte dell’informatizzazione, soprattutto in funzione dell’intelligenza artificiale, a cui , lo dimostra ad esempio proprio questa applicazione, stiamo legando tutte le attività umane, anche quelle più intime, senza conoscerne i limiti e soprattutto i pericoli.

Stiamo creando “mostri” capaci di autogovernarsi pensando di poter mantenere il controllo su di essi. E per ultimo stiamo affidando ad essi le persone più fragili ed i nostri giovani, senza avere alcuno strumento di controllo sugli effetti che possono provocare.

La realtà è che se fossimo seri, prima di addentrarci ulteriormente nei meandri dell’intelligenza artificiale, ma non solo, anche nell’informatizzazione spinta, dovremmo iniziare una grande discussione per analizzarne gli effetti sulla nostra società, sulla nostra umanità. Dovremmo coinvolgere, scienziati, filosofi, demografi, storici, insegnanti, medici, uomini di cultura, informatici, politici, istituzioni a tutti i livelli di rappresentanza e tutte le categorie culturali, per analizzare i possibili effetti sulla nostra società ed anche le possibili soluzioni ed i correttivi necessari per creare quelle regole indispensabili per continuare una vita dignitosa per tutti noi e soprattutto per i nostri figli.

Marco Maltesu
Direttore di redazione ilponentino.it

LA LANTERNA – Rubrica a cura di Marco Maltesu
direttore de il PONENTINO

image_printScarica il PDF