Ora ci confesseremo ad una AI? La cosa funziona ma il WEB è in rivolta, ecco perché

Una nuova Intelligenza Artificiale in ausilio della sanità mentale – NewsCellulari.it

Ha praticamente invaso quasi tutti i segmenti di mercato, ma ora vuole salire lassù: l’intelligenza artificiale arriva ai confini della mente, dividendo il pubblico.

Ovviamente è subito polemica per il post via twitter di @RobertRMorris, alias Robert Morris, co-fondatore di Koko.Abbiamo fornito supporto per la salute mentale a circa 4.000 persone, utilizzando GPT-3. Ecco cosa è successo”.

C’è chi incuriosito ha continuato a leggere i post su Twitter, chi naturalmente si è sdegnato lasciando risposte al vetriolo, che hanno generato inevitabilmente tante visualizzazioni quante polemiche.

KoKo è un servizio di salute mentale senza scopo di lucro peer-to-peer che collega coloro che necessitano di consulenza ai volontari attraverso varie piattaforme come Telegram e Discord. In genere, gli utenti chattano con un bot Koko che inoltra i messaggi a un volontario anonimo, che dialogherà con l’assistito. Almeno doveva essere così.

Ecco l’esperimento che ha diviso gli utenti di tutto il mondo: un test che includeva 30.000 messaggi utilizzando un approccio “co-pilota”. Una volta che una persona bisognosa digitava il proprio messaggio, questo veniva inoltrato a un volontario che, a sua volta, usando il modello di linguaggio di grandi dimensioni GPT3 di OpenAI, rispondeva.

Empatia e sensibilità, queste parola sconosciute a qualsiasi AI

Il programma, basato ovviamente sull’intelligenza artificiale, è in grado di tantissime funzioni: può rispondere qualsiasi cosa, su qualsiasi tema: dalle poesie al codice, passando per la soluzione ai nostri problemi mentali, non limitando a brevi messaggi, ma con risposte articolate su una grande varietà di argomenti.

Quanti ChatBot gestiti dall’AI – NewsCellulari.it

Robert Morris, un co-fondatore di KoKo, ha affermato che l’esperimento ha permesso loro di fornire aiuto a circa 4.000 persone. Non poche. Ma come? Lo ha spiegato lo stesso co-founder di Koko con una serie di tweet che però implicavano una massiccia dose di mancanza di consenso da parte degli utenti. “Una volta che le persone hanno appreso che i messaggi sono stati co-creati da una macchina, non ha funzionato. L’empatia simulata sembra strana, vuota”.

Morris ha anche aggiunto che, sebbene i messaggi composti dall’intelligenza artificiale fossero valutati significativamente più alti di quelli scritti dagli umani, gli utenti non erano a proprio agio con il bot, soprattutto per la mancanza di genuina compassione ed empatia. Da qui la polemica trasversale, fra chi è dalla parte di Koko e chi non sopporta l’invasione dell’AI per le nostre “confessioni”.

Ricevo critiche, preoccupazioni e domande su questo lavoro – chiosa Robert Morris – Condividiamo l’interesse nell’assicurare che qualsiasi impiego dell’intelligenza artificiale sia gestito con sensibilità, con profonda attenzione alla privacy, alla trasparenza e alla mitigazione del rischio”. Belle parole, ma sono in tanti a non essere convinti.

Copia