Kan en robot vara en anständig terapeut?

Ellie-terapeut bot Talkspace-konferens

Vi har sett avancerad artificiell intelligens som kan hålla en konversation som Siri, IBMs Watson och Microsofts Cortana. Men kan någon robot - till och med något som endast är utformad för psykoterapi och mer avancerad än de tidigare nämnda AI: erna - vara en anständig terapeut?





Människor har använt bots för terapi, men det är inte klart om de kunde överträffa mänskliga terapeuter under vår livstid. Att titta på roboters förflutna, nuvarande och möjliga framtid som terapeuter ger dig en uppfattning om hur effektiva de kan vara.

Ett tidigt exempel på en robot som försöker bli terapeut

ELIZA är ett av de tidigaste och mest kända programmen som försökte agera som terapeut. MIT-professor och datavetare Joseph Weizenbaum designade ELIZA för att ge Rogerian psykoterapi.





Eftersom Rogerian psykoterapi främst uppmuntrar kunder att prata mer snarare än att delta i en diskussion, räckte ELIZAs begränsade konversationsförmåga för att övertyga vissa människor om att det var mänskligt och hjälpa dem att må bättre på sina problem. Icke desto mindre kunde ELIZA inte ge något som kan jämföras med terapi med en mänsklig terapeut.

tecken på schizofreni hos barn

För att visa ELIZAs begränsningar genererade jag följande transkript med hjälp av en modern ELIZA-simulator :



ELIZA: Hej, jag är Eliza.
Talutrymme: Hej Eliza, jag har känt mig ensam och deprimerad nyligen, men jag är inte säker på varför. Kan du hjälpa mig att räkna ut detta och må bättre?
ELIZA: Kanske skulle du kunna hjälpa dig att räkna ut detta och må bättre?

Lägg märke till hur ELIZA tar min text och omformulerar den, lägger fokus på mig igen och uppmuntrar mig att prata mer snarare än att prata. Detta tillvägagångssätt fungerar för vissa kunder men blir snabbt frustrerande och värdelöst för andra.

När AI och chatbots avancerade blev de kapabla till mer övertygande samtal. Oavsett om programmerarna utformade dem för terapi för inte, kunde tekniska förbättringar ge dem mycket bättre terapi än ELIZA. Ändå är moderna robotar i allmänhet inte tillräckligt intelligenta för att konkurrera med en mänsklig terapeut.

Moderna robotar som kan ge grundläggande terapi

Genom att skapa större databaser med svar att välja mellan och utveckla program som kan prata om sig själva skapade programmerare robotar som lättare kunde passera som terapeuter.

Under den kliniska konferensen Talkspace Framtidens behandling , USC professor och forskningsdirektör för virtuella människor Jonathan Gratch demonstrerade hur moderna former av artificiell intelligens kan ge klinisk screening och grundläggande terapi. Gratch introducerade Ellie, en AI som han använde för att 'framkalla indikatorer på depression' under en studie.

Jonathan Gratch Ellie Future of Therapy Conference
Gratch är på höger sida av bilden.

Här är en del av dialogen mellan en deltagare i Gratchs studie och Ellie:

Ellie: Hur mår du idag?
Deltagare: Jag mår bra.
Ellie: Det är bra. Var kommer du ursprungligen från?
Deltagare: Jag är från Los Angeles.
Ellie: Åh, jag är själv från LA.

Till skillnad från ELIZA kunde Ellie prata om sig själv och skapa en konversation snarare än att bara omformulera svaren hon fick. Programmet känner igen ansiktsuttryck och analyserar ljud och hållning, enligt Gratch. Den använder denna analys för att formulera sitt svar och justera dess ton.

Icke desto mindre erkände Gratch att Ellie långt ifrån kunde ge den typ av förståelse som en mänsklig terapeut kunde.

jag vill träffa en terapeut

'Det förstår inte djupt vad du pratar om', sa Gratch. 'Jag ser oss inte kunna med teknik på kort sikt för att kunna förstå en persons grundläggande mål, motiv och behov.'

Ellie implementerades på ett säkert sätt. Det kan dock få negativa konsekvenser när en bot misslyckas med att förstå känslor och filtrera information under känsliga samtal med höga insatser som mellan terapeuter och klienter.

Ett exempel på detta var Hand , en bot Microsoft utformad för att interagera med människor och lära av dem, ständigt modifiera dess svar och beteende baserat på texten den fick. Tays skapare hade den hemska idén att släppa loss den på Twitter, där den kunde interagera med vem som helst på Internet.

Det började oskyldigt, med Tay som använde roligt slang och skämt. Men eftersom Twitter är fullt av troll, slutade det med att Tay sprutade rasistiska kommentarer och förnekade förintelsen.

Tay Twitter-sida
Microsoft stängde av Tay och skyddade sina tweets efter händelsen.

Terapeutbots är känsligare, men det finns fortfarande en risk att få flyktiga svar från klienter och förvärra situationen snarare än att trösta dem.

Kommer robotar att överträffa mänskliga terapeuter inom en snar framtid?

Robotar är många decennier borta från att överträffa terapeuters kreativa tänkande och empatiska förmågor. Det finns också en möjlighet att de aldrig kommer att kunna konkurrera med terapeuter. De är ett användbart kliniskt verktyg, men endast en kött- och blodterapeut kan skapa det terapeutiska förhållandet som är nödvändigt för en klient att göra betydande framsteg.