Kan artificiell intelligens förhindra självmord?

När jag går till jobbet möter jag alltid underbara människor och ibland människor som mår väldigt dåligt. Privata klienter kanske plågas av ångest, sorg, depression eller relationsproblem och behöver hjälp att bringa ordning i tankar och känslor. Patienter inom psykiatrin brottas med samma frågeställningar som alla andra, men utöver det har de en hjärna som slänger ut väghinder när de försöker navigera genom livet. De har diagnoser som bipolär, psykos, schizofreni, personlighetsstörningar och depressioner. Inte sällan har de tankar på att ta livet av sig, eller så har de redan försökt en eller flera gånger. Och vi, alla vi som på olika sätt som jobbar med mental ohälsa inom vården, ska nu försöka avgöra hur stor risken är att de kommer försöka ta sitt liv. Det finns faktorer som talar för eller emot, till exempel om de har ett aktivt missbruk, om de har en fungerande och stödjande social struktur runtomkring sig, om de har ett jobb, vilket kön de har. Och så frågar vi. Om man funderat på suicid, om man har aktiva planer på det just nu, hur man känner inför tanken på döden. Personens egen utsago väger tungt, ändå visar forskning att nästan 80 % av dem som tar livet av sig vid sin sista kontakt med vården förnekat tankar på självmord (Just et al., 2017). Med största sannolikhet talar personen sanning utifrån de medvetna tankar och känslor man har just i ögonblicket. Med största sannolikhet är så många faktorer i omlopp när en människa befinner sig i en såpass stark känslomässig kris att den kan leda till självmord att vi inte har ett enkelt svar på hur det kommer att gå. Jag vet inte, men faktum är att idag finns inget blodprov, ingen röntgen eller något annat kliniskt instrument som kan ge ett exakt svar. Vi har observationer, historik, erfarenhet och patientens egna ord att gå på. Och vi behöver något mer!

I en studie som nyligen publicerades ville psykologiprofessorn Marcel Just och hans kollegor undersöka hur biologiska markörer av förändrade konceptuella representationer i hjärnan kan förbättra tillförlitligheten i kliniska riskbedömningar av självmordsbenägenhet. I artikeln ”Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth” ställde forskarna ett antal intressanta och viktiga frågor. De sökte svar på:

  • Skiljer sig experimentgruppen från kontrollgruppen ifråga om neurala representationer av koncept relaterade till död och suicid såpass att en dator konsekvent kan upptäcka skillnaderna via hjärnavbildning?

  • Kan en maskininlärnings-modell upptäcka skillnad mellan personer som har försökt begå självmord och de som inte har försökt?

  • Finns det emotionella signaturer så att en dator kan avgöra om en person tillhör en grupp som aktivt tänker på suicid eller ej?

Forskarna använde fMRI (funktionell magnetkameraröntgen) för att analysera hjärnaktiviteten i relation till trettio olika koncept kopplade till tankar på självmord. De såg till exempel att hos en person som tidigare försökt begå självmord och nu tänkte på det igen var döden signifikant associerat med lägre nivåer av sorg än hos dem som funderade på självmord, men aldrig tidigare gjort ett aktivt försök. De skriver ”den här studien visar en biologisk, neurokognitiv basis för förändrade konceptuella representationer hos personer med tankar på självmord” och man menar att det möjliggör en träffsäker klassificering i olika riskkategorier. Detta är endast en studie och det behövs många fler, men den pekar på  relevanta områden där vi människor behöver och nu verkar kunna få assistans av AI och algoritmer.

Ett annat försök att förhindra självmord genom att använda ny teknik och artificiell intelligens har gjorts i USA av Crisis Text Line. Det är en organisation som liknar svenska Självmordslinjen, där volontärer svarar på samtal eller, som i det amerikanska fallet, på sms. Båda dessa organisationer erbjuder akut mänsklig kontakt för den som mår dåligt och befinner sig i kris. Här har man använt AI för att förkorta svarstiderna på ett dramatiskt sätt för den som bedöms vara i akut behov av hjälp, från 120 sekunder till 39 sekunder. Man fann att det var 16 gånger vanligare att en person som löpte hög risk att begå självmord skickade meddelanden med ordet ”ibuprofen”, smärtstillande piller, än att man skrev ”självmord” rakt ut. Så med hjälp av AI prioriteras dessa meddelanden och personen skickas till toppen av väntelistan. Några sekunder som kan göra skillnad för en person i desperat nöd.

Vi människor är irrationella, emotionella och ganska sköra varelser ibland. Att ta hjälp av en algoritm för att täcka upp för våra svagheter är inte bara klokt - det är kanske helt nödvändigt? 

 

 

 

Källor:

Just, M.A., Pan, L., Charkassky, V. L., McMakin, D., L, Cha, C., Nock, M. K. & Brent, D. (2017). Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth. Nature Human Behavior, October 30. 

Can artificial intelligence predict suicide?”, av Grant H. Brenner, Psychology Today

” Nonprofits, not Silicon Valley startups, are creating AI apps for the greater good”, av Shannon Farley, Recode