WHO vurderer, at over 1 milliard mennesker lever med mentale helbredsproblemer globalt. Samtidig viser danske data høj stress, lavt mentalt velbefindende og hurtigt voksende AI-brug. Det gør spørgsmålet presserende: Hvad sker der, når mennesker begynder at bruge generelle AI-chatbots som første stop — ikke fordi det er ideelt, men fordi det er tilgængeligt?
Tallene bag presset
Tallene måler ikke det samme: global sygdomsbyrde, dansk trivsel og generel AI-adoption. Tilsammen viser de, hvorfor AI hurtigt kan blive første stop for svære spørgsmål.
Hvorfor vender folk sig mod AI?
Svaret er ikke, at AI er bedre end en terapeut. Det er, at AI er øjeblikkeligt tilgængelig, billigere end privat hjælp og for nogle føles mere privat. KFF finder netop hurtighed, forberedelse før professionel hjælp og privathed som vigtige grunde til, at nogle bruger AI til mental sundhed.
Hvorfor AI bliver første stop
I KFFs amerikanske måling blandt brugere af AI til mental sundhed peger tre drivere tydeligt frem:
Hvad AI faktisk kan — og ikke kan
En AI-chatbot er ikke en terapeut. Den kan ikke stille en diagnose, skrive en recept eller afbryde en krise med fysisk nærvær. Men den kan være et første skridt — en lav-barriere indgang til at sætte ord på, hvad der er galt.
Generelle AI-chatbots som ChatGPT og Replika er ikke det samme som godkendt behandling. En app kan først vurderes som medicinsk udstyr, hvis den har et medicinsk formål, fx diagnosticering, behandling eller klinisk beslutningsstøtte.
Tre scenarier fra virkeligheden
Sådan bruges AI til mental sundhed i praksis
Marcus, 19 år, venter 14 måneder på en psykologtid. Han bruger ChatGPT til at skrive dagbog og forstå sine tanker. Ikke terapi — men en måde at holde sig oven vande på.
Sofie, 34 år, kan ikke tale om sin oplevelse med nogen hun kender. Hun bruger Woebot til at øve sig i at sætte ord på det — som forberedelse til den terapeut hun endelig har fået en tid hos.
Bent, 71 år, bor alene. Hans børn er travle. Han taler med Replika om hverdagen — ikke fordi han forveksler det med et rigtigt menneske, men fordi det er bedre end ingenting.
Alle tre bruger AI til at udfylde et hul — ikke fordi det er optimalt, men fordi systemet ikke har kapacitet til at hjælpe dem i tide.
Regulering: Hvad siger loven?
EU’s AI Act gør ikke alle mentale sundheds-chatbots til højrisiko-systemer. Generelle chatbots skal blandt andet gøre det tydeligt, at brugeren interagerer med AI. Hvis et AI-system derimod markedsføres til diagnostik, behandling eller indgår i medicinsk udstyr, kan det udløse langt strengere krav. Samtidig er mental sundhedsdata følsomme personoplysninger, som kræver særlig omtanke under GDPR.
Regulering på tværs af regioner
| Region | Status | Vigtigste krav |
|---|---|---|
| EU | AI Act + GDPR | Transparens for chatbots; højrisiko afhænger af anvendelse, medicinsk formål og produktklasse |
| DK | EU-regler + sundhedsret | Helbredsdata kræver særligt behandlingsgrundlag, dataminimering og høj datasikkerhed |
| UK | Sektorbaseret regulering | Software med medicinsk formål kan kræve relevant MHRA-route |
| USA | FDA-regulering af SaMD | Generelle wellness-værktøjer og medicinsk software behandles forskelligt |
Kilde: EU AI Act (2024), GDPR, FDA og MHRA-vejledning om software som medicinsk udstyr.
Hvad forskningen siger
De bedste studier er stadig forsigtige. Woebot-studiet fra 2017 var et lille randomiseret studie blandt unge voksne og fandt signifikant reduktion i depressionssymptomer over to uger; angst faldt også, men ikke signifikant mere end i kontrolgruppen. Wysa har nyere studier med lovende resultater, men evidensen er stadig langt mindre end adoptionen. Derfor bør resultaterne ikke overføres direkte til generelle LLM-chatbots som ChatGPT, Gemini eller Replika.
Woebot er bygget på kognitiv adfærdsterapi (CBT). Den bruger korte daglige check-ins, stemningssporing og psykoedukation — ikke fri samtale. Det er en vigtig forskel fra ChatGPT.
Etik: De svære spørgsmål
Tre etiske spørgsmål presser sig på, som vi endnu ikke har gode svar på:
- Fortrolighed: Hvem ejer samtalen — og hvad bruges den til?
- Afhængighed: Kan AI-relationer erstatte menneskelige — og er det et problem?
- Krise-respons: Hvad sker der, når en bruger er akut suicidal?
Det sidste punkt er det mest presserende. Mange AI-apps kan vise et krise-script eller henvise til en hotline, men forskning peger på, at generelle chatbots kan overvalidere, spørge for lidt ind og reagere svagt i krisesituationer. Det gør design, triage og eskalation til et sikkerhedsspørgsmål — ikke kun et UX-spørgsmål.
Konsekvenser for Danmark
For Danmark er pointen ikke, at vi præcist ved hvor mange der bruger AI til mental sundhed. Pointen er, at to udviklinger rammer samtidigt: stress og lavt mentalt velbefindende fylder markant i befolkningen, og AI-brug er blevet almindelig. Danmarks Statistik viser, at 48 % brugte generativ AI i april-juni 2025, og at ugentlig AI-brug steg fra 17 % i 2024 til 37 % i 2025. Det gør det sandsynligt, at flere også bruger AI som første stop ved svære, personlige spørgsmål.
Hvad kan du gøre nu?
Det vigtigste er ikke at vælge side — 'AI er godt' eller 'AI er farligt'. Det vigtigste er at forstå, hvad der faktisk sker, og hvad det kræver af dig — som borger, leder, underviser eller behandler.
Fem spørgsmål du bør stille dig selv
- Kender du forskel på en AI-støtte-app og et medicinsk godkendt produkt?
- Ved du, hvad du gør, hvis en ven eller kollega er i mental krise?
- Har du talt med din arbejdsplads om AI og trivsel?
- Kender du dine rettigheder ift. datafortrolighed i AI-apps?
- Er du rustet til at vejlede andre — kollegaer, studerende, børn?
Bliv klogere på AI og digital trivsel
Vores kurser giver dig konkrete redskaber til at navigere AI-udviklingen — både for dig selv og dem du arbejder med.
AI-værktøjerAI Grundkursus: Udnyt teknologien og brug den sikkertProblemet er ikke dig — det er at ingen har vist dig en metode der virker stabilt, uanset hvilket AI-værktøj du bruger. Det gør vi her.4.995 kr.ex. moms1 dag