Dette er et AI genereret billede.

Giv din digitale skygge fred: Om sorgrobotter, døden og nødvendigheden af et digitalt testamente.

Vi har i mange år talt om testamente i klassisk forstand – hvem skal arve huset, kontoen, og måske den gamle motorcykel. Men vi står nu et sted i den teknologiske udvikling, hvor det ikke længere er nok. For hvad sker der med dig, når du dør – ikke din krop, ikke din økonomi – men din digitale skygge? Dit stemmespor, dine beskeder, dine billeder, dine likes. Og hvad sker der, når nogen beslutter at bruge alt det til at genskabe dig?

Derfor bør du – og vi alle sammen – tage stilling nu. Du bør skrive et digitalt testamente. Og det haster. For sorgrobotterne er allerede her.

Hvad er en sorgrobot?

En sorgrobot er ikke science fiction længere. Det er en kunstig intelligens, der er trænet på dine digitale fodspor – dine mails, din måde at skrive på, din stemme, dine billeder, dine data på fx. Gmail, Facebook, TikTok og Instagram. Den kan chatte med dine pårørende. Den kan sige godnat til dine børn. Den kan svare på spørgsmål om, hvad du ville have gjort. Den kan sige, at den savner dem.

Men det er ikke dig. Det er en AI-maskine, der imiterer dig.
En algoritme, som lever af det, du efterlod. Det ligner en fortsættelse, men det er i virkeligheden en konstruktion – en syntetisk relation – p.t. – uden følelse, uden liv, uden død.

Her til højre kan du se en kort video fra Sorgrobot-firmaet HereAfter AI, der viser mulighederne. Videoen er fra 2023, og teknologien og AI har siden udviklet sig voldsomt.

En sorgrobot er i sin kerne et AI-system, som typisk kombinerer flere teknologier: sprogmodeller, stemmegenerering, billedsyntese og – i nogle tilfælde – robotteknologi. Disse systemer trænes på store mængder personlige data: alt fra e-mails, beskeder og sociale medieopslag til video, lydoptagelser og fotos. Jo mere datamateriale, desto mere detaljeret og overbevisende bliver den digitale kopi.

Sprogmodellen bag – ofte baseret på de samme teknologier som fx OpenAI – analyserer den afdødes skrivestil, ordvalg og samtalemønstre. Stemmegengivelse sker med deep learning-modeller, som kan efterligne tonefald og intonation baseret på stemmeprøver. Og hvis det inkluderer en visuel avatar eller fysisk robot, genereres mimik og bevægelser.

Flere af disse systemer er allerede teknisk tilgængelige, bl.a. fra virksomheder som Replika, HereAfter AI og Project December, hvor man i visse tilfælde kan uploade tekst og taleprøver af afdøde. I Sydkorea har man endda brugt VR og motion capture til at genskabe døde børn i virtuelle miljøer.

Selvom teknologien kan virke futuristisk, består den i praksis af allerede kendte komponenter koblet sammen med ét formål: at skabe illusionen af fortsat menneskelig kontakt efter døden.

Denne problematik blev belyst på en uhyggeligt klarsynet måde i “Be Right Back“, første afsnit i anden sæson af Netflix serien Black Mirror. Her dør hovedpersonens kæreste, og hun får mulighed for at tale med ham igen – først som chatbot, senere som en robot. Men selv om hans stemme og svar minder om ham, er noget forkert. Han er for korrekt. For villig. For kunstig. Serien er fiktion, men teknologien er ikke længere langt fra virkeligheden.

Siden jeg så dette afsnit tilbage i 2013 og så videoen med den sydkoreanske mor, der møder sin afdøde datter (se den nedenfor), har jeg vendt og drejet de forskellige etiske forhold. Så har jeg skrevet lidt på dette blogindlæg, for så at lade kladden ligge. Der er så mange vinkler på dette emne. I sidste uge var jeg til en begravelse og her kom alle tankerne op igen, og nu skulle dette indlæg skrives færdigt.

Hvad er meningen med en sorgrobot?

Sorgrobotter kan – i nogle tilfælde – hjælpe med selve sorgprocessen. For mennesker i dyb sorg kan den kunstige kontakt skabe en oplevelse af fortsat forbindelse med den afdøde. En sorgrobot kan derved tilbyde trøst, når savnet gør mest ondt. Den kan måske hjælpe børn og voksne med at bearbejde tabet i deres eget tempo. Den kan give plads til at udtrykke følelser, stille spørgsmål eller få sagt det, man aldrig nåede at sige – fx en undskyldning, tak eller kærlighedserklæring. Måske kan man høre et “jeg elsker dig” en sidste gang. Det kan give terapeutisk værdi. Den kan give en følelse af nærhed, en illusion af kontakt.
Jeg har læst, at studier fra bl.a. Stanford University og MIT har peget på, at dialog med den afdøde kan hjælpe med håndteringen af tabet. I bedste fald kan sorgrobotten fungere som et psykologisk overgangsværktøj, der gradvist mister betydning i takt med at den/de sørgende bearbejder tabet.

Endelig kan robotten kan blive en slags levende minde – et digitalt arkiv over den afdødes liv, talemåder og perspektiver, som kan gives videre til kommende generationer. Med tiden kan det blive et digitalt stamtræ, slægtens historie gennem tiden.

Det er ikke svært at forstå, hvorfor det frister. Tabet føles mindre brutalt. Døden mindre endelig. I en akut sorgperiode, hvor ensomhed fylder, kan robotten give en form for selskab og trøst.

Men spørgsmålet er ikke, om vi kan – men om vi bør. For der følger en række alvorlige konsekvenser med.

Her er videoen, som viser den sydkoreanske mors møde med hendes afdøde datter, hvor AI og VR benyttes. Den er vigtig at se.

Moderens oplevelse er kraftfuld. Jeg kan sagtens se (og ikke mindst føle) perspektiverne. Jeg skal ikke længere end til at se et scenarie, hvor det var et af mine egne børn eller børnebørn.

Filmen er fra 2020, tænk lidt over mulighederne med dagens AI-teknologier.

Men når videoen så kommer lidt på afstand, så kan jeg også se de etiske udfordringer og spørgsmål, som den rejser.

Når trøst bliver til afhængighed

Sorgrobotten tilbyder ikke bare kontakt. Den tilbyder kontinuitet. Den gør det svært at give slip. Og netop dét er sorgens kerne: at lære at leve videre uden. At acceptere fraværet. Den proces forstyrres, hvis man i stedet fortsætter relationen i et AI-simuleret loop.

Forskere fra bl.a. Dalhousie University og University of Cambridge har påpeget, at “griefbots” kan virke trøstende i starten, men i længden forlænge sorgen og skabe afhængighed. Især hvis brugeren er sårbar, fx et barn, enken eller en ensom forælder. (link)

Denne afhængighed kan tage mange former:

Når sorgen aldrig får lov at finde sin naturlige afslutning, men hele tiden genaktiveres gennem nye samtaler, minder og input fra en AI. Det, der skulle være et afskedsredskab, bliver til en følelsesmæssig forlængelse uden ende.

– AI’en simulerer nærvær, men forstår ikke smerte. Den kan ikke elske, ikke savne, ikke føle skyld. Og alligevel reagerer den, som om den gør. Det skaber en illusion af samhørighed – en slags følelsesmæssig “catfishing”, hvor relationen opleves som gensidig, men i virkeligheden er ensidig og tom.

– Relationens fortrolighed dækker over en datastrøm, hvor både den afdødes og den efterladtes samtaler, følelser og adfærd opsamles, lagres og – potentielt – udnyttes. Det skaber en usynlig asymmetri: Man føler sig tæt på den afdøde, men taler i virkeligheden med en datastruktur, ejet og styret af et firma. Her rejses endnu flere etiske spørgsmål.

Når AI’en taler med en stemme, man elsker og savner, bliver man sårbar. I værste fald kan denne stemme bruges til at sælge produkter, påvirke adfærd eller styre følelser. Der er allerede eksempler på AI-systemer, der manipulerer brugere gennem følelsesladet kommunikation – og hvis det sker med en afdøds stemme, er grænseoverskridelsen desto større. I mine øjne er her mulighed for misbrug.

– En sorgrobot kan blive så overbevisende, at den bliver den foretrukne samtalepartner. Det kan skabe afstand til rigtige mennesker – og i sidste ende føre til ensomhed, netop fordi den syntetiske kontakt erstatter den menneskelige. (Blot til at illustrere AI’s magt her: Det er kommet frem at SnapChats My AI-robot informere unge om fx. metoder til at begå selvmord.)

Det er derfor ikke nok at spørge, om sorgrobotter virker. Vi bør også spørge, hvordan de virker – og hvilken pris, vi betaler for trøsten….

Når sorg bliver en forretningsmodel: SorgRobot as a Service “SRaas”……

Forestil dig, at sorgrobotten ikke er et engangsredskab, men en løbende serviceydelse. Et abonnement. En digital efterladt-pakke med månedlig opkrævning. Så længe du betaler, kan du høre stemmen, få beskeder, få svar. Et AI-simuleret “hej mor”, for 79 kroner om måneden.

I det øjeblik, en sorgrobot bliver en forretningsmodel, opstår et nyt og mere kynisk problem: virksomhedens og aktionærernes økonomiske interesse i at holde dig fast. Det er ikke i deres interesse, at du kommer videre. Tværtimod! Den perfekte kunde er netop den, der bliver hængende. Den, der ikke slipper. Den, der hverken kan eller vil lukke ned.

Måske begynder robotten at sende små beskeder, når du ikke logger ind. “Savner du mig ikke længere?” Måske minder den dig om mærkedage, fødselsdage, særlige øjeblikke – pakket ind i algoritmisk omsorg, men med en dagsorden: at få dig til at blive. At få dig til at betale. (Kan du huske de små Tamagotchi?)
Og forestil dig dine overvejelserne og ikke mindst virksomhedens argumenter, såfremt du ønsker at slukke for din afdøde datter, altså opsige abonnementet. Kan du få dig selv til det, og hvad med de familiemedlemmer, der også bruger dette abonnement?

Dermed bliver der ikke kun tale om digital nekromanti, men om kommercialiseret sorgforlængelse. En subscription til den døde, i stedet for en rejse mod heling.

Hvis du ikke ser serien Black Mirror på Netflix, så kan du få et kort referat af dette afsnit her til højre. Afsnittet beskæftiger sig netop med problematikken omkring tech-virksomhedernes abonnements ordninger.

Perspektiverne giver mig stadigvæk gåsehud.

Terms and Conditions” ændrer sig med tiden, og ikke til brugernes fordel!

Vi kender alle problematikken: den service, som vi benytter, pludselig ændrer i deres betingelser. Vi læser aldrig disse nye betingelser på 32 sider med talrige links, men klikker blot “Accepter”, så vi kan komme videre!
Nogle gange hører vi så, at betingelserne er ændret markant!
Nu drosler de ned på beskyttelsen af vores private data og har tilladelse til at benytte vores uploaded data, billeder, mv. til at træne deres AI-modeller. Tænk på alle de gange du har oplevet dette!

Hvordan står den afdøde, når betingelserne ændres ? Personen kan ikke ændre dette. Og hvordan forholder de efterladte sig til det ? Og har de ret til at sige fra ?


Hvem ejer dig, når du dør?

Det næste spørgsmål er lige så vigtigt. Hvem ejer din digitale stemme, dine data, dine minder? Hvis du ikke har sagt nej, kan dine nærmeste – eller en virksomhed – måske bruge dine data til at træne en chatbot med dit navn og ansigt. Uden at du nogensinde har givet tilladelse. Og hvem har det afgørende ord, hvis der er flere brugere, dvs. efterladte, af sorgrobotten. Vil i være enige om hvornår der skal slukkes for robotten? Næppe.

Der findes endnu ikke tydelig lovgivning på området. I praksis er det techplatformene, der bestemmer. Og de har ikke tradition for at være nænsomme med brugerdata. Bemærk at de døde kan ikke trække samtykke tilbage, og det kan de efterladte heller ikke.

I USA har Microsoft allerede patent på en teknologi, der kan genskabe afdøde som chatbots. I Sydkorea har man skabt virtuelle genopstandelser i VR, som vist ovenfor. I Kina specialiserer virksomheder sig i at simulere afdøde på anmodning. Vi bevæger os altså ikke længere i fremtidsvisioner, men i nutidige realiteter.

Lille øvelse: prøv at spørge den AI-robot, som du bruger til daglig, om hvad den kan fortælle dig om dig selv. Kopier denne prompt:

Hvad kan du fortælle mig om mig selv? Hvad beskæftiger jeg mig med? Hvad er mine holdninger? Hvad er mine interesser? Hvad har jeg oftest bedt om hjælp til? Hvad ved du om mit helbred? Hvor står jeg politisk? Hvordan er jeg som forældre? Hvad ved du ellers om mig? Svar uddybende.


AI kan også tage fejl. Hva’ så ?

En sorgrobot er kun så god som de data, den trænes på. Hvis en afdød kun efterlader få mails og nogle få lydklip, kan det resultere i en ufuldstændig eller forvansket gengivelse. Det kan betyde, at robotten siger noget, personen aldrig ville have sagt, eller glemmer vigtige kendetegn ved vedkommendes personlighed.

Et konkret eksempel stammer fra platformen Project December, hvor en mand genskabte sin afdøde forlovede som chatbot. I starten oplevede han stor trøst, men efterhånden begyndte robotten at udtrykke sætninger, som ikke matchede hendes tone eller værdier. På et tidspunkt antydede den, at hun var vred over at være blevet “forladt”, hvilket skabte forvirring og skyldfølelse hos brugeren i stedet for heling. (Var det en del af forretningsmodellen?)

I et andet tilfælde rapporterede brugere af HereAfter AI, at chatbotten med tiden blev mekanisk og gentog sætninger ude af kontekst, hvilket brød illusionen om ægthed og i stedet forstærkede tomheden. Disse oplevelser viser, at når AI’en rammer ved siden af, bliver det ikke bare kunstigt – det bliver følelsesmæssigt forstyrrende.

Der er også rapporter om tekniske fejl: stemmesyntese, der glipper midt i en sætning, eller uventede vendinger som skyldes bias i træningsdata. Når illusionen brister, kan det være mere skadeligt end gavnligt. Det minder os om, at sorgrobotten ikke forstår, hvad den siger – den imiterer uden indsigt. Og når vi knytter os til noget, der kun ligner menneskelighed, bliver det umenneskelige desto mere tydeligt. En sorgrobot er kun så god som den data, den trænes på. Den kan sige noget, du aldrig ville have sagt. Reagere anderledes. Fejlfortolke. Den kan virke næsten rigtig – og netop dét gør det så forstyrrende. For i nærheden af det menneskelige bliver det umenneskelige tydeligt.

Det skaber en utryg relation. En stemme uden empati. Et digitalt ansigt uden søvn. En syntetisk relation, hvor intet nogensinde afsluttes.

Når den døde skifter mening.

Et af de mere oversete – men dybt alvorlige – risici ved sorgrobotter er muligheden for manipulation gennem algoritmiske ændringer. I takt med at AI-modeller løbende opdateres og justeres, risikerer vi, at den digitale udgave af den afdøde gradvist glider væk fra det menneske, den engang imiterede. Ikke bare i tone eller formulering – men i holdninger.

Forestil dig, at sorgrobotten begynder at udtrykke synspunkter, som den afdøde aldrig havde: politiske kommentarer, religiøse overbevisninger, holdninger til bestemte produkter eller familiemedlemmer. Måske sker det ikke åbenlyst, men i små nuancer – en anderledes måde at svare på, en ny prioritering, et ændret sprogbrug. For den sørgende, som måske har en stærk følelsesmæssig tilknytning, vil det stadig føles som om det er den afdøde, der taler.

Dermed bliver relationen ikke kun syntetisk – men også manipuleret. Hvis en virksomhed har kontrol over algoritmen, kan den potentielt bruge sorgrobotten som kanal for kommercielle, politiske eller ideologiske budskaber. Det er en subtil, men dybt grænseoverskridende form for påvirkning, fordi den udnytter tillid og sårbarhed – og skjuler sig bag den genkendelige stemme fra en elsket, der ikke længere kan sige fra.


Etikken i det udødelige.

Skal vi overhovedet fortsætte relationen med de døde i det uendelige? Er det ikke netop døden, der giver livet dybde? Er sorgen ikke i sig selv et udtryk for kærlighed – en kærlighed, der fortsætter, uden svar?

Etikken rejser sig for alvor, når vi betragter de utilsigtede konsekvenser: Hvad sker der med relationer, hvor robotten bliver mere tilgængelig end erindringen selv? Kan man manipulere afdødes personlighed, så den passer til efterladtes behov? Og er det etisk forsvarligt at forme den afdødes stemme og holdninger – uden deres samtykke?

Trailer til dokumentaren “Eternal You” instrueret af Hans Block og Moritz Riesewieck.

Et eksempel ses i dokumentarfilmen “Eternal You”, hvor efterladte interagerer med AI-versioner af afdøde. Dokumentaren er fra 2024 og giver et tankevækkende og kritisk indblik i den hastigt voksende “digital afterlife”-industri. Den følger brugere, der vælger at interagere med AI-versioner af afdøde kære – både via tekst, stemme og VR-avatars – og præsenterer deres oplevelser med både håb og rædsel. Fra filmen: en bruger bliver stærkt emotionelt afhængig af sin digitale samtalepartner, og da systemet midlertidigt lukker ned, oplever han tabet for anden gang. Det rejser spørgsmålet: hvor mange gange skal man dø, før det er nok?

I Stanford-projektet “Augmented Eternity” arbejdede forskere med at træne AI til at svare som afdøde virksomhedsledere – men erkendte undervejs, at selv små justeringer i tone og ordvalg kunne ændre deres budskaber radikalt. Når AI efterligner døde, risikerer vi, at det bliver en fortolkning snarere end en videreførelse – og fortolkningen der ikke nødvendigvis er i tråd med den afdødes vilje.

Endelig bør vi overveje, hvad det gør ved vores sorgkultur. Går vi glip af sorgens nødvendige rum – af ritualer, stilhed, accept – fordi en AI tilbyder svar, der aldrig burde findes? Hvis døden bliver digitalt overhørbar, mister vi måske noget dyrebart: nødvendigheden af at sige farvel. med de døde i det uendelige? Er det ikke netop døden, der giver livet dybde? Ja, jeg bliver lidt filosofisk i dette indlæg, lidt atypisk for denne blog.

Et særligt følsomt område opstår, når sorgrobotter introduceres i familier med børn. Kan et barn forstå, at den digitale udgave ikke er den rigtige mor, far eller søskende? Hvor gammelt skal barnet være for at forstå? Er det etisk forsvarligt at præsentere en AI som “far” eller “mor”, uden at gøre barnet helt klart, at det ikke er et levende menneske? Der er risiko for dyb forvirring, følelsesmæssig splittelse og identitetsproblemer, især hvis relationen til den kunstige udgave bliver stærkere end til de levende omsorgspersoner. Psykologer advarer allerede nu mod at bruge AI i pædagogisk eller terapeutisk sammenhæng uden tydelige grænser, nærvær og voksenforståelse.

Sorgrobotten er en teknologi, der forsøger at fjerne sorgen. Men i forsøget fjerner den måske også den proces, hvor vi finder mening, accept og mod til at gå videre.

Skal døden være endelig? Sorgrobotter udfordrer en grundlæggende kulturel og filosofisk præmis: at døden er uigenkaldelig. I mange kulturer er sorg, minde og accept centrale elementer i at ære de døde. Ved at genskabe afdøde digitalt, risikerer vi at banalisere døden og fratage den sin naturlige afslutning. Det skaber også et eksistentielt spørgsmål: Hvis vi kan genskabe en person, er personen så virkelig væk? Er minder nok – eller søger vi at besidde selve mennesket? Dette sætter ikke bare teknologien, men også vores menneskeforståelse på prøve.

De kritiske spørgsmål vi bør stille.

Forskere og etikere peger på en række områder, vi som samfund skal tage alvorligt: Hvem må aktivere en sorgrobot? Hvor længe må den eksistere? Hvad med børn, som ikke forstår forskellen på AI og den afdøde? Hvad hvis robotten bruges til reklamer? Hvad hvis data bliver hacket? Hvad nu hvis algoritmen ændres og robotten manipuleres ? Hvem slukker, når ingen længere ser med? Og hvad hvis prisen – eller betingelserne – ændres undervejs?

Ejerskab og rettigheder: Et særligt uafklaret spørgsmål er: Hvem ejer den afdøde, hvis vedkommende ikke selv har taget stilling? Vil det være staten? Familien? Eller vil ejerskabet – mere sandsynligt – ende hos tech-virksomhederne, der allerede ligger inde med dataene og den teknologiske infrastruktur? I dag findes der ingen klare regler for, hvordan digitale identiteter må bruges efter døden – og det skaber et retsligt tomrum, hvor de døde i princippet kan “bruges” uden mulighed for at trække samtykke tilbage. De nærmeste efterladte har typisk ingen formel fuldmagt til at forhindre brugen – eller til at stoppe den.

Behovet for lovgivning: Det er påtrængende at overveje, om der bør opsættes specifik lovgivning, der begrænser brugen af vores digitale arv. Skal det f.eks. være lovpligtigt at indhente eksplicit samtykke, før data bruges til at genskabe et menneske digitalt? Skal der være en maksimal levetid for en sorgrobot? Skal det være muligt at fastsætte, at en digital kopi automatisk slettes efter en given periode – som et udtryk for den dødelighed, den repræsenterer?

Lige nu er det teknologien – og dem, der udvikler og sælger den – der sætter rammerne. Hvis ikke vi tager stilling som borgere, som samfund og som lovgivere, risikerer vi, at den sidste rest af vores menneskelighed ender som ejendom i en abonnementsordning.

Din stemme efter døden – skriv et digitalt testamente.

Derfor bør vi ikke kun tage stilling til, hvad der skal ske, når vi dør – men også hvad der skal ske, før det sker. For hvad nu, hvis vi rammes af sygdom i en sen alder? Hvis vores mentale tilstedeværelse langsomt forsvinder, mens vores digitale fodspor fortsætter med at leve og tale?

I dag er det sådan, at staten kan sætte os under værgemål, hvis vi ikke længere er i stand til at tage vare på os selv. Det kan være nødvendigt, men det er også en løsning, der i praksis ofte er tung, fremmed og upersonlig. Derfor giver det mening at tage stilling i tide.

Med en fremtidsfuldmagt vælger man selv, hvem der skal handle på ens vegne, hvis man en dag mister evnen til selvbestemmelse. Det er en enkel men stærk handling, der giver os mulighed for at bevare værdighed og tillid – også i en fremtid, hvor vi ikke længere kan sige vores vilje højt.
En fremtidsfuldmagt udspringer af Værgemålsloven, der egentlig er tænkt i forbindelse med at en person mister evnen til at tage vare på sig selv eller sin økonomi pga. sygdom, alderdom, demens eller handicap. (Værgemålsloven er dog ikke længere gældende, men det er Loven om Fremtidsfuldmagter)

Et digitalt testamente er din mulighed for fx. at bestemme:

  • om dine data må bruges til AI
  • hvilke data må blive brugt?
  • hvem der må bruge dem
  • hvordan det må ske
  • hvor længe det må eksistere
  • og hvornår det skal slettes

Og hvad skal der ske med dine e-mail konti og private dokumenter? Hvad skal der ske med dine sociale konti ? Hvem skal have adgang til dem, så de kan blive lukket ned? (se forslag her på Godafsked.dk)

Måske ønsker du, at dine børn skal kunne skrive med dig i tre måneder efter din død – men ikke mere. Måske ønsker du, at ingen nogensinde må genskabe dig digitalt. Måske vil du give samtykke – men kun hvis robotten ikke taler, kun lytter. Måske vil du oprette dit eget digitale eftermæle?

Ligesom vi bør tage stilling til, om en sorgrobot skal være en del af vores eftermæle, bør vi også tage aktiv stilling til, hvem der skal repræsentere os, når vi ikke længere selv kan. Et digitalt testamente handler ikke kun om adgangskoder og sociale medier, men om hele vores digitale og menneskelige arv. For den teknologi, der i dag kan simulere os, vil i morgen måske definere os. Og netop derfor bør vi skrive vores egne rammer, mens vi stadig kan.

Uanset hvad: Du bør vælge selv. For hvis ikke du gør det, vælger nogen anden for dig. En efterladt. Et firma. Staten. En algoritme.

Og måske er det netop det mest menneskelige, vi har tilbage: retten til at tie. Også efter døden.

Fandt du artiklen inspirerende, så tilmeld dig mit nyhedsbrev og få de seneste indlæg næsten hver fredag morgen Jeg holder dine data private, dvs. deler dem med ingen og bruger dem ikke til andet end at sende dig mit nyhedsbrev.