Menu
Close
Dive in

Er kunstig intelligens creepy eller cool? Helt klart begge dele, synes jeg. Det er en del af fascinationen, at en ny teknologi åbner for nye etiske problemstillinger. Denne artikel er ikke et holdningsindlæg, men en introduktion til de etiske principper, der ligger til grund for The EU AI Act og den nationale strategi for kunstig intelligens.


1. Autonomi og menneskeligt tilsyn

AI-systemer skal støtte menneskers mulighed for at træffe oplyste og selvstændige valg uden at fratage dem deres selvbestemmelse. Det betyder, at mennesker ikke blot skal være passive brugere af AI, men aktivt kunne forstå og udfordre de beslutninger, som teknologien træffer – gerne gennem designprincipper som “human-in-the-loop” og “human-in-command”, hvor mennesket kan gribe ind.

Autonomi er retten til selvbestemmelse. Det er tanken om, at man som individ bør have mulighed for selvforvaltning uden tvang eller indblanding.

En måde at forstå autonomi-begrebet på er at se det som et normativt krav om fravær af manipulation eller fremmedstyring. Her er spørgsmålet så, hvornår der er tale om manipulation i modsætning til “oplyste og selvstændige valg”?

De fleste af os færdes hver dag på Google, Meta og TikTok osv., som langt hen ad vejen er bygget op efter et “don’t make me think”-design. Platformenes algoritmer sørger for, at relevant content finder vej til min skærm. Det betyder, at det i vid udstrækning er store tech-giganter, der bestemmer, hvad der er relevant for mig. Man kan kalde det manipulation. Man kan også kalde det fortræffelig underholdning. Men sandheden er jo nok, at det for mange kræver en kæmpe viljesakt at løsrive sig fra den endeløse doom scrolling.

Vi har valget til at sige nej – på samme måde som et barn kan sige nej i en slikbutik.


2. Teknisk robusthed og sikkerhed

Systemer baseret på kunstig intelligens skal være robuste, sikre og pålidelige. De skal kunne håndtere fejl, angreb eller uventede situationer uden at forårsage skade – både fysisk, digitalt og socialt. Det kræver nødplaner, løbende test samt gennemtænkte procedurer for risikohåndtering.

Hvad sker der, når maskinen har en dårlig dag?

Kan man stole på et automatiseret system til kritiske beslutninger? Hvad sker der, når systemet fejler? Alle der har set Terminator kan nok se ideen med en “kill switch”. Det gælder også for mindre dommedagsagtige scenarier.

Hvad sker der, når din AI-chatbot pludselig begynder at anbefale konkurrentens produkter?

Eller når dit marketing-automatiseringsværktøj pludselig begynder at sende tusindvis af mails med de forkerte tilbud ud grundet en datafejl? Hvordan stopper du det hurtigt nok? Har du overhovedet adgang til en “off-knap”?

Tager vi den helt op på den sikkerhedspolitiske klinge, så handler robusthed og sikkerhed også om digital suverænitet. Denne tekst er skrevet på en amerikansk Mac med amerikanske Microsoft – og assisteret af amerikanske ChatGPT – i en tid hvor en amerikansk præsident udfordrer dansk suverænitet.

3. Privatliv og datastyring

Kunstig intelligens må aldrig kompromittere individets ret til privatliv. Kvaliteten og integriteten af data er afgørende; kun relevant data bør anvendes, adgang skal begrænses, og datas livscyklus overvåges nøje.

Vi kender det allerede i kraft af GDPR i dag, men i forhold til udvikling af nye tech-løsninger er der masser af dilemmaer i vente. Inden for UX og design af tech er personalisering allerede nærmest et forbrugerkrav: Min bil skal kende mine ruter, og mine streaming-tjenester skal kende min smag indenfor film og musik.

Hvordan balanceres ønsket om personalisering mod retten til privatliv? For de fleste er det et trade-off: Vi veksler vores data for en personaliseret brugeroplevelse. Men det er et trade-off de fleste af os lukker øjnene overfor.

Fik du i øvrigt gjort indsigelser overfor Meta om, hvorvidt de må bruge dine data til træne deres AI? Nej vel?

Fristen var den 27. maj 2025.


4. Gennemsigtighed

Beslutninger truffet af kunstig intelligens skal være forståelige for de berørte parter. Både brugere, kunder og medarbejdere har krav på viden om, hvad der foregår bag kulissen – herunder systemets begrænsninger.

Åbenlys mangel på gennemsigtighed ses fx hos chatbots, der præsenterer sig som mennesker – indtil de pludselig taler klingon midt i supporten.

Mange AI-modeller fungerer som “black boxes”, hvor hverken udviklere eller brugere kan forklare præcist hvorfor systemet vælger, som det gør. Det kan være en kunde der får afslag på erstatning fra sit forsikringsselskab baseret på en algoritme – uden konkrete forklarlige kriterier bag afslaget.

Her bliver “forklarlighed” centralt: Hvor “gennemsigtighed” handler generelt om, hvordan hele systemet er skabt og trænet, handler “forklarlighed” om muligheden for at forklare specifikke outputs fra systemet eller brugeren selv.

Næste gang du bruger ChatGPT: Spørg hvordan den kom frem til svaret!

5. Lighed, mangfoldighed & retfærdighed

Kunstig intelligens må ikke diskriminere eller skabe uretfærdig bias mod bestemte grupper. Systemerne skal fremme ligestilling – også blandt minoriteter og sårbare grupper – gennem hele livscyklussen fra design over træning til drift.

Den træningsdata som de store sprogmodeller (LLM’er) er baseret på, indeholder ofte skjulte fordomme fra samfundet – altså såkaldt kognitiv bias, og når denne bias reproduceres i stor skala i en chatbot som fx ChatGPT, så risikerer vi, at kunstig intelligens viderefører og endda forstærker disse biases.

Det kan også være billedegenereringsværktøjer, der tror, at kun direktører bærer slips eller glemmer, at kvinder også sidder i bestyrelser. Det samme gælder ansigtsgenkendelsesværktøjer, som er bedre til at genkende hvide mænd, end mørke kvinder, fordi systemerne primært er trænet med billeder fra hvide i Palo Alto college kids.    

Det er selvfølgeligt uacceptabelt, at dyre dimser fungerer ringere for mørke kvinder end hvide mænd, men det bliver for alvor diskriminerende, når den slags skævvredne algoritmer benyttes til efterretningstjenester og andre overvågningssystemer med sociale og juridiske konsekvenser.


6. Miljømæssigt & samfundsmæssigt velvære

Kunstig intelligens bør gavne hele samfundet, inklusive kommende generationer. Teknologi må ikke være på bekostning af miljø eller social sammenhængskraft.

De mest avancerede modeller til generativ AI kræver enorme mængder strøm, så det er værd at overveje, hvor meget CO₂ der må udledes for et bedre chatbot-svar?

Er du typen, der høfligt chit-chatter med din GPT? Så kan du jo overveje, hvad høfligheden koster? Hver gang ChatGPT svarer venligt, koster det jo ekstra strøm.

Ifølge Sam Altman (OpenAI) koster det millioner af dollars, når brugere siger ”tak”. Måske vi bare er høflige, fordi vi frygter dårlig karma, hvis The AI Overlord overtager verdensherredømmet?

Men faktisk behøver du ikke være høflig, for at skrive gode prompts. Det kan du lære mere om her i artiklen


7. Ansvarlighed

Det skal ved beslutninger og beslutningsunderstøttelse truffet via kunstig intelligens være muligt at stille mennesker til ansvar.

Forestil dig en automatiseret annonceringsplatform, der selv køber annonceplads og generer content på tværs af internettet. Pludselig dukker brandets reklamer op på sider med kontroversielt indhold – ingen ved præcis hvorfor, eller hvordan det skete.

Ifølge ansvarlighedsprincippet, skal et menneske kunne stilles til ansvar, selvom det for så vidt hverken er direktørens eller studentermedhjælpens skyld.

Samtidig er det svært at forestille sig en verden i den nærmeste fremtid, hvor maskiner betragtes som moralske subjekter eller juridiske personer.  

Så indtil videre er det nok meget godt, at mennesker kan stilles til ansvar.

Og så lige til sidst …

Det giver næppe mening at være for eller imod kunstig intelligens. Katten er ude af sækken. Men kendskab til og refleksion over ovenstående principper, kan muligvis give os en mere kvalificeret debat om kunstig intelligens. Både som udviklere og brugere af platforme med kunstig intelligens.

https://digst.dk/strategier/strategi-for-kunstig-intelligens/
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

Tak til GxE’s PrivateGPT 4.1 (Azure Global) – beta for hjælp med gennemskrivning af denne artikel

Chat GPT 4o har stået for billederne

Hear more directly from our specialists

For mere information om vores praksis og hvordan vi er forpligtet til at beskytte og respektere dit privatliv, kan du læse i vores privatlivspolitik.

Morten Gad

Digital Strategy Director, partner
Seneste i Hub'en