EKSPERT: VIGTIGT AT HAVE FOKUS PÅ ETIK NÅR MAN ARBEJDER MED AI
At kaste sin virksomhed eller organisation ud i et projekt, der involverer kunstig intelligens, kan for mange virke uoverskueligt. For én ting er teknikken – men hvad med etikken? Det behøver heldigvis ikke være så svært, siger ekspert. Der findes nemlig allerede gode vejledninger og tjeklister.
Det fortæller Gry Hasselbalch, en af Danmarks fremmeste eksperter på området. Hun har indvilget i at give råd og vejledning til de af SAMDATA Magasinets læsere, der kunne tænke sig at arbejde med i kunstig intelligens i fremtiden.
“Det allerførste tip er, at man skal være opmærksom på, at der pt. udvikles lovgivning, der skal regulere AI,” siger hun med henvisning til den såkaldte AI Act fra EU, der indtil videre har været mere end to år undervejs og endnu ikke ligger helt klar. Men selvom lovgivningen ikke er endelig, så kendes de brede rammer allerede, og det er en rigtigt god idé at sætte sig ind i, så man ikke bliver overrasket.
“Det berører både sådan noget som AI’s indflydelse på vores grundlæggende rettigheder, men også tekniske aspekter som sikkerhed. Systemer vil blive kategoriseret i forhold til risikoniveau, og dermed følger en række forpligtelser,” forklarer Gry Hasselbalch.
Udover at sætte sig ind i den kommende lovgivning, så er det alfa og omega, at etik er nøglepunkt i udviklingen af kunstig intelligens, siger eksperten.
“Etik er mere og andet end jura og teknik. Det handler om værdierne, man designer teknologierne ud fra. Det verdenssyn og de interesser, som man understøtter, når man skaber og bruger kunstig intelligens.” siger hun og fortsætter:
“Hvor meget kontrol har de mennesker, som det kunstigt intelligente system bliver brugt på eller af? Tager det beslutninger på vegne af folk? Og hvilke beslutninger? Hvis man f.eks. har trænet systemet på data, som er ikke-repræsentativt, så har man et system som i sidste ende kan diskriminere mellem mennesker.”
Gry Hasselbalch uddyber:
“Man tror, det er en teknisk løsning, der kan effektivisere processer. Men man glemmer nemt, at det indgår i allerede etablerede magtstrukturer eller skaber magtdynamikker, som slet ikke passer til den måde, som vi er vant til som borgere i Danmark. Det kan f.eks. være privatlivets fred eller retten til adgang til oplysninger om os selv, der bliver udfordret af kunstig intelligens. Når man sidder som udvikler og laver software med AI, så kan man blive så fokuseret på, at man har en løsning på et problem, at man overser de etiske problemstillinger.”
Derfor er det en central anbefaling fra Gry Hasselbalch, at man kaster sig over de mange konkrete redskaber, guidelines og tjeklister, der allerede er lavet og afprøvet. Du kan se dem i faktaboksen ved siden af. \
FAKTA OM ETIK
\ “Etiske retningslinjer for pålidelig kunstig intelligens” fra EU (https://kortlink.dk/2mhg3)
\ IEEE’s såkaldte “P7000-standarder”
\ “Ethics of Artificial Intelligence” fra UNESCO
\ “Artificial intelligence & responsible business conduct” fra OECD
Alle ovenstående værktøjer kan findes via din foretrukne søgemaskine.
CHATGPT’S EGNE GODE RÅD TIL GOD ETIK, NÅR DU ARBEJDER MED AI
PROMPT: Jeg er journalist på SAMDATA Magasinet. Vi skriver om IT og IT-arbejdsmarkedet. Målgruppen er IT-medarbejdere i både den offentlige og private sektor. Jeg skal skrive en artikel med gode råd til IT-folk, der gerne vil bruge kunstig intelligens i deres projekter. I din optik, hvilke etiske og moralske problemstillinger skal man være særligt opmærksomme på? Skriv en punktopstillet liste med 13 gode råd og inputs.
ChatGPT (v.4) svarer:
1. Data bias: Vær opmærksom på at dataen der bruges til at træne AI kan indeholde sociale, kønsmæssige eller etniske bias. Løsning: Diversitet i datakilderne, konstant revision.
2. Gennemsigtighed: Implementer modelforklarlighed. Brug værktøjer som LIME eller SHAP for at sikre, at algoritmerne ikke er black boxes.
3. Informeret samtykke: Indhent informeret samtykke, når I bruger personlige data. GDPR og andre regler kan gælde.
4. Data sikkerhed: Brug top-kvalitets kryptering og sikkerhedsprotokoller til at beskytte dataen fra uautoriseret adgang. Brug hardwaremoduler til at håndtere sikkerhedsnøgler.
5. Privatlivsbekymringer: Brug forskellige privatlivsbeskyttelsesteknikker til at bevare anonymitet, når I arbejder med personlig information.
6. Energyforbrug: Overvej den klimamæssige påvirkningen af træningen af store modeller. Brug energieffektive algoritmer.
7. Tilgængelighed: Sørg for, at AI-løsninger er tilgængelige for en bred brugerskare, også dem med handicap. Se på understøttelse af flere sprog og lettilgængelige interfaces.
8. Autonomi: Vær opmærksom på den potentielle udhuling af menneskelig autonomi på grund af over-afhængighed af automatiserede system. Implementér systemer, der kræver menneskelig indblanding.
9. Overvågningsrisiko: Brugen af AI til overvågning kan begrænse privatlivet. Begræns omfang og varighed.
10. Lovmæssig tilpasning: Gør dig bekendt med AI-specifikke regler, såsom AI Ethics Guidelines fra Europa-Kommissionen.
11. Jobfortrængning: Forvent, at AI kan gøre nogle jobroller forældede. Inddrag HR i omskolingsprogrammer.
12. Sundhed og sikkerhed: For AI i kritiske systemer, såsom sundhedsvæsnet, skal du overholde strenge testprotokoller for at undgå livstruende fejl.
13. Intellektuel ejendomsret: Når du bruger fortrænede modeller, skal du kontrollere brugsbetingelserne og immateriellovgivning. Kommerciel brug kan kræve licensgebyrer. Ekspert opfordrer: Brug de mange værktøjer, der findes til at handle etisk
KORT OM GRY HASSELBALCH
\ ph.d. i dataetik, herunder kunstig intelligens etik (“AI Ethics”), fra Københavns Universitet \ Medstifter af tænketanken DataEthics.eu
\ Medforfatter til bogen Dataetik: Den nye konkurrencefordel (2016) samt en række andre bøger om AI’s rolle i samfundet.
\ Medlem den tidligere regerings første dataetiske ekspertgruppe og af EU’s ‘High-level expert group on artificial intelligence’
\ I dag: Nøglerådgiver for The International Outreach for Human-Centric approach to Artificial Intelligence (InTouchAI.eu), der understøtter EU-kommissionens AI-diplomati.