FORBRUGERRÅDET TÆNK EFTERLYSER SKARPERE EU-REGLER FOR KUNSTIG INTELLIGENS
“Vi har kunstig intelligens i alverdens ting i dag, men nu kommer der en AI-forordning. Det er 10 år på bagkant, men sådan var det også med GDPR. Vi er meget spændte på, hvor det ender.”
Ordene kommer fra Anette Høyrup, der er chefjurist i Forbrugerrådet Tænk. Hun stiller op til interview om forbrugerbeskyttelse i forhold til kunstig intelligens, men som hun indleder: ‘Den snak kan ikke adskilles fra den kommende forordning’.
For mens SAMDATA-redaktionen knokler på højtryk med dette AI-tema, så slider politikere, embedsfolk og lobbyister for at udforme og påvirke den EU-forordning, der efter planen skal træde i kraft i 2024. En forordning, der, hvis man spørger Anette Høyrup, kommer til at sætte rammerne for brugen af kunstig intelligens i både den private og offentlige sektor i mange år fremover.
Det startede med en bamse
At Forbrugerrådet Tænk forholder sig til kunstig intelligens skyldes ikke EU-forordningen. Interessen blev i første omgang vakt, da norske kollegaer testede sikkerheden i en interaktiv dukke, der blev solgt som legetøj til børn. Det viste sig nemlig, at ikke bare kunne dukken hackes, således at barnets samtale med tøjdyret kunne aflyttes, samtalerne var også styret af kunstig intelligens og kunne markedsføre specifikke emner, for eksempel ved pludselig at tale om Disney.
“Dér begyndte vi at interessere os for det. Men der er jo talrige eksempler, f.eks. biler, der indsamler og analyserer en masse data om ejerens kørsel,” siger hun.
At det lige var bamsen, der udløste Forbrugerrådet Tænks interesse, var altså et tilfælde. Havde det ikke været den, var det sket i en anden sammenhæng, understreger chefjuristen.
Men selvom reklamesnakkende bamser kan lyde bekymrende, så er Forbrugerrådet Tænk helt grundlæggende ikke modstandere af kunstig intelligens. “Overordnet set er det ikke en farlig teknologi. Det er jo fedt med dukker, der kan snakke eller et løbeur, der tracker søvn og løberuter. Det kan gøre hverdagen bedre for forbrugeren og skabe glæde. Vi er ikke imod kunstig intelligens. Det er meget anvendt og bliver det endnu mere,” siger Anette Høyrup.
Hun fortsætter:
“Vi forholder os til kunstig intelligens, fordi det er i mange tjenester og produkter, i apps på telefonen og på sociale medier. Derudover anvendes det f.eks. til målretning af reklamer, annoncer, budskaber og indhold. Det er relevant at vide, at det skyldes kunstig intelligens. Flere produkter bliver smartere og smartere, og alt fra vaskemaskine og kaffemaskine til legetøj kommer online.”
Men der er en lang række konkrete, potentielle problemstillinger, som Forbrugerrådet vil holde øje med. Det er dem, der er vigtige – ikke teknologien i sig selv, siger Anette Høyrup.
“Der er først og fremmest en IT-sikkerhedsudfordring, som man skal tage højde for. Mange produkter, der benytter kunstig intelligens, er interessante at hacke, fordi de er online, og der flyttes meget store mængder data,” siger hun og fortsætter:
“Så er der hele privatlivsdelen: Der er risiko for overvågning og kontrol, hvis man indsamler data. Det kan være forsikringsselskaber eller myndigheder, der gerne vil have sundhedsdata fra dine gadgets. Det påvirker retten til privatliv og din kontrol over dine egne oplysninger. Det er vigtigt at være opmærksom på, hvor data havner, og om man kan slette sine data igen, og om GDPR er overholdt. Jo flere data man indsamler, jo mere intelligent bliver løsningen, og det clasher jo lidt med GDPR, som kræver, at der kun indsamles nødvendige oplysninger.”
Fokus på bias
Et andet potentielt konfliktområde er den målrettede markedsføring og annoncetilpasning, som kunstig intelligens bruges til på for eksempel sociale medier.
“Vi er meget optagede af hele diskussionen om bias og diskrimination. Man må ikke manipulere børn og unge til at tage valg, som de ikke ville tage ellers. Der spiller AI en stor rolle, for der opbygges profiler af os hver især, hvor algoritmerne for eksempel målretter kviklånsannoncer til unge, der gamer. Man indsamler så meget data, at man via AI præcist kan udnytte den sårbare situation, folk er i. Der kan på den måde godt være noget AI, som ikke er til fordel for brugerne,” siger hun og tilføjer:
“Men det kan være svært at vurdere, om der er forskel på, hvad jeg ser, og hvad du ser, når vi er på nettet. Hvem får de billige tilbud og hvem får de dyre?” spørger hun retorisk og tilføjer: ”Det bliver forhåbentligt gennemsigtigt med reglerne.”
Samtidig understreger hun vigtigheden af, at man ved hvor man kan klage, hvis der sker fejl eller på anden vis opstår problemer som følge af brugen af kunstig intelligens.
“Vi kommer til at se chatbots meget mere, for eksempel hos læger og forsikringsselskaber. Det er der intet galt med, men det skal være tydeligt, at det er en chatbot man taler med fremfor et menneske, og man skal vide, hvor man henvender sig, hvis man er utilfreds. Hvad hvis man stilles dårligere på grund af AI, f.eks. fordi man får et automatisk afslag på at tegne en forsikring? Hvor kan man klage over den slags?”
2000 ændringsforslag
Og klagemuligheden sender os retur til EU-forordningen, der pt. er under udarbejdelse.
“Det er stadig i proces, som mange siger. Det er meget svært at forudsige, hvor vi ender i forhold til forbrugerrettigheder.”
Situationen er nemlig den, at forordningen forhandles på plads mellem EU-rådet, EU-parlamentet og EU-kommissionen. Der er kommet cirka 2000 ændringsforslag til den forordning, der kaldes AIA.
Som Anette Høyrup beskriver den:
“Det er GDPR, bare for kunstig intelligens. Den er lige så stor og voldsom, og så gælder GDPR stadig ved siden af.” Hun uddyber: “Det står er klart, at der er ting, der vil blive decideret forbudt. For eksempel at myndighederne opbygger pointprofiler på borgerne á la Kina. Dernæst sondrer man mellem højrisiko-områder og lavrisiko-områder, hvor højrisiko for eksempel kan være afgørelser truffet af kommunerne, mens lavrisiko-området kan være forbrugergadgets uden personfølsomme oplysninger.”
I Forbrugerrådet Tænk foreslår de, at der i forordningen indarbejdes et sæt forbrugerrettigheder. For eksempel med krav om, at kunstig intelligens skal være gennemsigtigt og skal kunne forklares for almindelige mennesker. Og så skal det være tydeligt, hvad man kan klage over, og hvor man klager. Uanset hvor lovgivningen lander, så er en ting sikkert:
“Når forordningen kommer, så ligger der et meget stort oplysningsarbejde forude.” \