HOLD MENNESKER, IKKE ALGORITMERNE, ANSVARLIGE
”Vi har i dag en hel industri, som udvikler og sælger det, som jeg kalder people analytics. Det går ud på at overvåge og analysere, hvad folk laver på deres arbejde. Det kan arbejdsgiverne bruge til bedre ledelse, siger de. Men bedre betyder ofte kun bedre for arbejdsgiverne, ikke for medarbejderne.”
Matthias Spielkamp, er medstifter og direktør for Algorithmwatch, en non-profit vagthund. Fra hovedkvarteret i Berlin overvåger medarbejderne i Algoritmwatch den stadig stigende brug af kunstig intelligens, algoritmer, og hvad det betyder for menneskers hverdag på jobbet og udenfor.
”Alle disse systemer gør det muligt klart at se, hvem der gør det godt, og hvem der er bagud med opgaverne. Leverandørerne af disse systemer lover at kunne øge produktiviteten og medarbejdernes engagement,” siger Matthias Spielkamp.
Umiddelbart lyder det jo lovende. Men virkeligheden er en ganske anden, mener han.
Utroværdig kunstig intelligens
Matthias Spielkamp fremhæver den amerikanske virksomheden HireVue som et eksempel. Lige som andre softwareproducenter udvikler firmaet kunstig intelligens til at analysere videooptagelser af jobsamtaler.
”De hævder, at deres teknologi kan bestemme, hvilken personlighed en ansøger til et job har. Og det kan HR-folkene bruge til at afgøre, om en person skal ansættes, og til hvad de skal hyres til. Skal de være chefer eller underordnede? Alt sammen meget kontroversielt. På trods af den slags virksomheders markedsføring er det videnskabelige grundlag meget svagt. Man kan slet ikke anvende kunstig intelligens til at komme frem til troværdige resultater på det felt.”
Alligevel vokser markedet for den slags software, som bliver stadig mere udbredt i virksomhedernes HR-afdelinger, lyder hans pointe.
Medarbejderne mister indflydelse
Hvad betyder det for medarbejderne?
”Her er det meget svært at generalisere, fordi jeg er nødt til at indrømme, at vi indtil nu har set meget lidt af, hvad arbejdsgiverne rent faktisk bruger analyserne fra de systemer til. De er ikke åbne om det. Der er en risiko for, at medarbejderne mister mulighed for selv at bestemme over deres arbejdsdag, fordi de med disse komplekse systemer ikke aner, hvad der foregår. De har ikke en chance for at gennemskue, hvad der ligger bag de beslutninger, som vedrører dem.”
”Selv uden brug af kunstig intelligens er det kompliceret på den enkelte arbejdsplads at finde ud af, hvad man som medarbejder selv kan bestemme. Eller hvorfor arbejdsgiver foretager de og de afgørelser i forhold til den enkelte medarbejder.”
”Men husk på, i Algorithmwatch siger vi ikke, at det gør situationen værre eller bedre for medarbejderne. Men første skridt må være at gøre det meget mere gennemskueligt, hvad der foregår, så vi hver især har mulighed for selv at drage vores egne konklusioner. I sidste instans er det afgørende, hvilke regler som gælder i de enkelte lande for medarbejdernes medbestemmelse på arbejdspladsen.”
”Komplekse systemer er ikke noget nyt, som vi først lige har opdaget.”
Matthias Spielkamp, Algorithmwatch
Hold arbejdsgiverne ansvarlige
Problemet er vel, at mange af den slags systemer er usynlige for medarbejderne. Det kan foregå umærkeligt i baggrunden. Medarbejdere kan ikke vide, om de f.eks. bliver overvåget af arbejdsgiver på deres hjemmearbejdsplads, som har været udbredt under COVID-19. Så hvordan skal medarbejderne kunne holde arbejdsgiverne ansvarlige for at bruge den slags, hvis de ikke ved, at det foregår?
”Det er fuldkommen rigtigt. Det er en vigtig pointe, fordi det rejser spørgsmålet, hvordan holder vi dem ansvarlige. Her bliver det komplekst, fordi det er meget svært at holde arbejdsgiverne ansvarlige. Men den grundlæggende præmis er gennemsigtighed. Vi har brug for at få at vide, i hvilket omfang den slags systemer bliver brugt, og hvad de bliver brugt til.”
”Det gælder f.eks. også, hvilke parametre som systemet anvender til at analysere menneskelig adfærd. Realiteten er bare, at vi ikke har den gennemsigtighed. Vi er ikke de eneste, som er kommet frem til, at det er det grundlæggende problem.”
”Du er sikkert bekendt med, at EU er kommet med et særdeles kompliceret forslag til at regulere kunstig intelligens. Her forslår de, at systemer, som bliver brugt på arbejdspladsen til at ramme medarbejderne, er højrisiko-applikationer. Men om det betyder, at vi i sidste ende kan holde virksomheder ansvarlige, er stadig usikkert.”
”Vi aner ikke, om vi vil være i stand til at finde ud af, om den type algoritmer bliver brugt. Og vi ved ikke, hvilke muligheder der er for at håndtere dem, hvis de viser sig at give problemer for os som medarbejdere.”
Er vi nødt til at udfordre det ved domstolene? Eller er der tilsynsmyndigheder i de forskellige lande? Og gør de nok ved det? Vi ved jo, at nok er der regler om beskyttelse af private data, men der bliver også set stort på dem mange steder. Netop fordi der ikke er stærke myndigheder til at håndhæve reglerne. I dag er det et åbent spørgsmål, om vi overhovedet vil være i stand til at holde algoritmer ansvarlige.”
Det er altid menneskene, som tager beslutningerne
Hvorfor holde algoritmer ansvarlige? Er det ikke vores arbejdsgivere eller leverandørerne, der har udviklet disse systemer, som vi skal holde ansvarlige?
”Det er en meget vigtig pointe. Vi gør meget ud af at understrege, at vi ikke gør algoritmer, den kunstige intelligens, ansvarlige. Det er altid menneskene, som tager beslutningerne. Og det er altid menneskene bag, som skal holdes ansvarlige for de systemer, som de vælger at anvende.
Men det er ikke så nemt, som det lyder. Systemerne er så komplekse, og de bliver stadig mere komplicerede. Vi har talt om, at IT-systemer bliver mere og mere indviklede de sidste årtier.
Det er ikke lige som i 1990erne, hvor cheferne talte om, hvor simpelt det var at installere et SAP-system (tysk Enterprise Ressource Planning-system til virksomheder, red.). Men nej, det var ikke simpelt. Det var uhyre komplekst, og meget få forstod det. Så komplekse systemer er ikke noget nyt, som vi først lige har opdaget.
Men fakta er, at vi nu har systemer, som bruger machine learning, der er i stand til at anvende så store datamængder til at se sammenhænge, at de mennesker, som programmerede dem, ikke er i stand til at forudse, hvad der kommer ud af det.
Min pointe er ikke, at de systemer er så selvstændige, at vi skal holde dem ansvarlige. Men vi er nødt til at erkende, at vi ikke længere kan overskue konsekvenserne af at anvende dem. Og vi risikerer, at de mennesker, som bruger og udvikler de systemer, anvender det argument til at fralægge sig ansvaret. Det må simpelthen ikke ske. Det går bare ikke, at leverandørerne siger, at de ikke havde mulighed for at forudse konsekvenserne, så de derfor ikke er ansvarlige.
Måske kan være mere vanskeligt end tidligere at finde ud af, hvem der er ansvarlig, så vi er nødt til at få klare linjer for, hvem der har ansvaret for hvad.”
Svært at argumentere mod data
Hvis vi antager, at en menig medarbejder er lidt skeptisk overfor dine argumenter, og siger: ja, ja, der kommer altid dommedagsprofetier om ny teknologi. Hvorfor skal hun eller han tage det her alvorligt?
”Det er der flere grunde til. Vigtigst af alt er, at de systemer, som nu kommer på markedet, afhænger af store mængder data om hvert enkelt individ.
Hvis vi nu forestiller os, at jeg er leder i en virksomhed, og jeg mener, at den slags systemer kan hjælpe mig til at træffe bedre beslutninger. Det betyder, at jeg vil have fordel af at anvende så mange data, som jeg kan skrabe sammen om mine medarbejdere. Jo flere data, jo bedre resultater kan systemerne levere. Det betyder mere overvågning af medarbejderne.
Samtidig bliver det, som jeg før nævnte, mere uigennemsigtigt, hvad der foregår. Hvis den virksomhed, du arbejder for, anvender den slags system, kan det være meget svært at finde modargumenter, hvis algoritmerne regner sig frem til, at du ikke gør dit arbejde godt nok.
HR-folkene vil altid være i stand til at sige, at det her meget sofistikerede kunstig intelligens-system har analyseret alle de data. Og det er svært at modsige data. Vi mennesker har det med at tro på det, maskinerne og algoritmerne kommer frem til.”