“DET FØRSTE, DE SPØRGER OM, ER, HVOR MEGET VI KAN LYTTE MED”
”En ting er, at der findes regler, men det handler også om at skabe en kultur internt hos os – i hele organisationen – hvor privacy by design ” er vores løfte til kunderne.”
Niels Henrik Pontoppidan
Ned fra hylden
Selvom det første produkt, hvor Oticon anvender kunstig intelligens i signalbehandlingen, kun har to år på bagen, så har Niels Henrik Pontoppidan og hans kollegaer siden de tidlige 00’ere vidst, at maskinlæring på et tidspunkt ville komme til at udgøre et vigtigt element i fremtidens høreapparater. Den tid er nu kommet, men forud er gået en lang ventetid.
“Oticon har arbejdet med maskinlæring on-off i over 20 år. Vi kunne tidligt se, at det ville komme, og at det ville komme til at gøre en forskel for os. Så vi har undersøgt det ad flere omgange, men en del gange har vi været nødt til at sætte det på hylden, fordi teknologien ikke var langt nok fremme,” siger han og fortsætter:
“Der er et community for TinyML, altså maskinlæring på små enheder. Da dét begyndte at vokse, fulgte vi godt med og kunne se, at det nærmede sig. Men vi købte ikke de enheder ind, vores hardware-afdeling har bygget det hele fra grunden.”
Og pludselig gik det stærkt:
“En dag for fem-seks år siden kunne vi se, at det var ved at være tid. Vi fik datablade på nogle af de chipsets, der endnu ikke var på markedet, men var på vej. Dér kunne vi se, at vi nærmede os specifikationer, der kunne levere til vores behov. Hidtil havde det været langt fra, men nu begyndte de to ender at mødes. Da vi sad dér og lavede en hurtig udregning bag på et stykke papir, kunne vi se, at det var nu, det ville ske.”
I oktober 2020 kom det første produkt med kunstig intelligens i signalbehandlingen af lyd på gaden, og der er ikke langt til, at det er standard i alle Oticons høreapparater. Selve løsningen er udviklet af deres kollegaer fra Oticons udviklingsafdeling baseret på forskningsresultater fra Aalborg Universitet.
“Jeg kan ikke forestille mig, at vi om fem år sælger høreapparater, hvor der ikke på en eller anden måde er maskinlæring involveret,” siger Niels Henrik Pontoppidan.
”Hvis vi skal lave individuelle løsninger, så skal vi bruge folks private data. Derfor kigger vi på modeller, hvor folk opsamler data på deres eget apparat, men kun sender de beregnede parametre til os, i stedet for at sende den private data til os.”
Niels Henrik Pontoppidan
“Kunstig intelligens kan noget, som vi ikke selv kan”
For Oticon handler maskinlæringselementet – “kunstig intelligens, som man kalder det indenfor marketing,” som Pontoppidan siger – lige nu om at filtrere lyden, så brugerne lettere kan skelne mellem relevante stemmer og unødig baggrundsstøj.
“Vi træner høreapparaterne til at rense lydsignalerne og opnår en effekt, som vi ikke kunne med de algoritmer, vi udvikler. Kunstig intelligens kan overskue noget, som vi ikke selv kan. Vi trækker talesignalet ud af lyd, hvor tale og støj er blandet. Vi har trænet på et datasæt med 12 millioner situationer, hvor forskellige typer af tale og støj ligger oveni hinanden. Maskinlæring giver mulighed for at se mønstre, som vi aldrig selv ville kunne finde. Ingen kan jo overskue så store datamængder,” siger han.
Og det er med stor succes, hvis han selv skal sige det.
“Mennesker med høretab har svært ved at adskille de forskellige lydkilder. Det ser ud til, at den kunstige intelligens løser den opgave ret godt.”
Men Pontoppidan og hans kollegaer forsøger også at skabe ny viden.
“Vi arbejder med data, som vi logger fra høreapparaterne for at finde ud af, hvornår og hvordan kunderne bruger dem. Vi kan se mønstre i, hvordan forskellige mennesker opfører sig med deres høreapparater, og vi undersøger, om forskellige typer af høreapparater giver forskellig adfærd. I sidste ende kommer vi til at kunne individualisere høreapparaterne fuldstændigt til den enkelte bruger.”
På ret kurs
Netop fordi der er tale om private samtaler har Oticon fra start lagt et meget strikst rammeværk omkring databrugen og -beskyttelsen, og designet deres høreløsninger, så det ganske enkelt ikke er muligt at modtage lydoptagelser af samtaler. Apparaterne logger øjebliksbilleder af lydbillederne f.eks. hvert 20. sekunder eller hvert minut. På den måde kan ingen personlige samtaler på noget tidspunkt hverken optages eller viderebringes fra kundens høreapparat.
“Vi skulle lave et projekt, hvor flere hundrede brugere skulle logge data i et helt år. Vi snakkede med brugerne, og det første spørgsmål de allesammen stillede var: ‘Hvor meget kan I lytte med?’, så vi er ikke i tvivl om, at vi er på ret kurs,” siger Niels Henrik Pontoppidan.
Han uddyber dataindsamlingen:
“Du kan sammenligne det med de grafiske equalizere, der var på stereoanlæg tidligere. Vi deler lyden op i frekvensbånd og får niveauet for hvert frekvensbånd en til tre gange i minuttet. Vi får kun dét, og intet andet. Det sendes via brugerens mobiltelefon. Vi kan ikke identificere mennesker, situationer eller stemmer, men vi kan identificere, om der er kraftig støj eller høj tale, og det er den information, vi skal bruge.”
Af etiske årsager er datamodellerne også trænet på udelukkende offentligt tilgængelige databaser med lydeksempler, der ikke indeholder personfølsomme data.
Federated learning skal beskytte personfølsom data
Men hvis fremtidens høreapparater skal individualiseres, så bliver den etiske udfordring potentielt større. For hvordan får man maskinlæring til at personliggøre et høreapparats indstillinger uden at skulle have snablen ned i brugerens private samtaler? Det arbejder Oticon allerede på, siger Niels Henrik Pontoppidan.
“Hvis vi skal lave individuelle løsninger, så skal vi bruge folks private data. Derfor kigger vi på modeller, hvor folk opsamler data på deres eget apparat, men kun sender de beregnede parametre til os i stedet for at sende den private data til os. Det kaldes federated learning, og er en måde at undgå, at vi skal have personfølsom data ind.”
Årsagen er de potentielle etiske problemstillinger, der ville følge med at have lydoptagelser af kundernes private samtaler tilgængelige for virksomheden. Pontoppidan understreger, at det etiske aspekt er helt centralt i Oticons forskning. Men selvom etikken kan lægge udfordringer ud for den teknologiske udvikling, så er Oticon først lige begyndt.
“Om fem år har vi spredt kunstig intelligens meget mere ud. Vi bruger det flere steder i organisationen, men det kommer mere og mere. Det er ikke en tsunami, men en glidende udvikling. Vi kommer til at se flere og flere eksempler på, at man kan tage en bestemt kernefunktionalitet og forbedre den ved hjælp af maskinlæring. Jeg har tiltro til, at der kommer høreapparater, der er næsten 100 procent baseret på kunstig intelligens, men det ligger længere ude i fremtiden,” siger Niels Henrik Pontoppidan, der understreger, at andre virksomheder i branchen også arbejder intenst med kunstig intelligens.
“Vi ser meget fremad. Vi prøver at forudse, hvad der er brug for i fremtiden. Hvad er bleeding edge-teknologi om fem år? Vores hardware og vores viden skal sikre, at vi er foran konkurrenterne,” afrunder han. \
FAKTA: BAG OM OTICON
Danske Oticon A/S er en af verdens største høreapparatproducenter. Firmaet, som er en del af Demant-koncernen, blev stiftet i 1904. Hovedkontoret ligger i Smørum nord for København, men Oticon har kontor i 27 lande fordelt på seks kontinenter.
HØREAPPARATER
Ifølge Høreforeningen bruger cirka 300.000 danskere høreapparat. Som udgangspunkt har borgere, der har et hjælpekrævende høretab, ret til at låne et høreapparat gratis i det offentlige sundhedsvæsen.
”Vi kommer til at se flere og flere eksempler på, at man kan tage en bestemt kernefunktionalitet og forbedre den ved hjælp af maskinlæring. Jeg har tiltro til, at der kommer høreapparater, der er næsten 100 procent baseret på kunstig intelligens, men det ligger længere ude i fremtiden.”
Niels Henrik Pontoppidan