Kunstig intelligens tager også fejl
Kunstig intelligens tager også fejl
Brugen af kunstig intelligens (AI) og machine learning indtager i den grad det offentlige lige nu, hvor man ser test af alt fra chatbots, intelligente assistenter og AI sagsbehandlere. Men teknologien skaber også nogle etiske dilemmaer.
Ingen tvivl om, at der ligger et kæmpe potentiale i at benytte kunstig intelligens til at finde mønstre i sagsbehandlingen, identificere nedbrud og fejl eller til at håndtere borgerhenvendelser hurtigt og effektivt.
95 procent af de adspurgte embedsmænd i en nylig Microsoft-analyse mener da også, at kunstig intelligens kan være med til at lette opgavepresset i det offentlige. Så det er med god grund, når 63 procent af de offentlige myndigheder nu investerer mere i nye teknologier end tidligere.
Der vil ske fejl
Med kunstig intelligens, der er programmeret til at være mere eller mindre selvlærende, og som kan indsamle, analysere og give svar på egen hånd, dukker der dog også nye udfordringer op, som vi skal forholde os til.
Et oplagt spørgsmål er, hvem der har skylden, hvis kunstig intelligens fejler.
Vi har for længst accepteret, at mennesker, uanset hvor dygtige og professionelle de nu engang er, en gang i mellem laver fejl i forhold til indsamling af data, analyser og efterfølgende beslutninger. For vi ved, at på trods af alt er ingen af os ufejlbarlige.
Men vil vi i samme grad acceptere fejl, når det handler om kunstig intelligens eller forventer vi det ufejlbarlige?
Vi kan starte med at slå fast, at uanset om der er tale om mennesker, mekanik eller software, så vil der ske fejl. Det kan ikke undgås. Men al erfaring tyder på, at antallet af fejl falder ganske markant, hvis man bruger selvlærende software til at analysere millioner af data og hele tiden optimerer sine output.
Det har vi blandt andet set i forhold til sundhed, hvor kunstig intelligens allerede nu er bedre end speciallæger til at spotte kræftsvulster på scanninger, og dermed kan være med til at sikre, at flere bliver behandlet i tide.
Kunstig intelligens kan utvivlsomt hjælpe os til bedre at vurdere en sag om tvangsfjernelse af børn, at beslutte retten til boligstøtte og i forhold til at finde den rigtige sygdomsbehandling.Men hvor mange data, og hvilke data er det rimeligt at det offentlige indsamler og anvender for at træffe bedre beslutninger?
Ansvaret skal placeres
Men naturligvis kan og vil kunstig intelligens også overse ting. Det så man i ovenstående studie, hvor AI’en ramte rigtigt i 94 procent af tilfældene. Kunstig intelligens laver stadig fejl og overser kræftsvulster, men det betyder ikke nødvendigvis, at den ikke bør bruges.
Derimod må vi som nævnt have en væsentlig debat om, hvem der har ansvaret, og hvad man gør, når kunstig intelligens laver fejl.
Hvis en læge laver fejl i en vurdering eller en behandling, kan man klage over lægen. Men hvem skal have skylden, når det er en computer der har ramt ved siden af? Skal lægen, der har valgt at bruge den kunstige intelligens, leverandøren der har bygget løsninger, eller en helt tredje?
Får vi ikke taget dén diskussion, kan det føre til berøringsangst for at tage en teknologi i brug, som ellers kan være med til at forbedre den offentlige service og måske i sidste ende redde menneskeliv.
Uklart hvad AI kan bruges til
En software robot kan kigge igennem tusindvis af data, sætte dem sammen og analysere dem hurtigere og langt mere effektivt, end noget menneske formår at gøre det. Data skaber et fantastisk grundlag til at træffe bedre beslutninger på.
Det er ikke teknologien, der bremser os her. Den gør det muligt at træffe beslutninger på baggrund af tæt på uendeligt store datamængder om den enkelte borger. Spørgsmålet er da heller ikke længere, om man kan, men om hvornår man skal gøre det med hvilke data og hvilke grundlæggende rettigheder borgeren har i den forbindelse.
Kunstig intelligens kan utvivlsomt hjælpe os til bedre at vurdere en sag om tvangsfjernelse af børn, at beslutte retten til boligstøtte og i forhold til at finde den rigtige sygdomsbehandling.
Men hvor mange data, og hvilke data er det rimeligt at det offentlige indsamler og anvender for at træffe bedre beslutninger? Det findes der nok ikke et nemt og endegyldigt svar på, og netop derfor er denne diskussion så vigtig at tage.
Tryghed og tillid skal sikres
Der er ingen tvivl om, at potentialet for kunstig intelligens er enormt. Det multinationale konsulenthus Capgemini forudser faktisk, at brugen af AI kan øge det globale GDP (bruttonationalprodukt) med 1,4 procent, svarende til 27,7 billioner kroner allerede om fem år. Så man kunne være fristet til at sige: Hvad venter vi på? Lad os komme i gang.
Men vi har behov for at tage en åben og løbende debat om, hvordan vi bedst bruger kunstig intelligens. For de største barrierer for at accelerere anvendelsen, er ikke teknologien og resultaterne, men nødvendigheden af at balancere mulighederne med tillid og tryghed, så borgerne oplever, at deres ret til privatliv og databeskyttelse er sikret på rejsen.
Tekst, grafik, billeder, lyd og andet indhold på dette website er beskyttet efter lov om ophavsret. DK Medier forbeholder sig alle rettigheder til indholdet, herunder retten til at udnytte indholdet med henblik på tekst- og datamining, jf. ophavsretslovens § 11 b og DSM-direktivets artikel 4.
Kunder med IP-aftale/Storkundeaftaler må kun dele Kommunen.dks artikler internet til brug for behandling af konkrete sager. Ved deling af konkrete sager forstås journalisering, arkivering eller lignende.
Kunder med personligt abonnement/login må ikke dele Kommunen.dks artikler med personer, der ikke selv har et personligt abonnement på kommunen.dk
Afvigelse af ovenstående kræver skriftlig tilsagn fra det pågældende medie.