Múte: Kunstig intelligens skal bruges med omtanke

Brugen af kunstig intelligens kan være et positivt fremskridt, men anvendelsen skal ske med omtanke og en kritisk tilgang, fastslår Múte B. Egede.

Múte B. Egede oplyser, at Selvstyret endnu ikke har konkrete planer om at bruge kunstig intelligens, der er rettet mod borgerne.
Offentliggjort

Naalakkersuisut vil stille krav om, at myndigheder skal kunne dokumentere, at anvendelsen af kunstig intelligens er dataetisk forsvarligt før man gør brug af det.

Det fremgår af et paragraf 37 svar fra Múte B. Egede til IA-kollegaen Asii Chemnitz Narup.

- Når offentlige myndigheder begynder med at anvende kunstig intelligens, skal det ske på et transparent grundlag. Den offentlige myndighed skal kunne dokumentere, hvordan den kunstige intelligens, når frem til resultatet. Dette for at sikre den nødvendig tillid til, at borgere og virksomheder kan være sikre på, at der træffes en korrekte afgørelse, understreges det i svaret.

Særlige forhold i Grønland

Múte B. Egede vurderer, at mange offentlige sagsområder kan ende med at anvende kunstig intelligens, men helt særlige grønlandske forhold gør sig gældende, bliver det pointeret:

- For den grønlandske offentlige administration er der stadig nogle grundlæggende forudsætninger, der mangler, da områder ikke er digitaliseret endnu eller datagrundlaget ikke er egnet til kunstig intelligens.

Forventningen er, at Grønland kan høste fordele af den digitale udvikling inden for sundhed, uddannelse og velfærdsområdet.

Tre dilemmaer

I svarbrevet listes tre dilemmaer op, som man skal have for øje, før kunstig intelligens tages i anvendelse:

  • Bias i data, hvor datagrundlaget ikke repræsenterer den mangfoldighed af borgere som findes.
  • Manipulation af offentliggjort materiale til at blive anvendt på en krænkende måde for især private personer ved falske billeder, lydfiler og video kaldet deep fakes.
  • Kunstig intelligens til brug ved opgaveskrivning, ansøgninger, artikler etc.

- Skal en kunstig intelligens-løsning træffe afgørelse på et sagområde med virkning for borgere og virksomheder, skal den dataetiske vurdering tage stilling til risikoen for, at fejlagtige afgørelser indtræffer. Denne risiko skal være lav før en sådan løsning kan idriftsættes, fastslår Múte B. Egede.

Ingen konkrete planer

Han oplyser, at der endnu ikke er nogen konkrete planer om at benytte kunstig intelligens, der er borgerrettet. Desuden bliver det understreget, at det muligvis vil kræve, at der skal ske ændring af gældende lovgivning, ”før det vil være muligt at etablere en tilstrækkelig sikker løsning med kunstig intelligens.

Powered by Labrador CMS