Sommetider modtager jeg stadig spørgsmål om kunstig intelligens fra folkeskoleelever. Her er mit svar til Adam, som andre måske kan blive inspireret af.
Beskriv hvad du frygter mest ved fremtidens teknologi?
Det er ikke en enkelt teknologi, men mere at teknologi bliver anvendt forkert, eller uden af man tager forbehold for de etiske overvejelser, der kan være ved brugen. Det kan f.eks. være:
- Chatrobotter, der udtrykker eller kan bringes til at udtrykke sig racistisk, opfordre til vold eller selvskade eller lignende se. f.eks. her: Chatrobot anklages for at foreslå teenager at dræbe sine forældre – TV 2
- AI genererede billede eller videoer, der anvendes til at lave f.eks. fake news. Du kan finde forklaringer og sikkert gode eksempler her: Fake news – falske nyheder | Faktalink EU arbejder for øvrigt på lovgivning, der skal kræve at billeder og videoer, der er genereret bliver stemplet, så alle kan se, at det er genereret, og at man kan se, hvilket stykke software, der er anvendt til at genere. se f.eks. her: EU’s lovgivning for kunstig intelligens skal blive den første i verden | Emner | Europa-Parlamentet specifikt omkring billeder og videoer, se under overskriften Krav til gennemsigtighed.
- Alt brug af kunstig intelligens (f.eks. i droner) og andre autonome enheder til at føre krig.
- Eller brug af neurale netværk til at finde kandidater til en stilling, men som forfordeler bestemte typer, racer eller køn eller afhjælpe bias. Kunstig intelligens kan mindske bias i rekruttering
- En anden teknologi, som jeg interessere mig lidt for i øjeblikket, er forhold omkring cyborg teknologi. Det er ikke så meget oppe i tiden, men rør alligevel på sig en gang i mellem. Det handler om at bruge teknologi til at reparere kroppen, f.eks. proteser med forbindelse til hjernen og muskler. Men det spørgsmål, man kan stille sig er, hvis nu vi kunne lave denne arm stærkere end almindelige arme (det kan man allerede), er det så okay? eller ændrer vi på kroppen, og på de betingelser vi som mennesker har? Vi vil gerne få blinde til at se igen, men vil vi udstyre dem med nattesyn, og hvilken udvikling kan det give? Soldater udstyret med… du kan selv fortsætte. Igen handler det ikke om en teknologi, men hvad bruger vi den til.
Så svaret er, at jeg frygter vores anvendelse og manglende etiske overvejelser mere end selv teknologien.
Vil du mene at udviklingen af teknologi går for stærkt?
Nej, det mener jeg ikke. Det er en udvikling, der kan være svær at stoppe eller kontrollere, da det er drevet af økonomiske eller politiske interesser. Men det er på lovgivningssiden, at rammerne skal sættes, og man hurtigt skal gøre noget, hvor der skal stilles krav til udviklere og producenter, således at borgerne beskyttes (f.eks. vores data (GDPR), men også ved at sikre gennemsigtighed, som EU nu forsøger med lovgivning omkring kunstig intelligens.
Personligt er jeg dog lidt i tvivl ift. våben og autonom krigsførelse.
Her tror jeg desværre, at udviklingen går for hurtig og foregår udenfor almindelig lovgivnings rækkevide, og samtidigt er det et område, hvor der er stor udvikling grundet krigen i Ukraine og krige og uroligheder i mellemøsten, og politiske ændringer andre steder i verden.
Er der etiske dilemmaer der skal tages stilling til, som forudsætning for udviklingen af fremtidens teknologi?
Ja, der er altid etiske dilemmaer ved udvikling og brug af teknologi, specielt kunstig intelligens, automatisering, robotter, forbedring af kroppe osv. Så der er ikke et etisk dilemma men mange. Hver gang vi tager en teknologi i brug eller udvikler den, bør vi efter min overbevisning være bevidste om, hvad det, vi er i gang med, har af etiske konsekvenser, og hvordan disse håndteres. En emne der har været meget i fokus, er at neurale netværk, som de udvikles i dag ikke kan fortælle, hvordan det nåede frem til en løsning eller til den beslutning, de foreslår/tager. Og så længe man ikke har en måde hvormed, man kan spørge et neuralt netværk, hvordan det nåede frem til løsningen, så har vi et etisk dilemma, for hvordan ved vi, at netværket ikke tager fejl, er blevet biased, eller på andre måder påvirket, så en diagnosemaskine fejlagtigt ikke giver den samme diagnose, som en læge ville. Dette er et emne, der blandt andet forskes i i Norge, Hvis du har tid og interesse, så lån denne bog: Inga Stümke – Maskiner der tænker. .
Hvilke forudsætninger skal være til stede, for at vi kommer til at bruge fremtidens teknologi på en positiv måde?
Stort spørgsmålet, og igen er svaret, at der ikke er en forudsætning, men mange. Det, som er min agenda, er, at fremtidens teknologi altid vil give os dilemmaer, og vi skal gøre os og specielt børn og unge (jer) opmærksomme på, at der er disse dilemmaer, så I kan gå til ny teknologi med nysgerrighed og interesse, men også en stor del skepsis og velovervejede holdninger til, hvad man skal bruge teknologien til, derfor er teknologiforståelse faktiske et af de fag, jeg virkelig savner i den danske folkeskole. Det bliver tit lagt ind under dansk, men burde have mere fokus selv. De tre bøger jeg indtil videre har skrevet, handler hver i sær om et etisk dilemma. En om en bevidst kunstig intelligens, en om et ulykke med en selvkørende bil, og den sidste om ulovlig udvikling af cyborg teknologi. Jeg har skrevet dem for at sætte fokus på de etiske overvejelser omkring teknologi, da det for mig er centralt for alle unge. Det er det også for voksne, men I kommer til at overtage, og drive udviklingen og ibrugtagningen, og hvis ikke I er bevidste om muligheder og dilemmaer, så kan det nemt gå galt, og virksomheder eller politiske interesser kommer til at drive udviklingen ude af kontrol
Så fokus i skolerne og i uddannelsessystemet er en af de vigtigste forudsætninger for, at vi kan bruge teknologien på en positiv måde i dag og i fremtiden.