ISC's guide tilbyder en omfattende ramme designet til at bygge bro mellem principper på højt niveau og praktisk, handlingsvenlig politik. Det imødekommer det presserende behov for en fælles forståelse af både de muligheder og risici, der er forbundet med nye teknologier. Dette er et væsentligt dokument for dem, der arbejder på den politiske nexus i vores hurtigt skiftende digitale æra.
Rammen udforsker potentialet i AI og dets derivater gennem en omfattende linse, der omfatter menneskelig og samfundsmæssig velvære sammen med eksterne faktorer som økonomi, politik, miljø og sikkerhed. Nogle aspekter af tjeklisten kan være mere relevante end andre, afhængigt af konteksten, men bedre beslutninger virker mere sandsynlige, hvis alle domæner tages i betragtning, selvom nogle hurtigt kan identificeres som irrelevante i særlige tilfælde. Dette er den iboende værdi af en tjeklistetilgang.
"I en æra præget af hurtig teknologisk innovation og komplekse globale udfordringer, giver ISC's rammer for omfattende og multidimensionel analyse af de potentielle påvirkninger ledere i stand til at træffe informerede, ansvarlige beslutninger. Det sikrer, at når vi avancerer teknologisk, gør vi det med en omhyggelig overvejelse af de etiske, sociale og økonomiske implikationer”.
Peter Gluckman, ISC-præsident
Mens principper på højt niveau er blevet bekendtgjort af blandt andet UNESCO, OECD, Europa-Kommissionen og FN, og forskellige diskussioner fortsætter vedrørende spørgsmål om potentiel styring, regulering, etik og sikkerhed, er der en stor kløft mellem sådanne principper og en styring eller lovgivningsmæssige rammer. ISC imødekommer dette behov gennem sin nye vejledning til politiske beslutningstagere.
Denne vejledning til politiske beslutningstagere er ikke beregnet til at forbyde et reguleringsregime, men snarere at foreslå en adaptiv og udviklende analytisk ramme, som kan understøtte enhver vurdering og reguleringsprocesser, der måtte udvikles af interessenter, herunder regeringer og det multilaterale system.
"Rammen er et kritisk skridt i den globale samtale om kunstig intelligens, da den giver et grundlag, hvorfra vi kan bygge konsensus om implikationerne af teknologien for både nu og i fremtiden."
Hema Sridhar, tidligere chefvidenskabelig rådgiver, Forsvarsministeriet, New Zealand og nu seniorforsker Fellow, Universitetet i Auckland, New Zealand.
Siden oktober 2023 har der været flere betydelige nationale og multilaterale initiativer med yderligere overvejelser om AI's etik og sikkerhed. Implikationerne af AI på integriteten af nogle af vores kritiske systemer, herunder finansielle, offentlige, juridiske og uddannelsesmæssige samt forskellige vidensystemer (herunder videnskabelig og indfødt viden), vækker stigende bekymring. Rammen afspejler yderligere disse aspekter.
Den tilbagemelding, der er modtaget fra ISC-medlemmer og det internationale politikskabende samfund til dato, afspejles i den reviderede version af den analytiske ramme, som nu er udgivet som en guide til politiske beslutningstagere.
En guide til politiske beslutningstagere: Evaluering af teknologier, der udvikler sig hurtigt, inklusive kunstig intelligens, store sprogmodeller og mere
Dette diskussionsoplæg giver skitseringen af en indledende ramme til at informere om de mange globale og nationale diskussioner, der finder sted relateret til kunstig intelligens.
Download rammen til brug i din organisation
Her leverer vi rammeværktøjet som et redigerbart Excel-ark til brug i din organisation. Hvis du foretrækker et open source-format, bedes du kontakte [e-mail beskyttet].
Introduktion
Hurtigt fremvoksende teknologier giver udfordrende problemer, når det kommer til deres brug, styring og potentiel regulering. Den igangværende politik og offentlige debatter om kunstig intelligens (AI) og dens brug har bragt disse spørgsmål i akut fokus. Brede principper for kunstig intelligens er blevet annonceret af UNESCO, OECD, FN og andre, herunder Storbritanniens Bletchley-erklæring, og der er nye jurisdiktionsforsøg på regulering af aspekter af teknologien gennem for eksempel Den Europæiske Unions (EU) AI Act eller den nylige US AI Executive Order.
Mens brugen af kunstig intelligens diskuteres indgående i disse og andre fora, på tværs af geopolitiske skel og i lande på alle indkomstniveauer, er der stadig en ontologisk kløft mellem udviklingen af principper på højt niveau og deres inkorporering i praksis gennem enten regulering, politik, styring eller forvaltning nærmer sig. Vejen fra princip til praksis er dårligt defineret, men i betragtning af arten og kadencen af AI-udvikling og anvendelse, mangfoldigheden af involverede interesser og rækken af mulige anvendelser, kan enhver tilgang ikke være alt for generisk eller præskriptiv.
Af disse grunde spiller det ikke-statslige videnskabelige samfund fortsat en særlig rolle. Det Internationale Videnskabsråd (ISC) – med sit pluralistiske medlemskab fra samfunds- og naturvidenskaberne – udgav et debatoplæg i oktober 2023, der præsenterede en foreløbig analytisk ramme, der overvejede risici, fordele, trusler og muligheder forbundet med digital teknologi i hastig udvikling. Selvom det blev udviklet til at overveje AI, er det i sagens natur teknologiagnostisk og kan anvendes på en række nye og forstyrrende teknologier, såsom syntetisk biologi og kvante. Dette diskussionsoplæg inviterede til feedback fra akademikere og politiske beslutningstagere. Den overvældende feedback gjorde det nødvendigt at udføre en sådan analyse og stod som en værdifuld tilgang til at adressere nye teknologier som AI.
Formålet med rammen er at give et værktøj til at informere alle interessenter – herunder regeringer, handelsforhandlere, regulatorer, civilsamfundet og industrien – om udviklingen af disse teknologier for at hjælpe dem med at formulere, hvordan de kan overveje konsekvenserne, positive eller negative, af selve teknologien, og mere specifikt dens særlige anvendelse. Denne analytiske ramme er udviklet uafhængigt af regerings- og industriinteresser. Den er maksimalt pluralistisk i sine perspektiver, og den omfatter alle aspekter af teknologien og dens implikationer baseret på omfattende høring og feedback.
Dette debatoplæg til politiske beslutningstagere er ikke beregnet til at forbyde et reguleringsregime, men snarere at foreslå en adaptiv og udviklende analytisk ramme, som kunne understøtte enhver vurdering og reguleringsprocesser, der måtte udvikles af interessenter, herunder regeringer og det multilaterale system.
Da beslutningstagere globalt og nationalt overvejer passende politiske indstillinger og løftestænger til at afbalancere risici og fordele ved en ny teknologi såsom AI, er den analytiske ramme tænkt som et komplementært værktøj til at sikre, at hele pakken af potentielle implikationer afspejles tilstrækkeligt.
Baggrund: hvorfor en analytisk ramme?
Den hurtige fremkomst af teknologier med kompleksiteten og implikationerne af AI driver mange påstande til stor fordel. Det vækker dog også frygt for betydelige risici, fra individuelt til geostrategisk niveau.1 Meget af diskussionen til dato er blevet betragtet i binær forstand, da offentligt udtrykte synspunkter har en tendens til at finde sted i de yderste ender af spektret. Påstandene for eller imod AI er ofte hyperbolske og – i betragtning af teknologiens karakter – svære at vurdere.
En mere pragmatisk tilgang er nødvendig, hvor hyperbole erstattes med kalibrerede og mere granulære evalueringer. AI-teknologi vil fortsætte med at udvikle sig, og historien viser, at stort set enhver teknologi har både gavnlige og skadelige anvendelser. Spørgsmålet er derfor: hvordan kan vi opnå de gavnlige resultater fra denne teknologi, samtidig med at vi reducerer risikoen for skadelige konsekvenser, hvoraf nogle kunne være eksistentielle i omfang?
Fremtiden er altid usikker, men der er tilstrækkeligt med troværdige og ekspertstemmer vedrørende AI og generativ AI til at tilskynde til en relativt forsigtig tilgang. Derudover er en systemtilgang nødvendig, da AI er en klasse af teknologier med bred anvendelse og anvendelse af flere typer brugere. Dette betyder, at den fulde kontekst skal overvejes, når man overvejer implikationerne af enhver brug af kunstig intelligens for individer, det sociale liv, det civile liv, det samfundsmæssige liv og i den globale kontekst.
I modsætning til de fleste andre teknologier, for digitale og relaterede teknologier, er tiden mellem udvikling, udgivelse og anvendelse ekstremt kort, i høj grad drevet af produktionsselskabernes eller bureauernes interesser. I sagens natur – og da det er baseret på det digitale rygrad – vil AI have applikationer, der er hurtigt udbredte, som det allerede er set med udviklingen af store sprogmodeller. Som følge heraf kan nogle egenskaber først blive synlige efter løsladelse, hvilket betyder, at der er risiko for uforudsete konsekvenser, både ondsindede og velvillige.
Vigtige samfundsværdier, især på tværs af forskellige regioner og kulturer, vil påvirke, hvordan enhver brug opfattes og accepteres. Desuden dominerer geostrategiske interesser allerede diskussionen, hvor suveræne og multilaterale interesser løbende krydser hinanden og dermed driver konkurrence og splittelse.
Hidtil er meget af reguleringen af en virtuel teknologi i vid udstrækning blevet set gennem linsen af "principper" og frivillig overholdelse, dog med EU's AI-lov2 og lignende ser vi et skift til mere håndhævede, men noget snævre regler. Etablering af et effektivt globalt eller nationalt teknologistyrings- og/eller reguleringssystem er fortsat udfordrende, og der er ingen åbenlys løsning. Der vil være behov for flere lag af risikoinformeret beslutningstagning langs kæden, fra opfinder til producent, til bruger, til regering og til det multilaterale system.
Mens principper på højt niveau er blevet bekendtgjort af blandt andet UNESCO, OECD, Europa-Kommissionen og FN, og forskellige diskussioner på højt niveau fortsætter vedrørende spørgsmål om potentiel regeringsførelse, regulering, etik og sikkerhed, er der en stor kløft mellem sådanne principper og en styrings- eller reguleringsramme. Dette skal tages op.
Som udgangspunkt overvejer ISC at udvikle en taksonomi af overvejelser, som enhver udvikler, regulator, politisk rådgiver, forbruger eller beslutningstager kan henvise til. I betragtning af de brede implikationer af disse teknologier, skal en sådan taksonomi overveje helheden af implikationer snarere end en snævert fokuseret ramme. Global fragmentering er stigende på grund af indflydelsen fra geostrategiske interesser på beslutningstagning, og i betragtning af hvor presserende denne teknologi er, er det afgørende for uafhængige og neutrale stemmer vedvarende at forkæmpe en samlet og inkluderende tilgang.
1) Hindustan Times. 2023. G20 skal nedsætte et internationalt panel om teknologiske forandringer.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EU's lov om kunstig intelligens. 2023. https://artificialintelligenceact.eu
Udvikling af en analytisk ramme
ISC er den primære globale ikke-statslige organisation, der integrerer natur- og samfundsvidenskab. Dens globale og disciplinære rækkevidde betyder, at den er godt placeret til at generere uafhængig og globalt relevant rådgivning for at informere om de komplekse valg forude, især da de nuværende stemmer på denne arena i vid udstrækning er fra industrien eller fra de politiske og politiske fællesskaber i de store teknologiske magter.
Efter en periode med omfattende diskussioner, som omfattede overvejelser om en ikke-statslig vurderingsproces, konkluderede ISC, at dens mest nyttige bidrag ville være at producere en adaptiv analytisk ramme, der kan bruges som grundlag for diskurs og beslutningstagning af alle interessenter, herunder under eventuelle formelle vurderingsprocesser, der opstår.
Den foreløbige analytiske ramme, som blev frigivet til diskussion og feedback i oktober 2023, tog form af en overordnet tjekliste designet til brug for både statslige og ikke-statslige institutioner. Rammen identificerede og udforskede potentialet i en teknologi som AI og dens derivater gennem en bred linse, der omfatter menneskelig og samfundsmæssig velvære samt eksterne faktorer som økonomi, politik, miljø og sikkerhed. Nogle aspekter af tjeklisten kan være mere relevante end andre, afhængigt af konteksten, men bedre beslutninger virker mere sandsynlige, hvis alle domæner tages i betragtning, selvom nogle hurtigt kan identificeres som irrelevante i særlige tilfælde. Dette er den iboende værdi af en tjeklistetilgang.
Den foreløbige ramme blev afledt af tidligere arbejde og tænkning, herunder International Network for Governmental Science Advice's (INGSA) rapport om digital velvære3 og OECD Framework for the Classification of AI Systems4 for at præsentere helheden af de potentielle muligheder, risici og påvirkninger af AI. Disse tidligere produkter var mere begrænsede i deres hensigt i betragtning af deres tid og kontekst; der er behov for en overordnet ramme, der præsenterer hele spektret af problemstillinger både på kort og længere sigt.
Siden udgivelsen har diskussionsoplægget modtaget betydelig støtte fra mange eksperter og politiske beslutningstagere. Mange har specifikt tilsluttet sig anbefalingen om at udvikle en adaptiv ramme, der giver mulighed for bevidst og proaktiv overvejelse af teknologiens risici og implikationer, og derved altid overvejer helheden af dimensioner fra individet til samfund og systemer.
En central observation foretaget gennem feedbacken var en anerkendelse af, at flere af de implikationer, der tages i betragtning i rammen, i sagens natur er mangefacetterede og strækker sig over flere kategorier. For eksempel kunne desinformation betragtes fra både den individuelle og geostrategiske linse; derfor ville konsekvenserne være vidtgående.
Muligheden for at inkludere casestudier eller eksempler for at teste rammen blev også foreslået. Dette kunne bruges til at udvikle retningslinjer for at demonstrere, hvordan det kan bruges i praksis i forskellige sammenhænge. Dette ville dog være et betydeligt tiltag og kan begrænse, hvordan forskellige grupper opfatter brugen af denne ramme. Det gøres bedst af politiske beslutningstagere, der arbejder med eksperter i specifikke jurisdiktioner eller kontekster.
Siden oktober 2023 har der været flere betydelige nationale og multilaterale initiativer med yderligere overvejelser om AI's etik og sikkerhed. Implikationerne af AI på integriteten af nogle af vores kritiske systemer, herunder finansielle, offentlige, juridiske og uddannelsesmæssige samt forskellige vidensystemer (herunder videnskabelig og indfødt viden), vækker stigende bekymring. Den reviderede ramme afspejler yderligere disse aspekter.
Den feedback, der er modtaget til dato, afspejles i den reviderede version af den analytiske ramme, som nu er udgivet som en guide til beslutningstagere.
Selvom rammen præsenteres i sammenhæng med kunstig intelligens og relaterede teknologier, kan den umiddelbart overføres til overvejelserne i andre hurtigt fremkommende teknologier såsom kvantebiologi og syntetisk biologi.
3) Gluckman, P. og Allen, K. 2018. Forståelse af velvære i sammenhæng med hurtige digitale og tilhørende transformationer. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD-ramme for klassificering af AI-systemer. OECD Digital Economy Papers, nr. 323,#. Paris, OECD Publishing.
https://oecd.ai/en/classificatio
Rammen
Følgende tabel præsenterer dimensionerne af en formodet analytisk ramme. Der er givet eksempler for at illustrere, hvorfor hvert domæne kan have betydning; i kontekst ville rammen kræve kontekstuelt relevant udvidelse. Det er også vigtigt at skelne mellem de generiske problemer, der opstår under platformsudvikling, og dem, der kan dukke op under specifikke applikationer. Ingen enkelt betragtning, der er inkluderet her, bør behandles som en prioritet, og som sådan bør alle undersøges.
Problemerne er groft grupperet i følgende kategorier som skitseret nedenfor:
Tabellen beskriver dimensioner, der muligvis skal tages i betragtning, når en ny teknologi evalueres.
? INGSA. 2018. Forståelse af velvære i sammenhæng med hurtige digitale og tilhørende transformationer.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
? Nye deskriptorer (indhentet gennem den omfattende høring og feedback og litteraturgennemgang)
? OECD-ramme for klassificering af AI-systemer: et værktøj til effektive AI-politikker.
https://oecd.ai/en/classification
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ?Brugernes AI-kompetence | Hvor kompetente og bevidste om systemets egenskaber er de sandsynlige brugere, der vil interagere med systemet? Hvordan vil de få de relevante brugeroplysninger og advarsler? |
| ? Påvirket interessent | Hvem er de primære interessenter, der vil blive påvirket af systemet (individer, lokalsamfund, sårbare, sektoransatte, børn, politiske beslutningstagere, fagfolk osv.)? |
| ? Valgfrihed | Får brugerne mulighed for at fravælge systemet, eller får de mulighed for at udfordre eller rette på outputtet? |
| ?Risici for menneskerettigheder og demokratiske værdier | Påvirker systemet grundlæggende menneskerettigheder, herunder men ikke begrænset til privatlivets fred, ytringsfrihed, retfærdighed, ikke-diskriminerende osv.? |
| ?Potentielle effekter på folks velbefindende | Relaterer systempåvirkningsområderne den enkelte brugers velbefindende (jobkvalitet, uddannelse, sociale interaktioner, mental sundhed, identitet, miljø osv.)? |
| ? Potentiale for menneskelig arbejdsfortrængning | Er der et potentiale for systemet til at automatisere opgaver eller funktioner, der blev udført af mennesker? Hvis ja, hvad er de efterfølgende konsekvenser? |
| ? Potentiale for manipulation af identitet, værdier eller viden | Er systemet designet eller potentielt i stand til at manipulere brugerens identitet eller værdier sat, eller sprede desinformation? |
| ? Muligheder for selvudfoldelse og selvaktualisering | Er der et potentiale for kunstfærdighed og selvtvivl? Er der potentiale for falsk eller uverificerbare påstande om ekspertise? |
| ? Mål for selvværd | Er der pres for at portrættere idealiseret jeg? Kunne automatisering erstatte en sans af personlig opfyldelse? Er der pres for at konkurrere med systemet i arbejdsplads? Er den enkeltes omdømme sværere at beskytte mod desinformation? |
| ? Privatliv | Er der spredte ansvar for at beskytte privatlivets fred og er der evt gøres der antagelser om, hvordan persondata bruges? |
| ? Autonomi | Kunne AI-systemet påvirke menneskets autonomi ved at skabe overdreven tillid ved slutbrugere? |
| ? Menneskelig udvikling | Er der indflydelse på tilegnelse af nøglekompetencer til menneskelig udvikling, som f.eks eksekutive funktioner eller interpersonelle færdigheder, eller ændringer i opmærksomhedstid påvirker læring, personlighedsudvikling, psykiske problemer osv.? |
| ? Personlig sundhedspleje | Er der påstande om selvdiagnose eller personlige sundhedsløsninger? Hvis så, er de valideret til lovmæssige standarder? |
| ? Mental sundhed | Er der risiko for øget angst, ensomhed eller andre psykiske problemer, eller kan teknologien afhjælpe sådanne påvirkninger? |
| ? Menneskelig evolution | Kunne store sprogmodeller og kunstig generel intelligens ændre på menneskets udviklingsforløb? |
| ? Menneske-maskine interaktion | Kan brugen føre til dekvalifikationer og afhængighed over tid for enkeltpersoner? Er er der indvirkning på menneskelig interaktion? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Samfundsværdier | Ændrer systemet fundamentalt samfundets natur, muliggør normalisering af ideer, der tidligere blev betragtet som asociale, eller bryder det samfundsmæssige værdier i den kultur, hvor det anvendes? |
| ? Sociale interaktioner | Er der en effekt på meningsfuld menneskelig kontakt, herunder følelsesmæssige relationer? |
| ? Befolkningens sundhed | Er der et potentiale for, at systemet kan fremme eller underminere befolkningens sundhedsintentioner? |
| ? Kulturelt udtryk | Er en stigning i kulturel tilegnelse eller diskrimination sandsynlig eller sværere at håndtere? Udelukker eller marginaliserer afhængighed af systemet til beslutningstagning kulturelt relevante sektionsbånd i samfundet? |
| ? Offentlig uddannelse | Er der en effekt på lærerroller eller uddannelsesinstitutioner? Fremhæver eller mindsker systemet den digitale kløft og ulighed blandt eleverne? Er den iboende værdi af viden eller kritisk forståelse avanceret eller undermineret? |
| ? Forvrængede realiteter | Er de metoder, der bruges til at skelne, hvad der er sandt stadig anvendelige? Er virkelighedsopfattelsen kompromitteret? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Industriel sektor | I hvilken industrisektor er systemet indsat (finans, landbrug, sundhedspleje, uddannelse, forsvar osv.)? |
| ? Forretningsmodel | I hvilken forretningsfunktion anvendes systemet og i hvilken egenskab? Hvor bruges systemet (privat, offentligt, non-profit)? |
| ? Indvirkning på kritiske aktiviteter | Vil en afbrydelse af systemets funktion eller aktivitet påvirke væsentlige tjenester eller kritiske infrastrukturer? |
| ?Bredde i implementeringen | Hvordan er systemet implementeret (snæver brug inden for enhed vs. udbredt nationalt/internationalt)? |
| ? Teknisk modenhed | Hvor teknisk modent er systemet? |
| ? Interoperabilitet | Er der sandsynligt, at der vil være siloer, nationalt eller globalt, som hæmmer frihandel og påvirker samarbejdet med partnere? |
| ? Teknologisk suverænitet | Er et ønske om teknologisk suverænitet drivende adfærd, herunder kontrol over hele AI-forsyningskæden? |
| ? Indkomstomfordeling og nationale finanspolitiske løftestænger | Kunne den suveræne stats kerneroller blive kompromitteret (f.eks. reservebanker)? Vil statens evne til at imødekomme borgernes forventninger og implikationer (sociale, økonomiske, politiske etc.) blive fremmet eller reduceret? |
| ? Digital kløft (AI kløft) | Forværres eksisterende digitale uligheder, eller skabes der nye? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Governance og offentlig service | Kan styringsmekanismerne og det globale styringssystem blive påvirket positivt eller negativt? |
| ? Nyhedsmedier | Er det sandsynligt, at den offentlige diskurs bliver polariseret og forankret på befolkningsniveau? Vil der være en effekt på niveauet af tillid til den fjerde stat? Vil konventionel journalistetik og integritetsstandarder blive yderligere påvirket? |
| ? Retsstaten | Vil der være en effekt på evnen til at identificere enkeltpersoner eller organisationer, der skal holdes ansvarlige (f.eks. hvilken form for ansvarlighed skal tildeles en algoritme for ugunstige resultater)? Er der skabt et tab af suverænitet (miljø, finanspolitik, socialpolitik, etik osv.)? |
| ?Politik og social sammenhængskraft | Er der mulighed for mere forankrede politiske holdninger og mindre mulighed for konsensusopbygning? Er der mulighed for yderligere at marginalisere grupper? Er modstridende stilarter af politik gjort mere eller mindre sandsynlige? |
| ? Social licens | Er der bekymringer om privatlivets fred, tillidsproblemer og moralske bekymringer, der skal tages i betragtning for, at interessenterne kan acceptere brugen? |
| ? Indfødt viden | Kan indfødt viden og data blive korrupt eller uretmæssigt tilegnet? Er der tilstrækkelige foranstaltninger til at beskytte mod vildledning, misinformation og udnyttelse? |
| ? Videnskabeligt system | Er den akademiske og forskningsmæssige integritet kompromitteret? Er der et tab af tillid til videnskaben? Er der muligheder for misbrug, overforbrug eller misbrug? Hvad er konsekvensen af videnskabens praksis? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Præcis overvågning | Er systemerne trænet på individuelle adfærdsmæssige og biologiske data, og kan de bruges til at udnytte individer eller grupper? |
| ? Digital konkurrence | Kunne statslige eller ikke-statslige aktører (f.eks. store teknologivirksomheder) udnytte systemer og data til at forstå og kontrollere andre landes befolkninger og økosystemer eller underminere jurisdiktionskontrol? |
| ? Geopolitisk konkurrence | Kunne systemet skabe konkurrence mellem nationer om at udnytte individuelle og gruppedata til økonomiske, medicinske og sikkerhedsmæssige interesser? |
| ? Skift i globale magter | Er nationalstaternes status som verdens primære geopolitiske aktører truet? Har teknologivirksomheder magt, der engang var forbeholdt nationalstater, og er de blevet uafhængige, suveræne aktører (fremvoksende teknopolær verdensorden)? |
| ? Desinformation | Ville systemet lette produktionen og formidlingen af desinformation fra statslige og ikke-statslige aktører med indvirkning på social sammenhængskraft, tillid og demokrati? |
| ? Dual-use applikationer | Er der mulighed for både militær anvendelse og civil brug? |
| ? Fragmentering af global orden | Kunne der udvikles siloer eller klynger af regulering og compliance, der hindrer samarbejde, fører til uoverensstemmelser i anvendelsen og skaber rum for konflikt? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Energi- og ressourceforbrug (carbon footprint) | Øger systemet og kravene optagelsen af energi og ressourceforbrug ud over de effektivitetsgevinster, der opnås gennem applikationen? |
| ?Energikilde | Hvor kommer energien fra til systemet (vedvarende vs. fossile brændstoffer osv.)? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Retning og opsamling | Er data og input indsamlet af mennesker, automatiserede sensorer eller begge dele? |
| ? Herkomst af data | Er dataene og input fra eksperter leveret, observeret, syntetiske eller afledt? Er der vandmærkebeskyttelse for at bekræfte herkomst? |
| ? Dynamisk karakter af data | Opdateres dataene dynamiske, statiske, dynamiske fra tid til anden eller i realtid? |
| ? Rettigheder | Er dataene proprietære, offentlige eller personlige (relateret til identificerbare individer)? |
| ? Identificerbarhed og personlige data | Er dataene anonymiserede eller pseudonymiserede, hvis de er personlige? |
| ? Opbygning af data | Er dataene strukturerede, semistrukturerede, komplekse strukturerede eller ustrukturerede? |
| ? Format af data | Er formatet af data og metadata standardiseret eller ikke-standardiseret? |
| ? Skalaen af data | Hvad er datasættets skala? |
| ? Hensigtsmæssighed og kvalitet af data | Er datasættet egnet til formålet? Er stikprøvestørrelsen tilstrækkelig? Er det repræsentativt og fuldstændigt nok? Hvor støjende er dataene? Er det fejludsat? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Information tilgængelighed | Er der nogen information tilgængelig om systemets model? |
| ? Type AI-model | Er modellen symbolsk (menneskeskabte regler), statistisk (bruger data) eller hybrid? |
| ? Rettigheder knyttet til model | Er modellen open source eller proprietær, selv- eller tredjepartsadministreret? |
| ? Enkelt af flere modeller | Er systemet sammensat af én model eller flere indbyrdes forbundne modeller? |
| ? Generativ eller diskriminerende | Er modellen generativ, diskriminerende eller begge dele? |
| ? Modelbygning | Lærer systemet baseret på menneskeskrevne regler, fra data, gennem superviseret læring eller gennem forstærkende læring? |
| ? Modeludvikling (AI-drift) | Udvikler modellen sig og/eller tilegner sig evner ved at interagere med data i felten? |
| ? Fødereret eller central læring | Er modellen trænet centralt eller i flere lokale servere eller 'edge'-enheder? |
| ? Udvikling/vedligeholdelse | Er modellen universel, kan tilpasses eller skræddersyet til AI-aktørens data? |
| ? Deterministisk eller probabilistisk | Anvendes modellen på en deterministisk eller probabilistisk måde? |
| ? Modelgennemsigtighed | Er information tilgængelig for brugerne, så de kan forstå modeloutput og -begrænsninger eller bruge begrænsninger? |
| ? Beregningsmæssig begrænsning | Er der beregningsmæssige begrænsninger for systemet? Er det muligt at forudsige kapacitetsspring eller skaleringslove? |
| Kriterier | Eksempler på hvordan dette kan afspejles i analyse |
| ? Opgave(r) udført af systemet | Hvilke opgaver udfører systemet (genkendelse, hændelsesdetektion, prognose osv.)? |
| ? At kombinere opgaver og handlinger | Kombinerer systemet flere opgaver og handlinger (indholdsgenereringssystemer, autonome systemer, kontrolsystemer osv.)? |
| ? Systemets grad af autonomi | Hvor autonome er systemets handlinger, og hvilken rolle spiller mennesker? |
| ? Grad af menneskelig involvering | Er der nogen menneskelig involvering til at overvåge den overordnede aktivitet af AI-systemet og evnen til at beslutte, hvornår og hvordan AI-systemet skal bruges i enhver situation? |
| ? Kerneapplikation | Tilhører systemet et kerneapplikationsområde såsom menneskelige sprogteknologier, computersyn, automatisering og/eller optimering eller robotteknologi? |
| ? Evaluering | Er standarder eller metoder tilgængelige til evaluering af systemets output? |
Hvordan kunne denne ramme bruges?
Denne ramme kan bruges på mange måder, herunder:
En vej frem
Sammenfattende er den analytiske ramme tilvejebragt som grundlaget for et værktøjssæt, der kunne bruges af interessenter til omfattende at se på enhver væsentlig udvikling enten af platforme eller brug på en konsistent og systematisk måde. De dimensioner, der præsenteres i denne ramme, har relevans fra teknologivurdering til offentlig politik, fra menneskelig udvikling til sociologi og fremtids- og teknologistudier. Selvom den er udviklet til AI, har denne analytiske ramme meget bredere anvendelse på enhver anden ny teknologi.
6 UN AI Advisory Board. 2023. Interim Report: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Anerkendelser
Mange personer er blevet konsulteret og har givet feedback i forbindelse med udviklingen af både det indledende diskussionsoplæg og feedback efter dets offentliggørelse. Begge dokumenter blev udarbejdet af Sir Peter Gluckman Gluckman, præsident, ISC, og Hema Sridhar, tidligere chefvidenskabelig rådgiver, Forsvarsministeriet, New Zealand og nu seniorforsker Fellow, Universitetet i Auckland, New Zealand.
Især ISC Lord Martin Rees, tidligere præsident for Royal Society og medstifter af Center for the Study of Existential Risks, University of Cambridge; professor Shivaji Sondhi, professor i fysik, University of Oxford; Professor K Vijay Raghavan, tidligere hovedvidenskabelig rådgiver for Indiens regering; Amandeep Singh Gill, FN's generalsekretærs udsending om teknologi; Seán Ó hÉigeartaigh, administrerende direktør, Center for Studiet af Eksistentielle Risici, University of Cambridge; Sir David Spiegelhalter, Winton-professor i den offentlige risikoforståelse, universitetet
af Cambridge; Amanda-June Brawner, seniorpolitisk rådgiver og Ian Wiggins, direktør for internationale anliggender, Royal Society, Storbritannien; Dr. Jerome Duberry, administrerende direktør og dr. Marie-Laure Salles, direktør, Geneva Graduate Institute; Chor Pharn Lee, Center for Strategic Futures, premierministerens kontor, Singapore; Barend Mons og Dr. Simon Hodson, Dataudvalget (CoDATA); Professor Yuko Harayama, tidligere administrerende direktør, RIKEN; Professor
Rémi Quirion, præsident, INGSA; Dr. Claire Craig, University of Oxford og tidligere leder af fremsyn, Government Office of Science; Prof Yoshua Bengio, FN's generalsekretærs videnskabelige rådgivende udvalg og ved Université de Montréal; og de mange andre, der gav feedback til ISC på det indledende debatoplæg.
Forberedelse af nationale forskningsøkosystemer til kunstig intelligens: Strategier og fremskridt i 2024
Dette arbejdspapir fra ISC's tænketank, Center for Science Futures, giver grundlæggende information og adgang til ressourcer fra lande fra alle dele af verden på forskellige stadier af integration af AI i deres forskningsøkosystemer.
Opbygning af fremtidssikrede videnskabelige systemer i det globale syd
Nye teknologier omformer den måde, videnskab udføres på, og tilbyder et betydeligt potentiale til at styrke videnskabssystemer i det globale syd – hvis deres implementering styres af inkluderende, velunderbyggede og kontekstfølsomme tilgange. Hvordan man sikrer, at disse teknologier bidrager til mere retfærdige og robuste videnskabssystemer i stedet for at forstærke eksisterende uligheder, var det centrale fokus for dette nylige strategiske tilbagetog.