Tilmeld dig

Rapport

En guide til politiske beslutningstagere: Evaluering af teknologier, der udvikler sig hurtigt, inklusive kunstig intelligens, store sprogmodeller og mere

I dette papir undersøger ISC skitsen af ​​en ramme til at informere politiske beslutningstagere om de mange globale og nationale diskussioner, der finder sted i forbindelse med kunstig intelligens.

ISC's guide tilbyder en omfattende ramme designet til at bygge bro mellem principper på højt niveau og praktisk, handlingsvenlig politik. Det imødekommer det presserende behov for en fælles forståelse af både de muligheder og risici, der er forbundet med nye teknologier. Dette er et væsentligt dokument for dem, der arbejder på den politiske nexus i vores hurtigt skiftende digitale æra.

Rammen udforsker potentialet i AI og dets derivater gennem en omfattende linse, der omfatter menneskelig og samfundsmæssig velvære sammen med eksterne faktorer som økonomi, politik, miljø og sikkerhed. Nogle aspekter af tjeklisten kan være mere relevante end andre, afhængigt af konteksten, men bedre beslutninger virker mere sandsynlige, hvis alle domæner tages i betragtning, selvom nogle hurtigt kan identificeres som irrelevante i særlige tilfælde. Dette er den iboende værdi af en tjeklistetilgang.

"I en æra præget af hurtig teknologisk innovation og komplekse globale udfordringer, giver ISC's rammer for omfattende og multidimensionel analyse af de potentielle påvirkninger ledere i stand til at træffe informerede, ansvarlige beslutninger. Det sikrer, at når vi avancerer teknologisk, gør vi det med en omhyggelig overvejelse af de etiske, sociale og økonomiske implikationer”.

Peter Gluckman, ISC-præsident

Mens principper på højt niveau er blevet bekendtgjort af blandt andet UNESCO, OECD, Europa-Kommissionen og FN, og forskellige diskussioner fortsætter vedrørende spørgsmål om potentiel styring, regulering, etik og sikkerhed, er der en stor kløft mellem sådanne principper og en styring eller lovgivningsmæssige rammer. ISC imødekommer dette behov gennem sin nye vejledning til politiske beslutningstagere.

Denne vejledning til politiske beslutningstagere er ikke beregnet til at forbyde et reguleringsregime, men snarere at foreslå en adaptiv og udviklende analytisk ramme, som kan understøtte enhver vurdering og reguleringsprocesser, der måtte udvikles af interessenter, herunder regeringer og det multilaterale system.

"Rammen er et kritisk skridt i den globale samtale om kunstig intelligens, da den giver et grundlag, hvorfra vi kan bygge konsensus om implikationerne af teknologien for både nu og i fremtiden." 

Hema Sridhar, tidligere chefvidenskabelig rådgiver, Forsvarsministeriet, New Zealand og nu seniorforsker Fellow, Universitetet i Auckland, New Zealand.

Siden oktober 2023 har der været flere betydelige nationale og multilaterale initiativer med yderligere overvejelser om AI's etik og sikkerhed. Implikationerne af AI på integriteten af ​​nogle af vores kritiske systemer, herunder finansielle, offentlige, juridiske og uddannelsesmæssige samt forskellige vidensystemer (herunder videnskabelig og indfødt viden), vækker stigende bekymring. Rammen afspejler yderligere disse aspekter.

Den tilbagemelding, der er modtaget fra ISC-medlemmer og det internationale politikskabende samfund til dato, afspejles i den reviderede version af den analytiske ramme, som nu er udgivet som en guide til politiske beslutningstagere.

En guide til politiske beslutningstagere: Evaluering af teknologier, der udvikler sig hurtigt, inklusive kunstig intelligens, store sprogmodeller og mere

Dette diskussionsoplæg giver skitseringen af ​​en indledende ramme til at informere om de mange globale og nationale diskussioner, der finder sted relateret til kunstig intelligens.

Rammer til brug i din organisation

Download rammen til brug i din organisation

Her leverer vi rammeværktøjet som et redigerbart Excel-ark til brug i din organisation. Hvis du foretrækker et open source-format, bedes du kontakte [e-mail beskyttet].

Introduktion

Hurtigt fremvoksende teknologier giver udfordrende problemer, når det kommer til deres brug, styring og potentiel regulering. Den igangværende politik og offentlige debatter om kunstig intelligens (AI) og dens brug har bragt disse spørgsmål i akut fokus. Brede principper for kunstig intelligens er blevet annonceret af UNESCO, OECD, FN og andre, herunder Storbritanniens Bletchley-erklæring, og der er nye jurisdiktionsforsøg på regulering af aspekter af teknologien gennem for eksempel Den Europæiske Unions (EU) AI Act eller den nylige US AI Executive Order.

Mens brugen af ​​kunstig intelligens diskuteres indgående i disse og andre fora, på tværs af geopolitiske skel og i lande på alle indkomstniveauer, er der stadig en ontologisk kløft mellem udviklingen af ​​principper på højt niveau og deres inkorporering i praksis gennem enten regulering, politik, styring eller forvaltning nærmer sig. Vejen fra princip til praksis er dårligt defineret, men i betragtning af arten og kadencen af ​​AI-udvikling og anvendelse, mangfoldigheden af ​​involverede interesser og rækken af ​​mulige anvendelser, kan enhver tilgang ikke være alt for generisk eller præskriptiv.

Af disse grunde spiller det ikke-statslige videnskabelige samfund fortsat en særlig rolle. Det Internationale Videnskabsråd (ISC) – med sit pluralistiske medlemskab fra samfunds- og naturvidenskaberne – udgav et debatoplæg i oktober 2023, der præsenterede en foreløbig analytisk ramme, der overvejede risici, fordele, trusler og muligheder forbundet med digital teknologi i hastig udvikling. Selvom det blev udviklet til at overveje AI, er det i sagens natur teknologiagnostisk og kan anvendes på en række nye og forstyrrende teknologier, såsom syntetisk biologi og kvante. Dette diskussionsoplæg inviterede til feedback fra akademikere og politiske beslutningstagere. Den overvældende feedback gjorde det nødvendigt at udføre en sådan analyse og stod som en værdifuld tilgang til at adressere nye teknologier som AI.

Formålet med rammen er at give et værktøj til at informere alle interessenter – herunder regeringer, handelsforhandlere, regulatorer, civilsamfundet og industrien – om udviklingen af ​​disse teknologier for at hjælpe dem med at formulere, hvordan de kan overveje konsekvenserne, positive eller negative, af selve teknologien, og mere specifikt dens særlige anvendelse. Denne analytiske ramme er udviklet uafhængigt af regerings- og industriinteresser. Den er maksimalt pluralistisk i sine perspektiver, og den omfatter alle aspekter af teknologien og dens implikationer baseret på omfattende høring og feedback.

Dette debatoplæg til politiske beslutningstagere er ikke beregnet til at forbyde et reguleringsregime, men snarere at foreslå en adaptiv og udviklende analytisk ramme, som kunne understøtte enhver vurdering og reguleringsprocesser, der måtte udvikles af interessenter, herunder regeringer og det multilaterale system.

Da beslutningstagere globalt og nationalt overvejer passende politiske indstillinger og løftestænger til at afbalancere risici og fordele ved en ny teknologi såsom AI, er den analytiske ramme tænkt som et komplementært værktøj til at sikre, at hele pakken af ​​potentielle implikationer afspejles tilstrækkeligt.

Baggrund: hvorfor en analytisk ramme?

Den hurtige fremkomst af teknologier med kompleksiteten og implikationerne af AI driver mange påstande til stor fordel. Det vækker dog også frygt for betydelige risici, fra individuelt til geostrategisk niveau.1 Meget af diskussionen til dato er blevet betragtet i binær forstand, da offentligt udtrykte synspunkter har en tendens til at finde sted i de yderste ender af spektret. Påstandene for eller imod AI er ofte hyperbolske og – i betragtning af teknologiens karakter – svære at vurdere.

En mere pragmatisk tilgang er nødvendig, hvor hyperbole erstattes med kalibrerede og mere granulære evalueringer. AI-teknologi vil fortsætte med at udvikle sig, og historien viser, at stort set enhver teknologi har både gavnlige og skadelige anvendelser. Spørgsmålet er derfor: hvordan kan vi opnå de gavnlige resultater fra denne teknologi, samtidig med at vi reducerer risikoen for skadelige konsekvenser, hvoraf nogle kunne være eksistentielle i omfang?

Fremtiden er altid usikker, men der er tilstrækkeligt med troværdige og ekspertstemmer vedrørende AI og generativ AI til at tilskynde til en relativt forsigtig tilgang. Derudover er en systemtilgang nødvendig, da AI er en klasse af teknologier med bred anvendelse og anvendelse af flere typer brugere. Dette betyder, at den fulde kontekst skal overvejes, når man overvejer implikationerne af enhver brug af kunstig intelligens for individer, det sociale liv, det civile liv, det samfundsmæssige liv og i den globale kontekst.

I modsætning til de fleste andre teknologier, for digitale og relaterede teknologier, er tiden mellem udvikling, udgivelse og anvendelse ekstremt kort, i høj grad drevet af produktionsselskabernes eller bureauernes interesser. I sagens natur – og da det er baseret på det digitale rygrad – vil AI have applikationer, der er hurtigt udbredte, som det allerede er set med udviklingen af ​​store sprogmodeller. Som følge heraf kan nogle egenskaber først blive synlige efter løsladelse, hvilket betyder, at der er risiko for uforudsete konsekvenser, både ondsindede og velvillige.

Vigtige samfundsværdier, især på tværs af forskellige regioner og kulturer, vil påvirke, hvordan enhver brug opfattes og accepteres. Desuden dominerer geostrategiske interesser allerede diskussionen, hvor suveræne og multilaterale interesser løbende krydser hinanden og dermed driver konkurrence og splittelse.

Hidtil er meget af reguleringen af ​​en virtuel teknologi i vid udstrækning blevet set gennem linsen af ​​"principper" og frivillig overholdelse, dog med EU's AI-lov2 og lignende ser vi et skift til mere håndhævede, men noget snævre regler. Etablering af et effektivt globalt eller nationalt teknologistyrings- og/eller reguleringssystem er fortsat udfordrende, og der er ingen åbenlys løsning. Der vil være behov for flere lag af risikoinformeret beslutningstagning langs kæden, fra opfinder til producent, til bruger, til regering og til det multilaterale system.

Mens principper på højt niveau er blevet bekendtgjort af blandt andet UNESCO, OECD, Europa-Kommissionen og FN, og forskellige diskussioner på højt niveau fortsætter vedrørende spørgsmål om potentiel regeringsførelse, regulering, etik og sikkerhed, er der en stor kløft mellem sådanne principper og en styrings- eller reguleringsramme. Dette skal tages op.

Som udgangspunkt overvejer ISC at udvikle en taksonomi af overvejelser, som enhver udvikler, regulator, politisk rådgiver, forbruger eller beslutningstager kan henvise til. I betragtning af de brede implikationer af disse teknologier, skal en sådan taksonomi overveje helheden af ​​implikationer snarere end en snævert fokuseret ramme. Global fragmentering er stigende på grund af indflydelsen fra geostrategiske interesser på beslutningstagning, og i betragtning af hvor presserende denne teknologi er, er det afgørende for uafhængige og neutrale stemmer vedvarende at forkæmpe en samlet og inkluderende tilgang.


1) Hindustan Times. 2023. G20 skal nedsætte et internationalt panel om teknologiske forandringer.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EU's lov om kunstig intelligens. 2023. https://artificialintelligenceact.eu

Udvikling af en analytisk ramme

ISC er den primære globale ikke-statslige organisation, der integrerer natur- og samfundsvidenskab. Dens globale og disciplinære rækkevidde betyder, at den er godt placeret til at generere uafhængig og globalt relevant rådgivning for at informere om de komplekse valg forude, især da de nuværende stemmer på denne arena i vid udstrækning er fra industrien eller fra de politiske og politiske fællesskaber i de store teknologiske magter.

Efter en periode med omfattende diskussioner, som omfattede overvejelser om en ikke-statslig vurderingsproces, konkluderede ISC, at dens mest nyttige bidrag ville være at producere en adaptiv analytisk ramme, der kan bruges som grundlag for diskurs og beslutningstagning af alle interessenter, herunder under eventuelle formelle vurderingsprocesser, der opstår.

Den foreløbige analytiske ramme, som blev frigivet til diskussion og feedback i oktober 2023, tog form af en overordnet tjekliste designet til brug for både statslige og ikke-statslige institutioner. Rammen identificerede og udforskede potentialet i en teknologi som AI og dens derivater gennem en bred linse, der omfatter menneskelig og samfundsmæssig velvære samt eksterne faktorer som økonomi, politik, miljø og sikkerhed. Nogle aspekter af tjeklisten kan være mere relevante end andre, afhængigt af konteksten, men bedre beslutninger virker mere sandsynlige, hvis alle domæner tages i betragtning, selvom nogle hurtigt kan identificeres som irrelevante i særlige tilfælde. Dette er den iboende værdi af en tjeklistetilgang.

Den foreløbige ramme blev afledt af tidligere arbejde og tænkning, herunder International Network for Governmental Science Advice's (INGSA) rapport om digital velvære3 og OECD Framework for the Classification of AI Systems4 for at præsentere helheden af ​​de potentielle muligheder, risici og påvirkninger af AI. Disse tidligere produkter var mere begrænsede i deres hensigt i betragtning af deres tid og kontekst; der er behov for en overordnet ramme, der præsenterer hele spektret af problemstillinger både på kort og længere sigt.

Siden udgivelsen har diskussionsoplægget modtaget betydelig støtte fra mange eksperter og politiske beslutningstagere. Mange har specifikt tilsluttet sig anbefalingen om at udvikle en adaptiv ramme, der giver mulighed for bevidst og proaktiv overvejelse af teknologiens risici og implikationer, og derved altid overvejer helheden af ​​dimensioner fra individet til samfund og systemer.

En central observation foretaget gennem feedbacken var en anerkendelse af, at flere af de implikationer, der tages i betragtning i rammen, i sagens natur er mangefacetterede og strækker sig over flere kategorier. For eksempel kunne desinformation betragtes fra både den individuelle og geostrategiske linse; derfor ville konsekvenserne være vidtgående.

Muligheden for at inkludere casestudier eller eksempler for at teste rammen blev også foreslået. Dette kunne bruges til at udvikle retningslinjer for at demonstrere, hvordan det kan bruges i praksis i forskellige sammenhænge. Dette ville dog være et betydeligt tiltag og kan begrænse, hvordan forskellige grupper opfatter brugen af ​​denne ramme. Det gøres bedst af politiske beslutningstagere, der arbejder med eksperter i specifikke jurisdiktioner eller kontekster.

Siden oktober 2023 har der været flere betydelige nationale og multilaterale initiativer med yderligere overvejelser om AI's etik og sikkerhed. Implikationerne af AI på integriteten af ​​nogle af vores kritiske systemer, herunder finansielle, offentlige, juridiske og uddannelsesmæssige samt forskellige vidensystemer (herunder videnskabelig og indfødt viden), vækker stigende bekymring. Den reviderede ramme afspejler yderligere disse aspekter.

Den feedback, der er modtaget til dato, afspejles i den reviderede version af den analytiske ramme, som nu er udgivet som en guide til beslutningstagere.

Selvom rammen præsenteres i sammenhæng med kunstig intelligens og relaterede teknologier, kan den umiddelbart overføres til overvejelserne i andre hurtigt fremkommende teknologier såsom kvantebiologi og syntetisk biologi.


3) Gluckman, P. og Allen, K. 2018. Forståelse af velvære i sammenhæng med hurtige digitale og tilhørende transformationer. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD-ramme for klassificering af AI-systemer. OECD Digital Economy Papers, nr. 323,#. Paris, OECD Publishing.
https://oecd.ai/en/classificatio

Rammen

Følgende tabel præsenterer dimensionerne af en formodet analytisk ramme. Der er givet eksempler for at illustrere, hvorfor hvert domæne kan have betydning; i kontekst ville rammen kræve kontekstuelt relevant udvidelse. Det er også vigtigt at skelne mellem de generiske problemer, der opstår under platformsudvikling, og dem, der kan dukke op under specifikke applikationer. Ingen enkelt betragtning, der er inkluderet her, bør behandles som en prioritet, og som sådan bør alle undersøges.

Problemerne er groft grupperet i følgende kategorier som skitseret nedenfor:

  • Velvære (inklusive individers eller selv, samfund, sociale liv og samfundsliv)
  • Handel og økonomi
  • Miljø
  • Geostrategisk og geopolitisk
  • Teknologisk (systemegenskaber, design og brug)

Tabellen beskriver dimensioner, der muligvis skal tages i betragtning, når en ny teknologi evalueres.

? INGSA. 2018. Forståelse af velvære i sammenhæng med hurtige digitale og tilhørende transformationer.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

? Nye deskriptorer (indhentet gennem den omfattende høring og feedback og litteraturgennemgang)

? OECD-ramme for klassificering af AI-systemer: et værktøj til effektive AI-politikker.
https://oecd.ai/en/classification

Dimensioner af påvirkning: Individuel / selv

KriterierEksempler på hvordan dette kan afspejles i analyse
?Brugernes AI-kompetenceHvor kompetente og bevidste om systemets egenskaber er de sandsynlige brugere, der vil interagere med systemet? Hvordan vil de få de relevante brugeroplysninger og advarsler?
? Påvirket interessentHvem er de primære interessenter, der vil blive påvirket af systemet (individer, lokalsamfund, sårbare, sektoransatte, børn, politiske beslutningstagere, fagfolk osv.)?
? ValgfrihedFår brugerne mulighed for at fravælge systemet, eller får de mulighed for at udfordre eller rette på outputtet?
?Risici for menneskerettigheder og demokratiske værdierPåvirker systemet grundlæggende menneskerettigheder, herunder men ikke begrænset til privatlivets fred, ytringsfrihed, retfærdighed, ikke-diskriminerende osv.?
?Potentielle effekter på folks velbefindendeRelaterer systempåvirkningsområderne den enkelte brugers velbefindende (jobkvalitet, uddannelse, sociale interaktioner, mental sundhed, identitet, miljø osv.)?
? Potentiale for menneskelig arbejdsfortrængningEr der et potentiale for systemet til at automatisere opgaver eller funktioner, der blev udført af mennesker? Hvis ja, hvad er de efterfølgende konsekvenser?
? Potentiale for manipulation af identitet, værdier eller videnEr systemet designet eller potentielt i stand til at manipulere brugerens identitet eller
værdier sat, eller sprede desinformation?
? Muligheder for selvudfoldelse og selvaktualiseringEr der et potentiale for kunstfærdighed og selvtvivl? Er der potentiale for falsk eller
uverificerbare påstande om ekspertise?
? Mål for selvværdEr der pres for at portrættere idealiseret jeg? Kunne automatisering erstatte en sans
af personlig opfyldelse? Er der pres for at konkurrere med systemet i
arbejdsplads? Er den enkeltes omdømme sværere at beskytte mod desinformation?
? PrivatlivEr der spredte ansvar for at beskytte privatlivets fred og er der evt
gøres der antagelser om, hvordan persondata bruges?
? AutonomiKunne AI-systemet påvirke menneskets autonomi ved at skabe overdreven tillid ved
slutbrugere?
? Menneskelig udviklingEr der indflydelse på tilegnelse af nøglekompetencer til menneskelig udvikling, som f.eks
eksekutive funktioner eller interpersonelle færdigheder, eller ændringer i opmærksomhedstid påvirker
læring, personlighedsudvikling, psykiske problemer osv.?
? Personlig sundhedsplejeEr der påstande om selvdiagnose eller personlige sundhedsløsninger? Hvis så,
er de valideret til lovmæssige standarder?
? Mental sundhedEr der risiko for øget angst, ensomhed eller andre psykiske problemer, eller
kan teknologien afhjælpe sådanne påvirkninger?
? Menneskelig evolutionKunne store sprogmodeller og kunstig generel intelligens ændre på
menneskets udviklingsforløb?
? Menneske-maskine interaktionKan brugen føre til dekvalifikationer og afhængighed over tid for enkeltpersoner? Er
er der indvirkning på menneskelig interaktion?
5) De teknologiske kriterier, der tages i betragtning i rammen, er specifikt for kunstig intelligens og skal revideres for andre teknologier efter behov.

Dimensioner for påvirkning: Samfund/socialt liv

Kriterier Eksempler på hvordan dette kan afspejles i analyse
? SamfundsværdierÆndrer systemet fundamentalt samfundets natur, muliggør normalisering af ideer, der tidligere blev betragtet som asociale, eller bryder det samfundsmæssige værdier i den kultur, hvor det anvendes?
? Sociale interaktionerEr der en effekt på meningsfuld menneskelig kontakt, herunder følelsesmæssige relationer?
? Befolkningens sundhedEr der et potentiale for, at systemet kan fremme eller underminere befolkningens sundhedsintentioner?
? Kulturelt udtrykEr en stigning i kulturel tilegnelse eller diskrimination sandsynlig eller sværere at håndtere? Udelukker eller marginaliserer afhængighed af systemet til beslutningstagning kulturelt relevante sektionsbånd i samfundet?
? Offentlig uddannelseEr der en effekt på lærerroller eller uddannelsesinstitutioner? Fremhæver eller mindsker systemet den digitale kløft og ulighed blandt eleverne? Er den iboende værdi af viden eller kritisk forståelse avanceret eller undermineret?
? Forvrængede realiteterEr de metoder, der bruges til at skelne, hvad der er sandt stadig anvendelige? Er virkelighedsopfattelsen kompromitteret?

Dimensioner af påvirkning: Økonomisk kontekst (handel)

KriterierEksempler på hvordan dette kan afspejles i analyse
? Industriel sektorI hvilken industrisektor er systemet indsat (finans, landbrug, sundhedspleje, uddannelse, forsvar osv.)?
? ForretningsmodelI hvilken forretningsfunktion anvendes systemet og i hvilken egenskab? Hvor bruges systemet (privat, offentligt, non-profit)?
? Indvirkning på kritiske aktiviteter Vil en afbrydelse af systemets funktion eller aktivitet påvirke væsentlige tjenester eller kritiske infrastrukturer?
?Bredde i implementeringenHvordan er systemet implementeret (snæver brug inden for enhed vs. udbredt nationalt/internationalt)?
? Teknisk modenhedHvor teknisk modent er systemet?
? Interoperabilitet Er der sandsynligt, at der vil være siloer, nationalt eller globalt, som hæmmer frihandel og påvirker samarbejdet med partnere?
? Teknologisk suverænitetEr et ønske om teknologisk suverænitet drivende adfærd, herunder kontrol over hele AI-forsyningskæden?
? Indkomstomfordeling og nationale finanspolitiske løftestængerKunne den suveræne stats kerneroller blive kompromitteret (f.eks. reservebanker)? Vil statens evne til at imødekomme borgernes forventninger og implikationer (sociale, økonomiske, politiske etc.) blive fremmet eller reduceret?
? Digital kløft (AI kløft) Forværres eksisterende digitale uligheder, eller skabes der nye?

Indvirkningsdimensioner: Borgerliv

KriterierEksempler på hvordan dette kan afspejles i analyse
? Governance og offentlig serviceKan styringsmekanismerne og det globale styringssystem blive påvirket positivt eller negativt?
? NyhedsmedierEr det sandsynligt, at den offentlige diskurs bliver polariseret og forankret på befolkningsniveau? Vil der være en effekt på niveauet af tillid til den fjerde stat? Vil konventionel journalistetik og integritetsstandarder blive yderligere påvirket?
? RetsstatenVil der være en effekt på evnen til at identificere enkeltpersoner eller organisationer, der skal holdes ansvarlige (f.eks. hvilken form for ansvarlighed skal tildeles en algoritme for ugunstige resultater)? Er der skabt et tab af suverænitet (miljø, finanspolitik, socialpolitik, etik osv.)?
?Politik og social sammenhængskraftEr der mulighed for mere forankrede politiske holdninger og mindre mulighed for konsensusopbygning? Er der mulighed for yderligere at marginalisere grupper? Er modstridende stilarter af politik gjort mere eller mindre sandsynlige?
? Social licensEr der bekymringer om privatlivets fred, tillidsproblemer og moralske bekymringer, der skal tages i betragtning for, at interessenterne kan acceptere brugen?
? Indfødt videnKan indfødt viden og data blive korrupt eller uretmæssigt tilegnet? Er der tilstrækkelige foranstaltninger til at beskytte mod vildledning, misinformation og udnyttelse?
? Videnskabeligt systemEr den akademiske og forskningsmæssige integritet kompromitteret? Er der et tab af tillid til videnskaben? Er der muligheder for misbrug, overforbrug eller misbrug? Hvad er konsekvensen af ​​videnskabens praksis?

Dimensioner af påvirkning: Geostrategisk/geopolitisk kontekst

KriterierEksempler på hvordan dette kan afspejles i analyse
? Præcis overvågningEr systemerne trænet på individuelle adfærdsmæssige og biologiske data, og kan de bruges til at udnytte individer eller grupper?
? Digital konkurrenceKunne statslige eller ikke-statslige aktører (f.eks. store teknologivirksomheder) udnytte systemer og data til at forstå og kontrollere andre landes befolkninger og økosystemer eller underminere jurisdiktionskontrol?
? Geopolitisk konkurrenceKunne systemet skabe konkurrence mellem nationer om at udnytte individuelle og gruppedata til økonomiske, medicinske og sikkerhedsmæssige interesser?
? Skift i globale magterEr nationalstaternes status som verdens primære geopolitiske aktører truet? Har teknologivirksomheder magt, der engang var forbeholdt nationalstater, og er de blevet uafhængige, suveræne aktører (fremvoksende teknopolær verdensorden)?
? DesinformationVille systemet lette produktionen og formidlingen af ​​desinformation fra statslige og ikke-statslige aktører med indvirkning på social sammenhængskraft, tillid og demokrati?
? Dual-use applikationerEr der mulighed for både militær anvendelse og civil brug?
? Fragmentering af global ordenKunne der udvikles siloer eller klynger af regulering og compliance, der hindrer samarbejde, fører til uoverensstemmelser i anvendelsen og skaber rum for konflikt?

Dimensioner af påvirkning: Miljømæssige

KriterierEksempler på hvordan dette kan afspejles i analyse
? Energi- og ressourceforbrug (carbon footprint)Øger systemet og kravene optagelsen af ​​energi og ressourceforbrug ud over de effektivitetsgevinster, der opnås gennem applikationen?
?EnergikildeHvor kommer energien fra til systemet (vedvarende vs. fossile brændstoffer osv.)?

Dimensioner for påvirkning: Data og input

KriterierEksempler på hvordan dette kan afspejles i analyse
? Retning og opsamlingEr data og input indsamlet af mennesker, automatiserede sensorer eller begge dele?
? Herkomst af dataEr dataene og input fra eksperter leveret, observeret, syntetiske eller afledt? Er der vandmærkebeskyttelse for at bekræfte herkomst?
? Dynamisk karakter af dataOpdateres dataene dynamiske, statiske, dynamiske fra tid til anden eller i realtid?
? RettighederEr dataene proprietære, offentlige eller personlige (relateret til identificerbare individer)?
? Identificerbarhed og personlige dataEr dataene anonymiserede eller pseudonymiserede, hvis de er personlige?
? Opbygning af dataEr dataene strukturerede, semistrukturerede, komplekse strukturerede eller ustrukturerede?
? Format af dataEr formatet af data og metadata standardiseret eller ikke-standardiseret?
? Skalaen af ​​dataHvad er datasættets skala?
? Hensigtsmæssighed og kvalitet af data Er datasættet egnet til formålet? Er stikprøvestørrelsen tilstrækkelig? Er det repræsentativt og fuldstændigt nok? Hvor støjende er dataene? Er det fejludsat?

Slagsmål: Model

KriterierEksempler på hvordan dette kan afspejles i analyse
? Information tilgængelighedEr der nogen information tilgængelig om systemets model?
? Type AI-modelEr modellen symbolsk (menneskeskabte regler), statistisk (bruger data) eller hybrid?
? Rettigheder knyttet til modelEr modellen open source eller proprietær, selv- eller tredjepartsadministreret?
? Enkelt af flere modellerEr systemet sammensat af én model eller flere indbyrdes forbundne modeller?
? Generativ eller diskriminerendeEr modellen generativ, diskriminerende eller begge dele?
? ModelbygningLærer systemet baseret på menneskeskrevne regler, fra data, gennem superviseret læring eller gennem forstærkende læring?
? Modeludvikling (AI-drift)Udvikler modellen sig og/eller tilegner sig evner ved at interagere med data i felten?
? Fødereret eller central læringEr modellen trænet centralt eller i flere lokale servere eller 'edge'-enheder?
? Udvikling/vedligeholdelseEr modellen universel, kan tilpasses eller skræddersyet til AI-aktørens data?
? Deterministisk eller probabilistisk Anvendes modellen på en deterministisk eller probabilistisk måde?
? Modelgennemsigtighed Er information tilgængelig for brugerne, så de kan forstå modeloutput og -begrænsninger eller bruge begrænsninger?
? Beregningsmæssig begrænsningEr der beregningsmæssige begrænsninger for systemet? Er det muligt at forudsige kapacitetsspring eller skaleringslove?

Dimensioner af påvirkning: Opgave og output

KriterierEksempler på hvordan dette kan afspejles i analyse
? Opgave(r) udført af systemetHvilke opgaver udfører systemet (genkendelse, hændelsesdetektion, prognose osv.)?
? At kombinere opgaver og handlingerKombinerer systemet flere opgaver og handlinger (indholdsgenereringssystemer, autonome systemer, kontrolsystemer osv.)?
? Systemets grad af autonomi Hvor autonome er systemets handlinger, og hvilken rolle spiller mennesker?
? Grad af menneskelig involveringEr der nogen menneskelig involvering til at overvåge den overordnede aktivitet af AI-systemet og evnen til at beslutte, hvornår og hvordan AI-systemet skal bruges i enhver situation?
? KerneapplikationTilhører systemet et kerneapplikationsområde såsom menneskelige sprogteknologier, computersyn, automatisering og/eller optimering eller robotteknologi?
? EvalueringEr standarder eller metoder tilgængelige til evaluering af systemets output?

Hvordan kunne denne ramme bruges?

Denne ramme kan bruges på mange måder, herunder:

  • At bygge bro mellem principper på højt niveau og vurdering til regulerings- eller styringsformål. Rammen kan understøtte dette ved at etablere en valideret fælles taksonomi af rækken af ​​problemstillinger, der fortjener overvejelse af relevante interessenter som grundlag for at informere og forme videre tænkning. For eksempel på nationalt plan kan rammen bruges som et værktøj af regeringen, når den udvikler en national AI-strategi og -politikker for at etablere et fælles grundlag for risici og muligheder på tværs af interessentgrupper.
  • At informere konsekvensvurderinger. EU AI-loven kræver, at organisationer, der leverer AI-værktøjer eller anvender AI i deres processer, skal foretage en konsekvensanalyse for at identificere risikoen ved deres initiativer og anvende en passende risikostyringstilgang. Den her præsenterede ramme kunne bruges som grundlag for dette.
  • At informere horisontscanning for risici og fremtidige scenarier. Kategoriseringen af ​​risici i FN's AI-rådgivende organs interimsrapport6 ​​er i store træk tilpasset den ramme, der præsenteres i rammen her. Der er mulighed for, at rammerne kan bruges til at skabe konsensus og teste alvoren af ​​nye risici samt forebygge disse.
  • At forbedre de etiske principper, der er nødvendige for at guide og styre brugen af ​​AI. Rammerne kan gøre dette ved at give et fleksibelt grundlag, hvorpå troværdige systemer kan udvikles og sikre lovlig, etisk, robust og ansvarlig brug af teknologien. Disse principper kunne testes i forhold til hele rækken af ​​virkninger, der præsenteres i denne ramme.
  • At lette en statusopgørelse af eksisterende og udviklende foranstaltninger (lovgivning, lovgivning, politik, standarder, forvaltning osv.) og identificere huller, der skal overvejes yderligere. Disse kunne kortlægges i forhold til rammekategorierne på nationalt eller multinationalt plan for at bestemme huller og identificere passende foranstaltninger til at afbøde risiciene.
  • For at støtte regeringens brug af kunstig intelligens. Da mange regeringer fastlægger deres respektive strategier for brugen af ​​kunstig intelligens inden for agenturer og systemer, kan rammen bruges til at definere passende risikotærskler og identificere nøgleinteressenter og -ansvar.
  • At støtte den offentlige diskurs og etablere social licens til, hvordan AI bruges og de underliggende data, der vil blive brugt på tværs af offentlige tjenester eller mere bredt i samfundet.

En vej frem
Sammenfattende er den analytiske ramme tilvejebragt som grundlaget for et værktøjssæt, der kunne bruges af interessenter til omfattende at se på enhver væsentlig udvikling enten af ​​platforme eller brug på en konsistent og systematisk måde. De dimensioner, der præsenteres i denne ramme, har relevans fra teknologivurdering til offentlig politik, fra menneskelig udvikling til sociologi og fremtids- og teknologistudier. Selvom den er udviklet til AI, har denne analytiske ramme meget bredere anvendelse på enhver anden ny teknologi.

6 UN AI Advisory Board. 2023. Interim Report: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Anerkendelser

Mange personer er blevet konsulteret og har givet feedback i forbindelse med udviklingen af ​​både det indledende diskussionsoplæg og feedback efter dets offentliggørelse. Begge dokumenter blev udarbejdet af Sir Peter Gluckman Gluckman, præsident, ISC, og Hema Sridhar, tidligere chefvidenskabelig rådgiver, Forsvarsministeriet, New Zealand og nu seniorforsker Fellow, Universitetet i Auckland, New Zealand.

Især ISC Lord Martin Rees, tidligere præsident for Royal Society og medstifter af Center for the Study of Existential Risks, University of Cambridge; professor Shivaji Sondhi, professor i fysik, University of Oxford; Professor K Vijay Raghavan, tidligere hovedvidenskabelig rådgiver for Indiens regering; Amandeep Singh Gill, FN's generalsekretærs udsending om teknologi; Seán Ó hÉigeartaigh, administrerende direktør, Center for Studiet af Eksistentielle Risici, University of Cambridge; Sir David Spiegelhalter, Winton-professor i den offentlige risikoforståelse, universitetet
af Cambridge; Amanda-June Brawner, seniorpolitisk rådgiver og Ian Wiggins, direktør for internationale anliggender, Royal Society, Storbritannien; Dr. Jerome Duberry, administrerende direktør og dr. Marie-Laure Salles, direktør, Geneva Graduate Institute; Chor Pharn Lee, Center for Strategic Futures, premierministerens kontor, Singapore; Barend Mons og Dr. Simon Hodson, Dataudvalget (CoDATA); Professor Yuko Harayama, tidligere administrerende direktør, RIKEN; Professor
Rémi Quirion, præsident, INGSA; Dr. Claire Craig, University of Oxford og tidligere leder af fremsyn, Government Office of Science; Prof Yoshua Bengio, FN's generalsekretærs videnskabelige rådgivende udvalg og ved Université de Montréal; og de mange andre, der gav feedback til ISC på det indledende debatoplæg.


Yderligere læsning

Forberedelse af nationale forskningsøkosystemer til kunstig intelligens: Strategier og fremskridt i 2024

Dette arbejdspapir fra ISC's tænketank, Center for Science Futures, giver grundlæggende information og adgang til ressourcer fra lande fra alle dele af verden på forskellige stadier af integration af AI i deres forskningsøkosystemer.


tre forskere i diskussion

Opbygning af fremtidssikrede videnskabelige systemer i det globale syd

Nye teknologier omformer den måde, videnskab udføres på, og tilbyder et betydeligt potentiale til at styrke videnskabssystemer i det globale syd – hvis deres implementering styres af inkluderende, velunderbyggede og kontekstfølsomme tilgange. Hvordan man sikrer, at disse teknologier bidrager til mere retfærdige og robuste videnskabssystemer i stedet for at forstærke eksisterende uligheder, var det centrale fokus for dette nylige strategiske tilbagetog.