Tilmeld dig

Positionspapir

En ramme til evaluering af hurtigt udviklende digitale og relaterede teknologier: AI, store sprogmodeller og mere

Dette diskussionsoplæg giver skitseringen af ​​en indledende ramme til at informere om de mange globale og nationale diskussioner, der finder sted relateret til kunstig intelligens.

Det er blevet foreslået af en række akademikere og politiske eksperter, at International Science Council – med sit pluralistiske medlemskab fra samfunds- og naturvidenskaberne – etablerer en proces til at producere og vedligeholde en kommenteret ramme/tjekliste over risici, fordele, trusler og muligheder forbundet med hurtigt bevægende digitale teknologier, herunder – men ikke begrænset til – AI. Formålet med tjeklisten ville være at informere alle interessenter – herunder regeringer, handelsforhandlere, regulatorer, civilsamfundet og industrien – om potentielle fremtidige scenarier, og den ville danne ramme om, hvordan de kan overveje mulighederne, fordelene, risici og andre spørgsmål.

ISC er glad for at kunne præsentere dette debatoplæg om evaluering af hurtigt udviklende digital og relateret teknologi. Kunstig intelligens, syntetisk biologi og kvanteteknologier er prime eksempler på innovation, informeret af videnskaben, der opstår i et hidtil uset tempo. Det kan være udfordrende systematisk at forudse ikke kun deres anvendelser, men også deres implikationer.

Evaluering af de samfundsmæssige aspekter af generativ kunstig intelligens, såsom store sprogmodeller, som forudsigeligt repræsenterer hovedparten af ​​dette diskussionsoplæg, er en nødvendig bro i den nuværende diskurs – nogle gange panikdrevet, andre gange ikke dybtgående nok i tankerne – og de nødvendige kurser for handling vi kan tage. ISC er overbevist om, at en analytisk ramme mellem den sociale accept af sådanne nye teknologier og deres mulige regulering er påkrævet for at lette de multistakeholder-diskussioner, der er nødvendige for at træffe informerede og ansvarlige beslutninger om, hvordan man optimerer de sociale fordele ved denne hurtigt fremkommende teknologi.

ISC er åben for reaktioner fra vores samfund gennem dette debatoplæg for at vurdere, hvordan man bedst kan fortsætte med at være en del af og bidrage til debatten omkring teknologi.

Salvatore Aricò, administrerende direktør
Et ISC-debatoplæg

Et ISC-debatoplæg

En ramme til evaluering af hurtigt udviklende digitale og relaterede teknologier: AI, store sprogmodeller og mere

Dette diskussionsoplæg giver skitseringen af ​​en indledende ramme til at informere om de mange globale og nationale diskussioner, der finder sted relateret til kunstig intelligens.

Download rapporten

Ny! Læs 2024-versionen for politiske beslutningstagere med en ramme, der kan downloades til din organisation.

En guide til politiske beslutningstagere: Evaluering af teknologier, der udvikler sig hurtigt, inklusive kunstig intelligens, store sprogmodeller og mere

Dette diskussionsoplæg giver skitseringen af ​​en indledende ramme til at informere om de mange globale og nationale diskussioner, der finder sted relateret til kunstig intelligens.

Læs 2023 ISC-diskussionspapiret online eller på dit foretrukne sprog

Indhold

  • Introduktion 
  • Baggrund 
  • Udvikling af en analytisk ramme 
  • Brug af den analytiske ramme 
  • Dimensioner at overveje, når man vurderer en ny teknologi 
  • En vej frem 
  • Anerkendelser

Introduktion

Hurtigt fremvoksende teknologier præsenterer udfordrende problemer, når det kommer til deres styring og potentielle regulering. De politiske og offentlige debatter om kunstig intelligens (AI) og brugen heraf har bragt disse spørgsmål i akut fokus. Mens brede principper for kunstig intelligens er blevet bekendtgjort af UNESCO, OECD og andre, og der er begyndende diskussioner om global eller jurisdiktionel regulering af teknologien, er der en ontologisk kløft mellem udviklingen af ​​principper på højt niveau og deres inkorporering i lovgivning, politik, styrings- og forvaltningstilgange. Det er her, det ikke-statslige videnskabelige samfund kunne spille en særlig rolle. 

Det er blevet foreslået af en række akademikere og politiske eksperter, at International Science Council (ISC) – med sit pluralistiske medlemskab fra samfunds- og naturvidenskaberne – etablerer en proces til at producere og vedligeholde en kommenteret ramme/tjekliste over risici, fordele, trusler og muligheder forbundet med hurtigt bevægende digitale teknologier, herunder – men ikke begrænset til – AI. Formålet med tjeklisten ville være at informere alle interessenter – herunder regeringer, handelsforhandlere, regulatorer, civilsamfundet og industrien – om potentielle fremtidige scenarier, og den ville danne ramme om, hvordan de kan overveje mulighederne, fordelene, risici og andre spørgsmål. 

Outputtene ville ikke fungere som et vurderingsorgan, men som en adaptiv og udviklende analytisk ramme, der kunne understøtte enhver vurdering og reguleringsprocesser, der måtte udvikles af interessenter, herunder regeringer og det multilaterale system. Enhver analytisk ramme bør ideelt set udvikles uafhængigt af regerings- og industrikrav, givet deres forståelige interesser. Det skal også være maksimalt pluralistisk i sine perspektiver og således omfatte alle aspekter af teknologien og dens implikationer. 

Dette diskussionsoplæg giver skitseringen af ​​en indledende ramme til at informere om de mange globale og nationale diskussioner, der finder sted relateret til kunstig intelligens. 

Baggrund: Hvorfor en analytisk ramme?

Den hurtige fremkomst af en teknologi med kompleksiteten og implikationerne af AI driver mange påstande om store fordele. Det vækker dog også frygt for betydelige risici, fra individuelt til geostrategisk niveau. Meget af diskussionen har en tendens til at foregå i de yderste ender af spektret af synspunkter, og en mere pragmatisk tilgang er nødvendig. AI-teknologi vil fortsætte med at udvikle sig, og historien viser, at stort set enhver teknologi har både gavnlige og skadelige anvendelser. Spørgsmålet er derfor: hvordan kan vi opnå gavnlige resultater fra denne teknologi, samtidig med at vi reducerer risikoen for skadelige konsekvenser, hvoraf nogle kunne være eksistentielle i omfang? 

Fremtiden er altid usikker, men der er tilstrækkeligt med troværdige og ekspertstemmer vedrørende AI og generativ AI til at tilskynde til en relativt forsigtig tilgang. Derudover er der behov for en systemtilgang, fordi AI er en klasse af teknologier med bred anvendelse og anvendelse af flere typer brugere. Det betyder, at den fulde kontekst skal tages i betragtning, når man overvejer implikationerne af AI for individer, det sociale liv, det civile liv, det samfundsmæssige liv og i den globale kontekst. 

I modsætning til de fleste tidligere teknologier har digitale og relaterede teknologier en meget kort periode fra udvikling til udgivelse, i høj grad drevet af produktionsselskabernes eller bureauernes interesser. AI er hurtigt udbredt; nogle egenskaber bliver muligvis først synlige efter udgivelsen, og teknologien kan have både ondsindede og velvillige anvendelser. Vigtige værdier dimensioner vil påvirke, hvordan enhver brug opfattes. Endvidere kan der være geostrategiske interesser på spil. 

Til dato er reguleringen af ​​en virtuel teknologi i vid udstrækning blevet set gennem linsen af ​​"principper" og frivillig overholdelse. På det seneste har diskussionen imidlertid drejet sig om spørgsmål om national og multilateral styring, herunder brugen af ​​lovgivningsmæssige og andre politiske værktøjer. Påstandene for eller imod AI er ofte hyperbolske og – i betragtning af teknologiens karakter – svære at vurdere. Etablering af et effektivt globalt eller nationalt teknologireguleringssystem vil være udfordrende, og der vil være behov for flere lag af risikoinformeret beslutningstagning langs kæden, fra opfinder til producent, til bruger, til regering og til det multilaterale system. 

Mens principper på højt niveau er blevet bekendtgjort af blandt andet UNESCO, OECD og Europa-Kommissionen, og der er forskellige diskussioner på højt niveau i gang om spørgsmål om potentiel regulering, er der en stor ontologisk kløft mellem sådanne principper og en styrings- eller reguleringsramme. Hvad er taksonomien af ​​overvejelser, som en regulator måske skal overveje? En snævert fokuseret indramning ville være uklogt i betragtning af de brede implikationer af disse teknologier. Dette potentiale har været genstand for mange kommentarer, både positive og negative.

Udvikling af en analytisk ramme

ISC er den primære globale NGO, der integrerer natur- og samfundsvidenskab. Dens globale og disciplinære rækkevidde betyder, at den er godt placeret til at generere uafhængig og globalt relevant rådgivning for at informere om de komplekse valg forude, især da de nuværende stemmer på denne arena i vid udstrækning er fra industrien eller fra de store teknologiske magter. Efter omfattende diskussion i de seneste måneder, herunder overvejelser om en ikke-statslig vurderingsproces, konkluderede ISC, at dens mest nyttige bidrag ville være at producere og vedligeholde en adaptiv analytisk ramme, der kan bruges som grundlag for diskurs og beslutningstagning af alle interessenter, herunder under enhver formel vurderingsproces, der dukker op. 

Denne ramme vil tage form af en overordnet tjekliste, der kan bruges af både statslige og ikke-statslige institutioner. Rammen identificerer og udforsker potentialet i en teknologi som AI og dens derivater gennem en bred linse, der omfatter menneskelig og samfundsmæssig velvære, såvel som eksterne faktorer, såsom økonomi, politik, miljø og sikkerhed. Nogle aspekter af tjeklisten kan være mere relevante end andre, afhængigt af konteksten, men bedre beslutninger er mere sandsynlige, hvis alle domæner tages i betragtning. Dette er den iboende værdi af en tjeklistetilgang. 

Den foreslåede ramme er afledt af tidligere arbejde og tænkning, herunder International Network for Governmental Science Advice's (INGSA) digitale velværerapport1 og OECD AI Classification Framework2 at præsentere helheden af ​​de potentielle muligheder, risici og virkninger af AI. Disse tidligere produkter var mere begrænsede i deres hensigt i betragtning af deres tid og kontekst, der er behov for en overordnet ramme, der præsenterer hele spektret af problemstillinger både på kort og længere sigt. 

Selvom den er udviklet med henblik på AI, kunne denne analytiske ramme anvendes på enhver hurtigt fremkommende teknologi. Problemstillingerne er groft grupperet i følgende kategorier til yderligere undersøgelse: 

  • Velvære (inklusive individers eller selv, samfund og sociale liv og samfundsliv) 
  • Handel og økonomi 
  • Miljø 
  • Geo-strategisk og geo-politisk 
  • Teknologisk (systemegenskaber, design og brug) 

En liste over overvejelser for hver af ovenstående kategorier er inkluderet sammen med deres respektive muligheder og konsekvenser. Nogle er relevante for specifikke tilfælde eller applikationer af AI, mens andre er generiske og agnostiske med hensyn til platform eller brug. Ingen enkelt betragtning, der er inkluderet her, bør behandles som en prioritet, og som sådan bør alle undersøges. 

Hvordan kunne denne ramme bruges?

Denne ramme kan bruges på, men ikke begrænset til, følgende måder: 

  • At bygge bro mellem principper og vurdering ved at etablere en valideret fælles taksonomi af rækken af ​​overvejelser, der kunne bruges af relevante interessenter som grundlag for at informere og forme videre tænkning, herunder enhver vurderingsramme, der måtte blive udviklet af myndigheder. 
  • At informere konsekvensvurderinger. EU AI-loven kræver, at organisationer, der leverer AI-værktøjer eller anvender AI i deres processer, skal foretage en konsekvensanalyse for at identificere risikoen ved deres initiativer og anvende en passende risikostyringstilgang. Den her præsenterede ramme kunne bruges som grundlag for dette. 
  • At forbedre de etiske principper, der er nødvendige for at guide og styre brugen af ​​AI. Rammerne kan gøre dette ved at give et fleksibelt grundlag, hvorpå troværdige systemer kan udvikles og sikre lovlig, etisk, robust og ansvarlig brug af teknologien. Disse principper kunne testes i forhold til hele rækken af ​​virkninger, der præsenteres i denne ramme. 
  • At lette en statusopgørelse over eksisterende foranstaltninger (dvs. lovgivningsmæssige, lovgivningsmæssige, politiske) og identificere eventuelle huller, der skal overvejes yderligere. 
  • Rammen er agnostisk over for teknologien og dens anvendelse. Det kunne derfor bruges på ganske forskellige områder såsom syntetisk biologi. 

Følgende tabel er en tidlig udformning af dimensionerne af en analytisk ramme. Afhængigt af teknologien og dens anvendelse vil nogle komponenter være mere relevante end andre. Eksemplerne er givet for at illustrere, hvorfor hvert domæne kan have betydning; i kontekst ville rammen kræve kontekstuelt relevant udvidelse. Det er også vigtigt at skelne mellem platformudvikling og de generiske problemer, der kan dukke op under specifikke applikationer.  

Dimensioner at overveje, når man vurderer en ny teknologi

Indledende udkast til de dimensioner, der muligvis skal tages i betragtning ved vurdering af en ny teknologi
Dimensioner af påvirkning Kriterier Eksempler på hvordan dette kan afspejles i analyse  
Individuel/ selv  Brugernes AI-kompetence  Hvor kompetente og bevidste om systemets egenskaber er de sandsynlige brugere, der vil interagere med systemet? Hvordan vil de få de relevante brugeroplysninger og advarsler? 
Berørte interessenter  Hvem er de primære interessenter, der vil blive påvirket af systemet (dvs. enkeltpersoner, lokalsamfund, sårbare, sektoransatte, børn, politiske beslutningstagere, fagfolk)? 
Valgfrihed Får brugerne mulighed for at fravælge systemet; skal de have mulighed for at udfordre eller rette på outputtet?  
Risici for menneskerettigheder og demokratiske værdier  Kan systemet påvirke (og i hvilken retning) på menneskerettigheder, herunder, men ikke begrænset til, privatliv, ytringsfrihed, retfærdighed, risiko for diskrimination osv.? 
Potentielle effekter på menneskers velbefindende Kan systemet påvirke (og i hvilken retning) den enkelte brugers velbefindende (dvs. jobkvalitet, uddannelse, sociale interaktioner, mental sundhed, identitet, miljø)?  
Potentiale for menneskelig arbejdsfortrængning Er der et potentiale for systemet til at automatisere opgaver eller funktioner, der blev udført af mennesker? Hvis ja, hvad er de efterfølgende konsekvenser? 
Potentiale for manipulation af identitet, værdier eller viden Er systemet designet til eller potentielt i stand til at manipulere brugerens identitet eller værdier, eller sprede desinformation? Er der mulighed for falske eller ukontrollerbare påstande om ekspertise? 
Mål for selvværd Er der pres for at portrættere et idealiseret jeg? Kan automatisering erstatte en følelse af personlig tilfredsstillelse? Er der pres for at konkurrere med systemet på arbejdspladsen? Er individuelt omdømme gjort sværere at beskytte mod desinformation? 
Privatliv Er der spredte ansvarsområder for beskyttelse af privatlivets fred, og gøres der nogen antagelser om, hvordan persondata bliver brugt?  
Autonomi Kunne systemet påvirke menneskelig autonomi ved at skabe overdreven afhængighed af teknologien hos slutbrugere? 
Menneskelig udvikling Er der en indvirkning på tilegnelsen af ​​nøglefærdigheder til menneskelig udvikling, såsom eksekutive funktioner, interpersonelle færdigheder, ændringer i opmærksomhedstid, der påvirker læring, personlighedsudvikling, mentale sundhedsproblemer osv.?  
Personlig sundhedspleje Er der påstande om personlige sundhedsløsninger? Hvis ja, er de valideret i henhold til regulatoriske standarder? 
Mental sundhed Er der risiko for øget angst, ensomhed eller andre psykiske problemer, eller kan teknologien afbøde sådanne påvirkninger? 
Menneskelig evolution Kan teknologien føre til ændringer i menneskets evolution?  
Dimensioner af påvirkning Kriterier Beskrivelse 
Samfund/socialt liv Samfundsværdier  Ændrer systemet fundamentalt samfundets natur eller muliggør normaliseringen af ​​ideer, der tidligere blev betragtet som asociale, eller bryder det samfundsværdierne i den kultur, hvori det anvendes?  
Social interaktion Er der en effekt på meningsfuld menneskelig kontakt, herunder følelsesmæssige relationer?  
Egenkapital Er det sandsynligt, at applikationen/teknologien reducerer eller øger uligheder (dvs. økonomisk, social, uddannelsesmæssig, geografisk)? 
Befolkningens sundhed Er der et potentiale for, at systemet kan fremme eller underminere befolkningens sundhedsintentioner? 
Kulturelt udtryk Er en stigning i kulturel tilegnelse eller diskrimination sandsynlig eller sværere at håndtere? Udelukker eller marginaliserer afhængighed af systemet til beslutningstagning potentielt dele af samfundet? 
Offentlig uddannelse Er der en effekt på lærerroller eller uddannelsesinstitutioner? Fremhæver eller mindsker systemet ulighed blandt studerende og den digitale kløft? Er den iboende værdi af viden eller kritisk forståelse avanceret eller undermineret?  
Forvrængede realiteter Er de metoder, vi bruger til at skelne, hvad der er sandt stadig gældende? Er virkelighedsopfattelsen kompromitteret?  
Økonomisk kontekst (handel)         Industriel sektor Hvilken industrisektor er systemet indsat i (dvs. finans, landbrug, sundhedspleje, uddannelse, forsvar)? 
Forretningsmodel I hvilken forretningsfunktion anvendes systemet, og i hvilken egenskab? Hvor bruges systemet (privat, offentligt, non-profit)? 
Indvirkning på kritiske aktiviteter  Vil en afbrydelse af systemets funktion eller aktivitet påvirke væsentlige tjenester eller kritiske infrastrukturer?  
Udbredelsens pust Hvordan er systemet implementeret (snævert inden for en organisation versus udbredt nationalt/internationalt)? 
Teknisk modenhed (TRL) Hvor teknisk modent er systemet?  
Teknologisk suverænitet Driver teknologien større koncentration af teknologisk suverænitet.  
Indkomstomfordeling og nationale finanspolitiske løftestænger Kunne den suveræne stats kerneroller blive kompromitteret (dvs. Reservebanker)? Vil statens evne til at imødekomme borgernes forventninger og implikationer (dvs. sociale, økonomiske, politiske) blive fremmet eller reduceret?  
Dimensioner af påvirkning Kriterier Beskrivelse 
Borgerliv     Governance og offentlig service Kan styringsmekanismer og globale styringssystemer blive påvirket positivt eller negativt? 
Nyhedsmedier Er det sandsynligt, at den offentlige diskurs bliver mere eller mindre polariseret og forankret på befolkningsniveau? Vil der være en effekt på niveauet af tillid til medierne? Vil konventionel journalistik etik og integritetsstandarder blive yderligere påvirket?  
Lovregel Vil der være en effekt på evnen til at identificere enkeltpersoner eller organisationer, der skal holdes ansvarlige (dvs. hvilken slags ansvarlighed skal tildeles en algoritme for ugunstige resultater)? Skaber dette et tab af suverænitet (dvs. miljø, finanspolitik, socialpolitik, etik)?  
Politik og social sammenhængskraft Er der mulighed for mere forankrede politiske holdninger og mindre mulighed for konsensusopbygning? Er der mulighed for yderligere at marginalisere grupper? Er modstridende stilarter af politik gjort mere eller mindre sandsynlige? 
Geo-strategisk/ geo-politisk kontekst     Præcis overvågning Er systemerne trænet på individuelle adfærdsmæssige og biologiske data, og hvis ja, kan de bruges til at udnytte individer eller grupper? 
Digital kolonisering Er statslige eller ikke-statslige aktører i stand til at udnytte systemer og data til at forstå og kontrollere andre landes befolkninger og økosystemer eller til at underminere jurisdiktionskontrol? 
Geopolitisk konkurrence Påvirker systemet konkurrencen mellem nationer og teknologiplatforme om adgang til individuelle og kollektive data til økonomiske eller strategiske formål? 
Handel og handelsaftaler Har systemet konsekvenser for internationale handelsaftaler? 
Skift i globale magter Er nationalstaternes status som verdens primære geopolitiske aktører truet? Vil teknologivirksomheder udøve magt engang forbeholdt nationalstater, og er de ved at blive uafhængige suveræne aktører?  
misinformation Er det lettere for statslige og ikke-statslige aktører at producere og formidle desinformation, der påvirker social sammenhængskraft, tillid og demokrati?  
Miljø   Energi- og ressourceforbrug (carbon footprint) Øger systemet og kravene optagelsen af ​​energi- og ressourceforbrug ud over de effektivitetsgevinster, der opnås gennem applikationen?  
Dimensioner af påvirkning Kriterier Beskrivelse 
Data og input          Detektion og indsamling  Er data og input indsamlet af mennesker, automatiserede sensorer eller begge dele?  
Herkomst af data  Med hensyn til data er disse givet, observeret, syntetiske eller afledte? Er der vandmærkebeskyttelse for at bekræfte herkomst? 
Dynamisk karakter af data Er dataene dynamiske, statiske, opdateret fra tid til anden eller opdateret i realtid? 
Rettigheder Er data proprietære, offentlige eller personlige (dvs. relateret til identificerbare individer)?  
Identificerbarhed af personlige data  Hvis personlige data, er de anonymiserede eller pseudonymiserede?  
Opbygning af data Er dataene strukturerede, semistrukturerede, komplekse strukturerede eller ustrukturerede? 
Format af data  Er formatet af data og metadata standardiseret eller ikke-standardiseret?  
Skalaen af ​​data  Hvad er datasættets skala?  
Hensigtsmæssighed og kvalitet af data Er datasættet egnet til formålet? Er stikprøvestørrelsen tilstrækkelig? Er det repræsentativt og fuldstændigt nok? Hvor støjende er dataene? Er det fejludsat?  
Model             Information tilgængelighed  Findes der information om systemets model?  
Type AI-model  Er modellen symbolsk (menneskeskabte regler), statistisk (bruger data) eller hybrid?  
Rettigheder knyttet til model  Er modellen open source, eller proprietær, selv- eller tredjepartsadministreret? 
Enkelte eller flere modeller  Er systemet sammensat af én model eller flere indbyrdes forbundne modeller?  
Generativ eller diskriminerende Er modellen generativ, diskriminerende eller begge dele?  
Modelbygning  Lærer systemet baseret på menneskeskrevne regler, fra data, gennem superviseret læring eller gennem forstærkende læring?  
Modeludvikling (AI-drift) Udvikler modellen sig og/eller tilegner sig evner ved at interagere med data i felten?  
Fødereret eller central læring Er modellen trænet centralt eller i flere lokale servere eller "edge"-enheder?  
Udvikling og vedligeholdelse  Er modellen universel, kan tilpasses eller skræddersyet til AI-aktørens data?  
Deterministisk eller probabilistisk  Anvendes modellen på en deterministisk eller probabilistisk måde?  
Modelgennemsigtighed  Er information tilgængelig for brugerne, så de kan forstå modeloutput og -begrænsninger eller bruge begrænsninger?  
Beregningsmæssig begrænsning Er der beregningsmæssige begrænsninger for systemet? Kan vi forudsige kapacitetsspring eller skaleringslove? 
Dimensioner af påvirkning Kriterier Beskrivelse 
Opgave og output       Opgave(r) udført af systemet Hvilke opgaver udfører systemet (dvs. genkendelse, hændelsesdetektion, prognose)?  
At kombinere opgaver og handlinger  Kombinerer systemet flere opgaver og handlinger (dvs. indholdsgenereringssystemer, autonome systemer, kontrolsystemer)?  
Systemets grad af autonomi Hvor autonome er systemets handlinger, og hvilken rolle spiller mennesker?  
Grad af menneskelig involvering Er der nogen menneskelig involvering til at overvåge den overordnede aktivitet af AI-systemet og evnen til at beslutte, hvornår og hvordan systemet skal bruges i enhver situation? 
Kerneapplikation Tilhører systemet et kerneapplikationsområde såsom menneskelige sprogteknologier, computersyn, automatisering og/eller optimering eller robotteknologi?  
Evaluering  Er standarder eller metoder tilgængelige til at evaluere systemoutput eller håndtere uforudsete opståede egenskaber?  

Nøglen til kilder til deskriptorerne

Simpel tekst:
Gluckman, P. og Allen, K. 2018. Forståelse af velvære i sammenhæng med hurtige digitale og tilhørende transformationer. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Fed skrift:
OECD. 2022. OECD-ramme for klassificering af AI-systemer. OECD Digital Economy Papers, nr. 323, OECD Publishing, Paris. https://oecd.ai/en/classification 

Kursiv tekst:
Nye deskriptorer (fra flere kilder) 

En vej frem

Afhængigt af svaret på dette diskussionsoplæg vil ISC danne en ekspertarbejdsgruppe for at videreudvikle eller ændre ovenstående analytiske ramme, hvorved interessenter kan se på enhver væsentlig udvikling, enten af ​​platforme eller brugsdimensioner. Arbejdsgruppen vil være disciplinært, geografisk og demografisk forskelligartet med ekspertise, der spænder fra teknologivurdering til offentlig politik, fra menneskelig udvikling til sociologi og fremtids- og teknologistudier. 

For at engagere dig i dette debatoplæg, besøg venligst Council.science/publications/framework-digital-technologies 

Anerkendelser

Mange personer er blevet konsulteret i forbindelse med udviklingen af ​​dette dokument, som blev udarbejdet af Sir Peter Gluckman, præsident, ISC og Hema Sridhar, tidligere chefforsker, Forsvarsministeriet, og nu seniorforsker, University of Auckland, New Zealand. 

Vi takker især Lord Martin Rees, tidligere præsident for Royal Society og medstifter af Center for the Study of Existential Risks, University of Cambridge; professor Shivaji Sondhi, professor i fysik, University of Oxford; Professor K Vijay Raghavan, tidligere hovedvidenskabelig rådgiver for Indiens regering; Amandeep Singh Gill, FN's generalsekretærs udsending om teknologi; Dr. Seán Óh Éigeartaigh, administrerende direktør, Center for Studiet af Eksistentielle Risici, University of Cambridge; Amanda-June Brawner, seniorpolitisk rådgiver og Ian Wiggins, direktør for internationale anliggender, Royal Society UK; Dr. Jerome Duberry, Dr. Marie-Laure Salles, direktør, Geneva Graduate Institute; Chor Pharn Lee, Center for Strategic Futures, premierministerens kontor, Singapore; Barend Mons og Dr. Simon Hodson, Dataudvalget (CoDATA); Prof Yuko Harayama, Japan; professor Rémi Quirion, præsident, INGSA; Dr. Claire Craig, University of Oxford og tidligere leder af fremsyn, Government Office of Science; og prof Yoshua Bengio, FN's generalsekretærs videnskabelige rådgivende udvalg og ved Université de Montréal. Tjeklistetilgangen blev generelt godkendt, og rettidigheden af ​​enhver handling fra ISC blev understreget. 


Deltag i diskussionen

Navn
Køn
Databeskyttelse: Respondenter skal være opmærksomme på, at ISC vil opbevare de indsendte oplysninger i hele initiativets varighed (se: https://council.science/privacy-policy)
Vi inviterer dig til at abonnere på ISCs nyhedsbrev.

Billede: adamichi på iStock