Iscriviti

Segnala

Una guida per i decisori pulitichi: Evaluazione di e tecnulugia chì si sviluppanu rapidamente cumprese l'IA, i grandi mudelli di lingua è oltre

In questu documentu, l'ISC esplora u schema di un quadru per informà i decisori pulitichi nantu à e molteplici discussioni glubale è naziunale chì si svolgenu in relazione à l'IA.

A guida di l'ISC offre un quadru cumpletu cuncepitu per colma a distanza trà i principii di altu livellu è a pulitica pratica è azzione. Rispondi à a necessità urgente di una cunniscenza cumuna di l'opportunità è di i risichi presentati da e tecnulugia emergenti. Questu hè un documentu essenziale per quelli chì travaglianu in u nexus puliticu in a nostra era digitale chì cambia rapidamente.

U quadru esplora u putenziale di l'IA è i so derivati ​​per mezu di una lente cumpleta, chì cumprende u benessere umanu è suciale cù fatturi esterni cum'è l'ecunumia, a pulitica, l'ambiente è a sicurità. Certi aspetti di a lista di cuntrollu pò esse più pertinenti chì l'altri, secondu u cuntestu, ma megliu decisioni parenu più prubabile si tutti i domini sò cunsiderati, ancu s'ellu pò esse rapidamente identificati com'è irrilevanti in casi particulari. Questu hè u valore inherente di un approcciu di lista di cuntrollu.

"In un'era marcata da una rapida innovazione tecnologica è sfide globale cumplesse, u quadru di l'ISC per l'analisi cumpleta è multidimensionale di l'impatti potenziali permette à i dirigenti di piglià decisioni infurmate è rispunsevuli. Assicura chì, cum'è avanzamu tecnologicamente, facemu cusì cun una cunsiderazione attenta di l'implicazioni etiche, suciali è ecunomiche ".

Peter Gluckman, presidente di l'ISC

Mentre i principii d'altu livellu sò stati promulgati da l'UNESCO, l'OCDE, a Cummissione Europea è l'ONU, trà l'altri, è parechje discussioni cuntinueghjanu in quantu à prublemi di guvernanza potenziale, regulazione, etica è sicurità, ci hè una grande distanza trà tali principii è un un quadru regulatori o di guvernanza. L'ISC risponde à sta necessità attraversu a so nova guida per i decisori pulitichi.

Questa guida per i decisori pulitichi ùn hè micca destinata à proscrive un regime regulatore, ma piuttostu à suggerisce un quadru analiticu adattativu è in evoluzione chì puderia sustene qualsiasi prucessi di valutazione è regulatori chì puderanu esse sviluppati da i parti interessate, cumpresi i guverni è u sistema multilaterale.

"U quadru hè un passu criticu in a cunversazione glubale nantu à l'IA perchè furnisce una basa da quale pudemu custruisce un cunsensu annantu à l'implicazioni di a tecnulugia per avà è in u futuru". 

Hema Sridhar, anziana Cunsigliera Scientifica Capu, Ministeru di a Difesa, Nova Zelanda è avà Ricercatrice Senior Fellow, Università d'Auckland, Nova Zelanda.

Dapoi uttrovi 2023, ci sò state parechje iniziative naziunali è multilaterali significative cun più cunsiderazione di l'etica è a sicurità di l'IA. L'implicazioni di l'AI nantu à l'integrità di alcuni di i nostri sistemi critichi, cumpresi finanziari, guvernu, legale è educazione, è ancu diversi sistemi di cunniscenza (cumprese a cunniscenza scientifica è indigena), sò di crescente preoccupazione. U quadru riflette ancu questi aspetti.

I feedback ricevuti da i Membri di l'ISC è da a cumunità internaziunale di e pulitiche à a data sò riflessi in a versione rivista di u quadru analiticu, chì hè avà liberatu cum'è guida per i decisori pulitichi.

Una guida per i decisori pulitichi: Evaluazione di e tecnulugia chì si sviluppanu rapidamente cumprese l'IA, i grandi mudelli di lingua è oltre

Stu documentu di discussione furnisce u contornu di un quadru iniziale per informà e parechje discussioni glubale è naziunale chì si svolgenu in relazione à l'IA.

Framework per l'usu in a vostra urganizazione

Scaricate u framework per l'usu in a vostra urganizazione

Quì furnimu l'uttellu di quadru cum'è una foglia Excel editable per l'usu in a vostra urganizazione. Se preferite un formatu open source, cuntattate per piacè [email prutettu].

I MUVRINI

I tecnulugii emergenti rapidamente presentanu prublemi sfide quandu si tratta di u so usu, governanza è regulazione potenziale. A pulitica in corso è i dibattiti publichi nantu à l'intelligenza artificiale (AI) è u so usu anu purtatu questi prublemi in un focus acutu. I principii larghi per l'IA sò stati annunziati da l'UNESCO, l'OCDE, l'ONU è altri, cumpresa a Dichjarazione di Bletchley di u Regnu Unitu, è ci sò tentativi ghjuridichi emergenti di regulazione di aspetti di a tecnulugia attraversu, per esempiu, l'AI di l'Unione Europea (UE) Act o u recente Ordine Esecutivu di l'AI di i Stati Uniti.

Mentre chì l'usu di l'IA hè discutitu longu in questi è altri fora, à traversu divisi geopulitichi è in i paesi à tutti i livelli di redditu, ci resta un gap ontologicu trà u sviluppu di principii di altu livellu è a so incorporazione in pratica per via di regulazione, pulitica, governance. o s'avvicina l'amministrazione. U percorsu da u principiu à a pratica hè pocu definitu, ma datu a natura è a cadenza di u sviluppu è l'applicazione di l'AI, a varietà di interessu implicatu è a varietà di applicazioni pussibuli, ogni approcciu ùn pò esse troppu genericu o prescriptivu.

Per sti mutivi, a cumunità scientifica non governamentale cuntinueghja à ghjucà un rolu particulari. U Cunsigliu Internaziunale di a Scienza (ISC) - cù a so appartenenza pluralistica da e scienze suciali è naturali - hà publicatu un documentu di discussione in uttrovi 2023 chì presenta un quadru analiticu preliminare chì hà cunsideratu i risichi, i benefici, i minacce è l'opportunità assuciati cù a tecnulugia digitale in rapidità. Mentre hè statu sviluppatu per cunsiderà l'AI, hè intrinsecamente agnosticu di a tecnulugia è pò esse appiicata à una gamma di tecnulugia emergenti è disruptive, cum'è a biologia sintetica è quantum. Ddu documentu di discussione hà invitatu feedback da l'accademici è i decisori pulitichi. U feedback eccessiva hà fattu a realizazione di una tale analisi necessaria è era un approcciu preziosu per affruntà e tecnulugia emergenti cum'è l'IA.

U scopu di u quadru hè di furnisce un strumentu per informà tutte e parti interessate - cumpresi i guverni, i negoziatori di cummerciale, i regulatori, a sucietà civile è l'industria - di l'evoluzione di sti tecnulugii per aiutà li à inquadramentu cumu puderanu cunsiderà l'implicazioni, pusitivi o negativi, di a tecnulugia stessa, è più specificamente a so applicazione particulare. Stu quadru analiticu hè statu sviluppatu indipendentemente da l'interessi di u guvernu è di l'industria. Hè u massimu pluralisticu in e so prospettive, cumprende tutti l'aspetti di a tecnulugia è e so implicazioni basate nantu à una vasta cunsultazione è feedback.

Stu documentu di discussione per i decisori pulitichi ùn hè micca destinatu à proscrive un regime regulatori, ma piuttostu à suggerisce un quadru analiticu adattativu è in evoluzione chì puderia sustene qualsiasi prucessu di valutazione è regulatori chì puderanu esse sviluppati da i parti interessate, cumpresi i guverni è u sistema multilaterale.

Siccomu i decisori in u mondu è naziunale cunsidereghjanu paràmetri di pulitiche è leve per equilibrà i risichi è i benefici di una nova tecnulugia cum'è l'IA, u quadru analiticu hè pensatu cum'è un strumentu cumplementariu per assicurà chì a suite completa di l'implicazioni potenziali sia riflette adeguatamente.

Sfondate: perchè un quadru analiticu?

L'emergenza rapida di e tecnulugia cù a cumplessità è l'implicazioni di l'IA porta parechje rivendicazioni di grande benefiziu. Tuttavia, pruvuca ancu teme di risichi significativi, da individuu à livellu geostrategicu.1 A maiò parte di a discussione finu à a data hè stata cunsiderata in un sensu binariu, postu chì i punti di vista espressi publicamente tendenu à esse in l'estremità estremi di u spettru. L'affirmazioni fatte per o contru l'AI sò spessu iperboliche è - data a natura di a tecnulugia - difficili da valutà.

Un approcciu più pragmaticu hè necessariu induve l'iperbole hè rimpiazzatu cù valutazioni calibrate è più granulari. A tecnulugia AI cuntinuerà à evoluzione, è a storia mostra chì praticamente ogni tecnulugia hà usi utili è dannosi. A quistione hè, dunque: cumu pudemu ottene i risultati benefizii da sta tecnulugia, mentre riducendu u risicu di cunsiquenzi dannosi, alcuni di i quali puderanu esse esistenziali in magnitudine?

U futuru hè sempre incertu, ma ci sò abbastanza voci credibili è esperte in quantu à l'IA è l'IA generativa per incuragisce un approcciu relativamente prudente. Inoltre, un approcciu di sistemi hè necessariu postu chì l'IA hè una classa di tecnulugia cù un largu usu è applicazione da parechji tipi d'utilizatori. Questu significa chì u cuntestu sanu deve esse cunsideratu quandu cunzidira l'implicazioni di qualsiasi usu di l'AI per l'individui, a vita suciale, a vita civica, a vita suciali è in u cuntestu glubale.

A cuntrariu di a maiò parte di l'altri tecnulugii, per e tecnulugii digitali è cunnessi, u tempu trà u sviluppu, a liberazione è l'applicazione hè estremamente cortu, in gran parte guidatu da l'interessi di e cumpagnie di produzzione o agenzie. Per a so stessa natura - è datu hè basatu annantu à a spina digitale - AI averà applicazioni chì sò rapidamente pervasive, cum'è hè digià vistu cù u sviluppu di mudelli di lingua maiò. In u risultatu, alcune proprietà ponu esse apparenti solu dopu a liberazione, vale à dì chì ci hè u risicu di cunsequenze impreviste, sia malevoli sia benevolenti.

E dimensioni impurtanti di i valori suciali, in particulare in e diverse regioni è culture, influenzeranu cumu ogni usu hè percepitu è ​​accettatu. Inoltre, l'interessi geostrategici sò digià duminati a discussione, cù interessi sovrani è multilaterali chì si intersecanu continuamente è cusì guidanu a cumpetizione è a divisione.

Finu a data, a maiò parte di a regulazione di una tecnulugia virtuale hè stata largamente vista à traversu a lenti di "principi" è u rispettu vuluntariu, anche se cù l'Attu AI di l'UE.2 è sìmuli vedemu un cambiamentu à regulazioni più infurzabili, ma un pocu strette. Stabbilimentu di un sistema di governanza è / o regulatore di a tecnulugia globale o naziunale efficace resta sfida è ùn ci hè micca una soluzione ovvia. Diversi strati di decisione infurmata nantu à u risicu seranu necessarii longu a catena, da l'inventore à u pruduttore, à l'utilizatori, à u guvernu è à u sistema multilaterale.

Mentre i principii d'altu livellu sò stati promulgati da l'UNESCO, l'OCDE, a Cummissione Europea è l'ONU, trà l'altri, è parechje discussioni d'altu livellu cuntinueghjanu in quantu à prublemi di guvernanza potenziale, regulazione, etica è sicurezza, ci hè una grande distanza trà tali principii. principii è un quadru di guvernanza o regulatori. Questu deve esse trattatu.

Cum'è un puntu di partenza, l'ISC cunsidereghja sviluppà una tassonomia di considerazioni chì qualsiasi sviluppatore, regulatore, cunsiglieru di pulitica, cunsumadore o decisore puderia riferite. Data l'implicazioni larghe di sti tecnulugii, una tale tassonomia deve cunsiderà a tutalità di l'implicazioni piuttostu cà un inquadramentu ristrettu. A frammentazione glubale hè in crescita per l'influenza di l'interessi geostrategichi nantu à a decisione, è data l'urgenza di sta tecnulugia, hè essenziale per e voci indipendenti è neutrali per sustene persistentemente un approcciu unificatu è inclusivu.


1) Hindustan Times. 2023. G20 deve stabilisce un pannellu internaziunale nantu à u cambiamentu tecnologicu.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) L'Attu di l'Intelligenza Artificiale di l'UE. 2023. https://artificialintelligenceact.eu

U sviluppu di un quadru analiticu

L'ISC hè a primaria organizazione non governativa globale chì integra e scienze naturali è suciali. A so portata glubale è disciplinare significa chì hè ben pusatu per generà cunsiglii indipindenti è pertinenti à u mondu per informà e scelte cumplesse avanti, in particulare chì e voci attuali in questa arena sò largamente da l'industria o da e cumunità pulitiche è pulitiche di i principali putenzi tecnologichi.

Dopu à un periodu di discussione estensiva, chì includeva a considerazione di un prucessu di valutazione non governamentale, l'ISC hà cunclusu chì a so cuntribuzione più utile seria di pruduce un quadru analiticu adattativu chì pò esse usatu cum'è basa per u discorsu è a decisione di tutti. stakeholder, ancu durante ogni prucessu di valutazione formale chì emerge.

U quadru analiticu preliminariu, chì hè statu liberatu per discussione è feedback in uttrovi 2023, hà pigliatu a forma di una lista di cuntrollu generale pensata per l'usu da istituzioni governative è non governative. U quadru hà identificatu è esploratu u putenziale di una tecnulugia cum'è l'AI è i so derivati ​​attraversu una lente larga chì include u benessere umanu è di a sucietà, è ancu fatturi esterni cum'è l'ecunumia, a pulitica, l'ambiente è a sicurità. Certi aspetti di a lista di cuntrollu pò esse più pertinenti chì l'altri, secondu u cuntestu, ma megliu decisioni parenu più prubabile si tutti i domini sò cunsiderati, ancu s'ellu pò esse rapidamente identificati com'è irrilevanti in casi particulari. Questu hè u valore inherente di un approcciu di lista di cuntrollu.

U quadru preliminare hè stata derivata da u travagliu è u pensamentu precedente, cumpresu u rapportu di a Rete Internaziunale per i Cunsiglii Scientifici Governativi (INGSA) nantu à u benessere digitale3 è u Quadru di l'OCDE per a Classificazione di Sistemi AI,4 per presentà a tutalità di l'opportunità potenziale, i risichi è l'impatti. di AI. Questi prudutti previ eranu più ristretti in a so intenzione datu u so tempu è u cuntestu; ci hè bisognu di un quadru generale chì presenta tutta a gamma di prublemi sia à cortu sia à longu andà.

Dapoi a so liberazione, u documentu di discussione hà ricevutu un sustegnu significativu da parechji esperti è decisori pulitichi. Parechje anu appruvatu specificamente a ricunniscenza di sviluppà un quadru adattativu chì permette una considerazione deliberata è proattiva di i risichi è l'implicazioni di a tecnulugia, è in questu, sempre cunsidereghja a tutalità di dimensioni da l'individuu à a sucità è i sistemi.

Una osservazione chjave fatta à traversu u feedback hè stata a ricunniscenza chì parechje di l'implicazioni cunsiderate in u quadru sò intrinsecamente multifaceted è si estendenu in parechje categurie. Per esempiu, a disinformazione puderia esse cunsideratu da a lente individuale è geostrategica; cusì, e cunsequenze seranu larga.

L'opzione per include studii di casu o esempi per pruvà u quadru hè stata ancu suggerita. Questu puderia esse usatu per sviluppà linee guida per dimustrà cumu si pò esse usatu in pratica in diversi cuntesti. Tuttavia, questu seria un impegnu significativu è pò limità cumu diverse gruppi percepiscenu l'usu di stu quadru. Hè megliu fattu da i pulitici chì travaglianu cù esperti in ghjuridizione o cuntesti specifichi.

Dapoi uttrovi 2023, ci sò state parechje iniziative naziunali è multilaterali significative cun più cunsiderazione di l'etica è a sicurità di l'IA. L'implicazioni di l'AI nantu à l'integrità di alcuni di i nostri sistemi critichi, cumpresi finanziari, guvernu, legale è educazione, è ancu diversi sistemi di cunniscenza (cumprese a cunniscenza scientifica è indigena), sò di crescente preoccupazione. U quadru rivedutu riflette ancu questi aspetti.

I feedback ricevuti finu à a data sò riflessi in a versione rivista di u quadru analiticu, chì hè avà liberatu cum'è una guida per i decisori pulitichi.

Mentre u quadru hè prisentatu in u cuntestu di l'AI è e tecnulugii cunnessi, hè immediatamente trasferibile à e cunsiderazioni di altre tecnulugia emergenti rapidamente cum'è a biologia quantistica è sintetica.


3) Gluckman, P. è Allen, K. 2018. Capisce u benessere in u cuntestu di e trasformazioni digitale rapidi è assuciati. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OCDE. 2022. Quadru OCDE per a Classificazione di i sistemi AI. Documenti d'Ecunumia Digitale di l'OCDE, No 323,#. Paris, Éditions OCDE.
https://oecd.ai/en/classificatio

U Framework

A tabella seguente presenta e dimensioni di un quadru analiticu putativu. Esempii sò furniti per illustrà perchè ogni duminiu pò esse impurtante; in u cuntestu, u quadru avissi bisognu di espansione cuntestualmente pertinente. Hè ancu impurtante di distingue trà i prublemi generichi chì si sviluppanu durante i sviluppi di a piattaforma è quelli chì ponu emerge durante applicazioni specifiche. Nisuna considerazione inclusa quì ùn deve esse trattata cum'è una priorità è, cum'è tali, tutti deve esse esaminati.

I prublemi sò largamente raggruppati in e seguenti categurie cum'è delineatu quì sottu:

  • Benessere (cumpresu quellu di l'individui o di sè stessu, a società, a vita suciale è a vita civica)
  • Cummerciu è ecunumia
  • ambientale
  • Geostrategicu è geopoliticu
  • Tecnulugicu (caratteristiche di u sistema, cuncepimentu è usu)

A tavula detalla dimensioni chì puderanu esse cunsideratu quandu valutà una nova tecnulugia.

? INGSA. 2018. Capisce u benessere in u cuntestu di trasfurmazioni digitale rapidi è assuciati.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

? Novi descriptori (surghjenti attraversu a cunsultazione estensiva è u feedback è a revisione di a literatura)

? Quadru di l'OCDE per a Classificazione di i Sistemi AI: un strumentu per e pulitiche AI ​​efficaci.
https://oecd.ai/en/classification

Dimensioni di l'impattu: Individuale / stessu

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? Cumpetenza AI di l'utilizatoriCume cumpetente è cunuscenza di e proprietà di u sistema sò l'utilizatori probabili chì interagiscenu cù u sistema? Cumu seranu furniti cù l'infurmazioni pertinenti di l'utilizatori è i prughjetti?
? Stakeholder impactatuQuale sò i principali attori chì saranu affettati da u sistema (individui, cumunità, vulnerabili, travagliadori settoriali, zitelli, pulitici, prufessiunali, etc.)?
? OpzionalitàL'utilizatori sò furniti cù l'uppurtunità di optà fora di u sistema o sò datu l'uppurtunità di sfidà o curreghje l'output?
? Risichi per i diritti umani è i valori demucraticiU sistema hà un impattu fundamentale nantu à i diritti umani, cumpresi ma micca limitati à a privacy, a libertà di spressione, l'equità, a non discriminazione, etc.?
?Effetti putenziali nant'à u benessimu di e personeI zoni di impattu di u sistema sò in relazione à u benessere di l'utilizatori individuale (qualità di u travagliu, educazione, interazzione suciale, salute mentale, identità, ambiente, etc.)?
? Potenziale di spustamentu di u travagliu umanuCi hè un putenziale per u sistema per automatizà i travaglii o funzioni chì eranu eseguiti da l'omu? Se sì, chì sò e cunsequenze downstream?
? Potenziale per a manipulazione di l'identità, i valori o a cunniscenzaHè u sistema cuncepitu o potenzialmente capaci di manipulà l'identità di l'utilizatore o
valori stabiliti, o sparghje disinformazione?
? Opportunità per l'espressione è l'autorealizazioneCi hè un potenziale per l'artificiu è l'auto-dubbitu? Ci hè un potenziale per falsi o
rivendicazioni inverificabili di sapè fà?
? Misure di l'autovalutàCi hè una pressione per ritrarà sè idealizatu? L'automatizazione puderia rimpiazzà un sensu
di a realizazione persunale? Ci hè pressione per cumpete cù u sistema in u
postu di travagliu? A reputazione individuale hè più difficiuli di prutezzione di a disinformazione?
? PrivacyCi sò rispunsabilità diffusa per salvaguardà a privacy è ci sò
ipotesi chì sò fatti nantu à cumu si usanu i dati persunali?
? AutonumiaPuderia u sistema AI affettà l'autonomia umana generendu una dipendenza eccessiva da
utilizatori finali?
? U sviluppu umanuCi hè un impattu annantu à l'acquistu di cumpetenze chjave per u sviluppu umanu, cum'è
funzioni esecutivu o cumpetenze interpersonali, o cambiamenti in u tempu d'attenzione affettanu
apprendimentu, sviluppu di personalità, preoccupazioni di salute mentale, ecc.?
? Cura di salute persunaleCi sò rivendicazioni di l'autodiagnosi o soluzioni di assistenza sanitaria persunalizata? Sì cusì,
sò cunvalidati à i normi regulatori?
? Salute mentaleCi hè un risicu di cresce l'ansietà, a sulitudine o altri prublemi di salute mentale, o
a tecnulugia pò migliurà tali impatti?
? Evoluzione umanaPuderianu grandi mudelli di lingua è intelligenza artificiale generale cambià u
cursu di l'evoluzione umana?
? Interazione umanu-macchinaPuderia l'usu purtari a de-skilling è a dependenza cù u tempu per l'individui? Sò
Ci hè un impattu annantu à l'interazzione umana?
5) I criterii tecnologichi cunsiderati in u quadru sò specificamente per l'IA è anu da esse rivisu per altre tecnulugii cum'è degne.

Dimensioni di l'impattu: Società / vita suciale

Criterium Esempii di cumu questu pò esse riflessu in l'analisi
? I valori sucialiU sistema cambia fundamentalmente a natura di a sucità, permette a nurmalizazione di l'idee precedentemente cunsiderate anti-suciali, o viola i valori societali di a cultura in quale hè appiicata?
? Interazioni sucialeCi hè un effettu nantu à u cuntattu umanu significativu, cumprese relazioni emutivu?
? Salute di a pupulazioneCi hè un putenziale per u sistema di avanzà o minà l'intenzioni di salute di a pupulazione?
? Espressione culturaleHè un aumentu di l'appropriazione culturale o di a discriminazione prubabile o più difficiuli di trattà? A fiducia in u sistema per a decisione esclude o marginaliza i ligami seccionali culturalmente rilevanti di a società?
? L'educazione publicaCi hè un effettu nantu à i roli di i prufessori o l'istituzioni educative? U sistema enfatiza o riduce a divisione digitale è l'inequità trà i studienti? Hè u valore intrinsicu di a cunniscenza o l'intelligenza critica avanzata o minata?
? Realità distorteSò i metudi utilizati per discernisce ciò chì hè veru sempre applicabile? Hè a percepzione di a realità cumprumessa ?

Dimensioni di l'impattu: Cuntestu ecunomicu (cumerciu)

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? Settore industrialeIn quale settore industriale hè implementatu u sistema (finanza, agricultura, assistenza sanitaria, educazione, difesa etc.) ?
? Mudellu di cummercialeIn quale funzione cummerciale hè u sistema impiegatu è in quale capacità? Induve hè u sistema utilizatu (privatu, publicu, senza prufittu) ?
? Impatti nantu à l'attività critica Una disrupzione di a funzione o di l'attività di u sistema affettarebbe i servizii essenziali o l'infrastruttura critica?
?Larghezza di implementazioneCumu hè u sistema implementatu (usu ristrettu in unità versus sparghje naziunale / internaziunale)?
? maturità tecnicaQuantu hè tecnicamente maturu u sistema?
? Interoperabilità Ci hè prubabilmente esse silos, naziunale o glubale, chì impediscenu u cummerciu liberu è impacta a cooperazione cù i partenarii?
? Sovranità tecnologicaHè un desideriu di a sovranità tecnologica chì guida i comportamenti, cumpresu u cuntrollu di tutta a catena di supply AI?
? Redistribuzione di u redditu è ​​leve fiscali naziunaliPuderanu i roli core di u statu sovranu esse cumprumessi (per esempiu, i banche di riserva)? Sarà avanzata o ridutta a capacità di u Statu di risponde à l’attese è l’implicazioni di i citadini (suciali, ecunomichi, pulitichi etc.) ?
? divisione digitale (divisione AI) E inuguaglianze digitali esistenti sò aggravate o sò create novi ?

Dimensioni di l'impattu: a vita civica

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? Governanza è serviziu publicuPuderanu i meccanismi di governanza è u sistema di governanza globale esse affettati positivamente o negativamente?
? Media di notizieHè prubabilmente u discorsu publicu di diventà polarizatu è arradicatu à u livellu di a pupulazione ? Ci sarà un effettu nant'à i livelli di fiducia in u Quartu Statu ? L'etica di i ghjurnalisti cunvinziunali è i standard di integrità seranu più affettati?
? Rule of lawCi sarà un effettu nant'à a capacità di identificà individui o urganisazione per mantene a rispunsabilità (per esempiu, chì tipu di accountability per assignà à un algoritmu per i risultati avversi)? Ci hè una perdita di suvranità creata (ambienti, fiscali, suciali, etica etc.) ?
?Politica è cuesione sucialeCi hè una pussibilità di opinioni pulitiche più radicate è menu opportunità per a creazione di cunsensu ? Ci hè a pussibilità di più marginalizing gruppi ? Sò stili di pulitica contru à più o menu prubabile ?
? Licenza sucialeCi sò prublemi di privacy, prublemi di fiducia è preoccupazioni murali chì deve esse cunsideratu per l'accettazione di l'usu di i partiti interessati?
? Cunniscenza indigenaPuderanu a cunniscenza è e dati indigeni esse currutti o misappropriati ? Ci sò e misure adatte per pruteggiri contra a misinformazione, a misinformazione è a sfruttamentu ?
? Sistema scientificuL'integrità accademica è di ricerca hè compromessa? Ci hè una perdita di fiducia in a scienza? Ci sò pussibulità di misuse, overuse o abusu? Chì ci hè a cunsiquenza di a pratica di a scienza?

Dimensioni di l'impattu: Cuntestu Geostrategicu / Geopoliticu

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? Surviglianza di precisioneSò i sistemi furmati nantu à e dati cumportamentali è biologichi individuali è puderanu esse utilizati per sfruttà individui o gruppi?
? Cumpetizione digitalePuderanu attori statali o non statali (per esempiu, grandi cumpagnie tecnologiche) sfruttà sistemi è dati per capiscenu è cuntrullà a pupulazioni è l'ecosistemi di l'altri paesi, o minà u cuntrollu ghjuridizione?
? Cumpetizione geopuliticaPuderia u sistema suscitarà a cumpetizione trà e nazioni per sfruttà e dati individuali è di gruppu per interessi ecunomichi, medichi è di sicurità?
? Cambia in i puteri mundialiHè u statutu di i stati-nazioni cum'è l'attori geopulitichi primari di u mondu sottu minaccia ? L'imprese tecnologiche anu u putere una volta riservatu à i stati-nazioni è sò diventati attori indipendenti è sovrani (ordine mundiale tecnopolare emergente)?
? DisinformazioneU sistema faciliterà a pruduzzione è a diffusione di a disinformazione da l'attori statali è micca statali cù un impattu nantu à a cuesione suciale, a fiducia è a demucrazia ?
? Applicazioni à doppiu usuCi hè una pussibilità sia per l'applicazione militare sia per l'usu civile?
? Fragmentazione di l'ordine globalePuderanu silos o clusters di regulazione è cunfurmità sviluppà chì impediscenu a cooperazione, portanu à inconsistenzi in l'applicazione è creanu spaziu per u cunflittu?

Dimensioni di l'impattu: Ambientale

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? Cunsumu d'energia è risorse (impronta di carbone)U sistema è i bisogni aumentanu l'assunzione di l'energia è u cunsumu di risorse in più di i guadagni di efficienza ottenuti da l'applicazione?
? Surghjente di energiaInduve hè l'energia proveniente da u sistema (rinuvevuli versus combustibili fossili etc.)?

Dimensioni di l'impattu: Dati è input

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? Direzzione è cullizzioniSò i dati è l'input raccolti da l'omu, sensori automatizati o i dui?
? Pruvendenza di i datiI dati è l'input da i sperti sò furniti, osservati, sintetici o derivati? Ci hè prutezzione di filigrana per cunfirmà a provenienza?
? Natura dinamica di i datiSò i dati dinamichi, statici, dinamichi aghjurnati da u tempu à u tempu o in tempu reale?
? I dirittiSò i dati privati, publichi o persunali (relativi à individui identificabili)?
? Identificabilità è dati persunaliSe persunale, i dati sò anonimizzati o pseudonimizzati?
? Struttura di datiSò i dati strutturati, semi-strutturati, cumplessi strutturati o micca strutturati?
? Formatu di datiU furmatu di e dati è metadati hè standardizatu o micca standardizatu?
? Scala di datiChì ghjè a scala di u dataset?
? Approprietà è qualità di e dati U dataset hè adattatu per u scopu? A taglia di mostra hè adatta? Hè abbastanza rappresentativa è cumpleta ? Quantu rumore sò i dati? Hè propensu à l'errore?

Dimensioni di l'impattu: mudellu

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? A dispunibilità di l'infurmazioniCi hè qualchì infurmazione dispunibule nantu à u mudellu di u sistema?
? Tipu di mudellu AIU mudellu hè simbolicu (règuli generati da l'omu), statisticu (utilice dati) o hibridu?
? I diritti assuciati cù u mudelluHè u mudellu open-source o pruprietariu, gestitu da sè stessu o da terzu ?
? Unicu di parechji mudelliHè u sistema cumpostu da un mudellu o parechji mudelli interlinked ?
? Generative o discriminativeU mudellu hè generativu, discriminativu o i dui ?
? Edificiu mudelluU sistema ampara nantu à e regule scritte da l'omu, da i dati, attraversu l'apprendimentu supervisatu o per l'apprendimentu di rinforzu?
? Evolution du modèle (dérive AI)U mudellu evoluzione è / o acquistà capacità da interagisce cù dati in u campu?
? Apprendimentu federatu o centraleU mudellu hè furmatu cintrali o in parechji servitori lucali o dispositi "edge"?
? Sviluppu / mantenimentuU mudellu hè universale, persunalizabile o adattatu à i dati di l'attore AI?
? Deterministu o probabilisticu Hè u mudellu utilizatu in modu deterministicu o probabilisticu ?
? Trasparenza di mudellu L'infurmazioni sò dispunibuli per l'utilizatori per permettenu di capiscenu i risultati di u mudellu è e limitazioni o l'usu di e limitazioni?
? Limitazione computazionaleCi sò limitazioni computazionali à u sistema? Hè pussibule di predicà i salti di capacità o e lege di scala?

Dimensioni di l'impattu: Task è output

CriteriumEsempii di cumu questu pò esse riflessu in l'analisi
? Task (s) realizatu da u sistemaChì compiti faci u sistema (ricunniscenza, rilevazione di eventi, previsione, etc.)?
? Cumminendu attività è azzioniU sistema combina parechje attività è azzioni (sistemi di generazione di cuntenutu, sistemi autonomi, sistemi di cuntrollu, etc.) ?
? Livellu d'autonomia di u sistema Quantu autonomi sò l'azzioni di u sistema è chì rolu ghjucanu l'omu?
? Gradu di implicazione umanaCi hè qualchì implicazione umana per vigilà l'attività generale di u sistema AI è a capacità di decide quandu è cumu utilizà u sistema AI in ogni situazione?
? Applicazione coreU sistema appartene à una zona di applicazione core cum'è e tecnulugia di a lingua umana, visione di l'informatica, automatizazione è / o ottimisazione o robotica?
? ValutazioneSò dispunibuli standard o metudi per valutà a pruduzzioni di u sistema?

Cumu puderia esse usatu stu quadru?

Stu quadru pò esse usatu in parechje manere, cumprese:

  • Per colma a distanza trà i principii d'altu livellu è a valutazione per scopi regulatori o di guvernanza. U quadru pò sustene questu stabilendu una tassonomia cumuna validata di a gamma di prublemi chì meritanu cunsiderazione da i partiti interessati pertinenti cum'è una basa per informà è furmà più pensamentu. Per esempiu, à u livellu naziunale, u quadru puderia esse usatu cum'è strumentu da u guvernu postu chì sviluppeghja una strategia è e pulitiche AI ​​naziunali per stabilisce una basa cumuna di risichi è opportunità trà i gruppi di stakeholder.
  • Per informà e valutazioni d'impattu. L'Attu di l'IA di l'UE impone à l'urganisazioni chì furniscenu strumenti di IA o chì adoptanu l'IA in i so prucessi di realizà una valutazione d'impattu per identificà u risicu di e so iniziative è applicà un approcciu di gestione di u risicu adattatu. U quadru presentatu quì puderia esse usatu cum'è fundazione per questu.
  • Per informà a scansione di l'orizzonte per risichi è scenari futuri. A categurizazione di i risichi in u Rapportu Interim di u Cunsigliu di Cunsigliu di l'AI di l'ONU 6 hè largamente allineata à a struttura presentata in u quadru quì. Ci hè l'uppurtunità per u quadru per esse usatu per custruisce un cunsensu è pruvà a gravità di i risichi emergenti, è ancu per preempt questi.
  • Per rinfurzà i principii etichi necessarii per guidà è guvernà l'usu di l'IA. U quadru pò fà questu fornendu una basa flessibile nantu à quale ponu esse sviluppati sistemi di fiducia è assicurendu l'usu legale, eticu, robustu è rispunsevule di a tecnulugia. Questi principii puderanu esse pruvati contru à a gamma completa di impatti presentati in stu quadru.
  • Per facilità un bilanciu di e misure esistenti è in evoluzione (regulatori, legislativu, pulitichi, standard, governance etc.) è identificà e lacune chì necessitanu più considerazione. Quessi puderianu esse mappati contr'à e categurie di quadru à u livellu naziunale o multinaziunale per determinà i lacune è identificà e misure adattate per mitigà i risichi.
  • Per sustene l'usu di u guvernu di l'IA. Siccomu parechji guverni determinanu e so rispettive strategie per l'usu di l'IA in l'agenzie è i sistemi, u quadru puderia esse usatu per definisce i soglie di risicu adatti è identificà i principali attori è responsabilità.
  • Per sustene u discorsu publicu è stabilisce una licenza suciale nantu à cumu si usa l'AI è i dati di basa chì saranu aduprati in i servizii di u guvernu o più largamente in a società.

Un modu avanti
In riassuntu, u quadru analiticu hè furnitu cum'è a basa di un toolkit chì puderia esse aduprata da i stakeholders per guardà in modu cumpletu ogni sviluppu significativu sia di e piattaforme sia di l'usu in una manera coherente è sistematica. E dimensioni presentate in questu quadru anu rilevanza da a valutazione di a tecnulugia à a pulitica publica, da u sviluppu umanu à a sociologia, è i futuri è i studii di tecnulugia. Mentre sviluppatu per l'IA, stu quadru analiticu hà una applicazione assai più larga à qualsiasi altra tecnulugia emergente.

6 UN AI Advisory Board. 2023. Rapportu Interim: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Acknowledgements

Parechje persone sò state cunsultate è anu furnitu feedback in u sviluppu di u documentu di discussione iniziale è di u feedback dopu a so publicazione. Tramindui i documenti sò stati redatti da Sir Peter Gluckman Gluckman, presidente di l'ISC è Hema Sridhar, anziana cunsigliera scientifica principale di u Ministeru di a Difesa di a Nova Zelanda è avà ricercatrice senior. Fellow, Università d'Auckland, Nova Zelanda.

In particulare, l'ISC Lord Martin Rees, ex presidente di a Royal Society è Co-Fundatore di u Centru per u Studiu di Rischi Esistenziale, Università di Cambridge; Prufissuri Shivaji Sondhi, Prufissuri di Fisica, Università di Oxford; Prufissuri K Vijay Raghavan, ex Cunsigliu Scientificu Principale di u Guvernu di l'India; Amandeep Singh Gill, l'Inviatu di u Sicritariu Generale di l'ONU per a Tecnulugia; Seán Ó hÉigeartaigh, Direttore Esecutivu, Centru per u Studiu di Rischi Esistenziali, Università di Cambridge; Sir David Spiegelhalter, Winton Prufessore di u Public Understanding of Risk, Università
di Cambridge; Amanda-June Brawner, Senior Policy Adviser è Ian Wiggins, Direttore di Affari Internaziunali, Royal Society, Regnu Unitu; Dr Jerome Duberry, Managing Director è Dr Marie-Laure Salles, Direttore, Geneva Graduate Institute; Chor Pharn Lee, Center for Strategic Futures, Uffiziu di u Primu Ministru, Singapore; Barend Mons è u Dr Simon Hodson, u Cumitatu di Dati (CoDATA); Prufissuri Yuko Harayama, Anzianu Direttore Esecutivu, RIKEN; Prufessore
Rémi Quirion, Président de l'INGSA ; Dr Claire Craig, Università di Oxford è Anzianu Capu di Foresight, Uffiziu di u Guvernu di a Scienza; Prof Yoshua Bengio, Cunsigliu Scientificu di u Sicritariu Generale di l'ONU è à l'Università di Montréal; è parechji altri chì furnì feedback à l'ISC nantu à u documentu di discussione iniziale.


In seguita di lettura

Preparazione di Ecosistemi Naziunali di Ricerca per l'IA: Strategie è prugressu in 2024

Stu documentu di travagliu da u think tank di l'ISC, u Center for Science Futures, furnisce infurmazioni fundamentali è accessu à risorse da i paesi di tutte e parte di u mondu, in diverse tappe di integrazione di l'AI in i so ecosistemi di ricerca.


trè ricercatori chì anu una discussione

Custruisce sistemi scientifichi pronti per u futuru in u Sud Globale

E tecnulugie emergenti stanu rimodellendu u modu in cui a scienza hè cundotta è offrenu un putenziale significativu per rinfurzà i sistemi scientifichi in u Sud Globale - se a so adozione hè guidata da approcci inclusivi, ben sustenuti è sensibili à u cuntestu. Cumu assicurà chì ste tecnulugie cuntribuiscenu à sistemi scientifichi più equi è resilienti, invece di rinfurzà e disparità esistenti, hè statu u focu centrale di sta recente ritirata strategica.