La gvidilo de la ISC ofertas ampleksan kadron dizajnitan por limigi la interspacon inter altnivelaj principoj kaj praktika, agebla politiko. Ĝi respondas al la urĝa bezono de komuna kompreno de kaj la ŝancoj kaj riskoj prezentitaj de emerĝantaj teknologioj. Ĉi tio estas esenca dokumento por tiuj, kiuj laboras ĉe la politika interligo en nia rapide ŝanĝiĝanta cifereca epoko.
La kadro esploras la potencialon de AI kaj ĝiaj derivaĵoj per ampleksa lenso, ampleksante homan kaj socian bonfarton kune kun eksteraj faktoroj kiel ekonomiko, politiko, medio kaj sekureco. Iuj aspektoj de la kontrola listo povas esti pli signifaj ol aliaj, depende de la kunteksto, sed pli bonaj decidoj ŝajnas pli verŝajnaj se ĉiuj domajnoj estas konsiderataj, eĉ se iuj povas esti rapide identigitaj kiel sensignivaj en apartaj kazoj. Ĉi tio estas la eneca valoro de aliro al kontrola listo.
"En epoko markita de rapida teknologia novigo kaj kompleksaj tutmondaj defioj, la kadro de la ISC por ampleksa kaj plurdimensia analizo de la eblaj efikoj rajtigas gvidantojn fari informitajn, respondecajn decidojn. Ĝi certigas, ke dum ni progresas teknologie, ni faras tion kun zorgema konsidero de la etikaj, sociaj kaj ekonomiaj implicoj”.
Peter Gluckman, ISC-prezidanto
Dum altnivelaj principoj estis promulgataj de Unesko, la OECD, la Eŭropa Komisiono kaj UN, inter aliaj, kaj diversaj diskutoj daŭras koncerne problemojn de ebla regado, reguligo, etiko kaj sekureco, ekzistas granda interspaco inter tiaj principoj kaj regado aŭ reguliga kadro. La ISC traktas ĉi tiun bezonon per sia nova gvidilo por politikofaristoj.
Ĉi tiu gvidilo por politikofaristoj ne celas proskribi reguligan reĝimon, sed prefere sugesti adaptan kaj evoluantan analizan kadron kiu povus subteni ajnan taksadon kaj reguligajn procezojn kiuj povus esti evoluigitaj de koncernatoj, inkluzive de registaroj kaj la plurflanka sistemo.
"La kadro estas kritika paŝo en la tutmonda konversacio pri AI ĉar ĝi provizas bazon el kiu ni povas konstrui konsenton pri la implicoj de la teknologio por nun kaj por la estonteco".
Hema Sridhar, Iama Ĉefa Scienca Konsilisto, Militministerio, Nov-Zelando kaj nun Ĉefesploristo, Universitato de Auckland, Nov-Zelando.
Ekde oktobro 2023, ekzistas pluraj signifaj naciaj kaj plurflankaj iniciatoj kun plia konsidero de la etiko kaj sekureco de AI. La implicoj de AI sur la integreco de kelkaj el niaj kritikaj sistemoj, inkluzive de financa, registara, jura kaj edukado, same kiel malsamaj sciosistemoj (inkluzive de scienca kaj indiĝena scio), estas de kreskanta zorgo. La kadro plie reflektas ĉi tiujn aspektojn.
La sugestoj ricevitaj de ISC-Membroj kaj la internacia politikofaranta komunumo ĝis nun estas reflektitaj en la reviziita versio de la analiza kadro, kiu nun estas publikigita kiel gvidilo al politikofarantoj.
Gvidilo por politikofaristoj: Taksi rapide evoluantajn teknologiojn inkluzive de AI, grandaj lingvomodeloj kaj pretere
Ĉi tiu diskutdokumento disponigas la skizon de komenca kadro por informi la multoblajn tutmondajn kaj naciajn diskutojn okazantajn rilate al AI.
Elŝutu la kadron por uzi en via organizo
Ĉi tie ni provizas la kadran ilon kiel redaktebla Excel-folio por uzo en via organizo. Se vi preferas malfermfontan formaton, bonvolu kontakti [retpoŝte protektita].
Enkonduko
Rapide emerĝantaj teknologioj prezentas malfacilajn problemojn kiam temas pri ilia uzo, regado kaj ebla reguligo. La daŭraj politikoj kaj publikaj debatoj pri artefarita inteligenteco (AI) kaj ĝia uzo alportis ĉi tiujn aferojn en akuta fokuso. Larĝaj principoj por AI estis anoncitaj fare de Unesko, la OECD, UN kaj aliaj, inkluzive de la Bletchley Deklaracio de Britio, kaj estas emerĝantaj jurisdikciaj provoj pri reguligo de aspektoj de la teknologio tra, ekzemple, la Eŭropa Unio (EU) AI. Akto aŭ la lastatempa Plenuma Ordo de AI de Usono.
Dum la uzo de AI estas longe diskutita en tiuj kaj aliaj forumoj, trans geopolitikaj dislimoj kaj en landoj je ĉiuj enspezniveloj, restas ontologia interspaco inter la evoluo de altnivelaj principoj kaj ilia enkadrigo en praktikon per aŭ reguliga, politiko, administrado. aŭ intendantado alproksimiĝas. La vojo de principo al praktiko estas malbone difinita, sed konsiderante la naturon kaj kadencon de AI-evoluo kaj aplikado, la vario de intereso implikita kaj la gamo de eblaj aplikoj, ajna aliro ne povas esti tro ĝenerala aŭ preskriba.
Pro ĉi tiuj kialoj, la neregistara scienca komunumo daŭre ludas apartan rolon. La Internacia Scienca Konsilio (ISC) - kun sia plurisma membreco de la sociaj kaj natursciencoj - publikigis diskutdokumenton en oktobro 2023 prezentante preparan analizan kadron kiu konsideris la riskojn, avantaĝojn, minacojn kaj ŝancojn asociitajn kun rapide moviĝanta cifereca teknologio. Dum ĝi estis evoluigita por konsideri AI, ĝi estas esence teknologio agnostika kaj povas esti aplikita al gamo da emerĝantaj kaj interrompaj teknologioj, kiel ekzemple sinteza biologio kaj kvantumo. Tiu diskutdokumento invitis retrosciigon de akademiuloj kaj politikofaristoj. La superforta sugesto igis fari tian analizon necesa kaj staris kiel valora aliro por trakti emerĝantajn teknologiojn kiel AI.
La celo de la kadro estas disponigi ilon por informi ĉiujn koncernatojn - inkluzive de registaroj, komercaj intertraktantoj, reguligistoj, civila socio kaj industrio - pri la evoluo de tiuj teknologioj por helpi ilin enkadrigi kiel ili povus pripensi la implicojn, pozitivajn aŭ negativajn, de la teknologio mem, kaj pli specife ĝia aparta apliko. Ĉi tiu analiza kadro estis evoluigita sendepende de registaraj kaj industriaj interesoj. Ĝi estas maksimume plurisma en siaj perspektivoj, ampleksante ĉiujn aspektojn de la teknologio kaj ĝiajn implicojn bazitajn sur ampleksa konsulto kaj religo.
Ĉi tiu diskutdokumento por politikofaristoj ne celas proskribi reguligan reĝimon, sed prefere sugesti adaptan kaj evoluantan analizan kadron kiu povus subteni ajnan taksadon kaj reguligajn procezojn kiuj povus esti evoluigitaj fare de koncernatoj, inkluzive de registaroj kaj la plurflanka sistemo.
Ĉar deciduloj tutmonde kaj nacie konsideras taŭgajn politikajn agordojn kaj levilojn por ekvilibrigi la riskojn kaj rekompencojn de nova teknologio kiel ekzemple AI, la analiza kadro estas celita kiel komplementa ilo por certigi, ke la plena serio de eblaj implicoj estas adekvate reflektita.
Fono: kial analiza kadro?
La rapida apero de teknologioj kun la komplekseco kaj implicoj de AI movas multajn asertojn de granda profito. Tamen, ĝi ankaŭ provokas timojn pri gravaj riskoj, de individua ĝis geostrategia nivelo.1 Multo de la ĝisnuna diskuto estis konsiderita en binara signifo ĉar publike esprimitaj vidoj tendencas okazi ĉe la ekstremaj finoj de la spektro. La asertoj faritaj por aŭ kontraŭ AI estas ofte hiperbolaj kaj - pro la naturo de la teknologio - malfacile takseblaj.
Pli pragmata aliro estas necesa kie hiperbolo estas anstataŭigita kun kalibraj kaj pli grajnecaj taksadoj. AI-teknologio daŭre evoluas, kaj historio montras, ke preskaŭ ĉiu teknologio havas kaj utilajn kaj damaĝajn uzojn. La demando estas do: kiel ni povas atingi la utilajn rezultojn de ĉi tiu teknologio, reduktante la riskon de malutilaj sekvoj, iuj el kiuj povus esti ekzistecaj en grandeco?
La estonteco ĉiam estas necerta, sed ekzistas sufiĉaj kredindaj kaj spertaj voĉoj pri AI kaj genera AI por kuraĝigi relative antaŭzorgan aliron. Krome, sistema aliro estas necesa ĉar AI estas klaso de teknologioj kun larĝa uzo kaj apliko de multoblaj specoj de uzantoj. Ĉi tio signifas, ke la plena kunteksto devas esti pripensita kiam oni konsideras la implicojn de iu ajn AI-uzo por individuoj, socia vivo, civita vivo, socia vivo kaj en la tutmonda kunteksto.
Male al la plej multaj aliaj teknologioj, por ciferecaj kaj rilataj teknologioj, la tempo inter evoluo, liberigo kaj apliko estas ekstreme mallonga, plejparte movita de la interesoj de la produktentreprenoj aŭ agentejoj. Laŭ sia naturo - kaj ĉar ĝi baziĝas sur la cifereca spino - AI havos aplikojn kiuj estas rapide disvastigitaj, kiel jam estis vidita kun la evoluo de grandaj lingvomodeloj. Kiel rezulto, kelkaj trajtoj povas ŝajni nur post liberigo, signifante ke ekzistas la risko de neantaŭviditaj sekvoj, kaj malbonvolaj kaj bonfaraj.
Gravaj socivaloraj dimensioj, precipe trans malsamaj regionoj kaj kulturoj, influos kiel ajna uzo estas perceptita kaj akceptita. Krome, geostrategiaj interesoj jam regas diskuton, kun suverenaj kaj plurflankaj interesoj senĉese intersekciĝantaj kaj tiel kondukante konkuradon kaj dividon.
Ĝis nun, multe de la reguligo de virtuala teknologio plejparte estis vidita tra la lenso de "principoj" kaj libervola plenumo, kvankam kun la EU AI-Leĝo.2 kaj simile ni vidas ŝanĝon al pli plenumeblaj sed iom malvastaj regularoj. Establi efikan tutmondan aŭ nacian teknologian administradon kaj/aŭ reguligan sistemon restas malfacila kaj ne ekzistas evidenta solvo. Multoblaj tavoloj de risko-informita decidado estos necesaj laŭ la ĉeno, de inventinto ĝis produktanto, ĝis uzanto, ĝis registaro kaj ĝis la plurflanka sistemo.
Dum altnivelaj principoj estis promulgitaj de Unesko, la OECD, la Eŭropa Komisiono kaj UNo, inter aliaj, kaj diversaj altnivelaj diskutoj daŭras koncerne temojn de ebla regado, reguligo, etiko kaj sekureco, ekzistas granda interspaco inter tiaj. principoj kaj regado aŭ reguliga kadro. Ĉi tio devas esti traktita.
Kiel deirpunkto, la ISC pripensas evoluigi taksonomion de konsideroj kiujn ĉiu ellaboranto, reguligisto, politika konsilisto, konsumanto aŭ decidanto povus referenci. Surbaze de la larĝaj implicoj de tiuj teknologioj, tia taksonomio devas pripensi la totalon de implicoj prefere ol mallarĝe fokusita enkadrigo. Tutmonda fragmentiĝo pliiĝas pro la influo de geostrategiaj interesoj sur decidofarado, kaj konsiderante la urĝecon de ĉi tiu teknologio, estas esence por sendependaj kaj neŭtralaj voĉoj persiste pledi unuecan kaj inkluzivan aliron.
1) Hindustan Times. 2023. G20 devas starigi internacian panelon pri teknologia ŝanĝo.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Leĝo pri Artefarita Inteligenteco de EU. 2023. https://artificialintelligenceact.eu
La evoluo de analiza kadro
La ISC estas la primara tutmonda neregistara organizo integranta naturajn kaj sociosciencojn. Ĝia tutmonda kaj disciplina atingo signifas, ke ĝi estas bone lokita por generi sendependajn kaj tutmonde trafajn konsilojn por informi la kompleksajn elektojn antaŭen, precipe ĉar la nunaj voĉoj en ĉi tiu areno estas plejparte de industrio aŭ de la politikaj kaj politikaj komunumoj de la ĉefaj teknologiaj potencoj.
Post periodo de ampleksa diskuto, kiu inkludis la konsideron de neregistara taksadprocezo, la ISC finis ke ĝia plej utila kontribuo estus produkti adaptan analizan kadron kiu povas esti utiligita kiel la bazo por diskurso kaj decidiĝo de ĉiuj. koncernatoj, inkluzive dum iuj formalaj taksaj procezoj kiuj aperas.
La prepara analiza kadro, kiu estis publikigita por diskuto kaj retrosciigo en oktobro 2023, prenis la formon de ĝenerala kontrola listo dizajnita por uzo de kaj registaraj kaj neregistaraj institucioj. La kadro identigis kaj esploris la potencialon de teknologio kiel AI kaj ĝiaj derivaĵoj per larĝa lenso, kiu ampleksas homan kaj socian bonfarton, same kiel eksterajn faktorojn kiel ekonomion, politikon, medion kaj sekurecon. Iuj aspektoj de la kontrola listo povas esti pli signifaj ol aliaj, depende de la kunteksto, sed pli bonaj decidoj ŝajnas pli verŝajnaj se ĉiuj domajnoj estas konsiderataj, eĉ se iuj povas esti rapide identigitaj kiel sensignivaj en apartaj kazoj. Ĉi tio estas la eneca valoro de aliro al kontrola listo.
La prepara kadro estis derivita de antaŭa laboro kaj pensado, inkluzive de la raporto de la Internacia Reto por Registara Scienca Konsilo (INGSA) pri cifereca bonfarto3 kaj la OECD Kadro por la Klasifiko de AI-Sistemoj,4 por prezenti la totalon de la eblaj ŝancoj, riskoj kaj efikoj. de AI. Ĉi tiuj antaŭaj produktoj estis pli limigitaj en sia intenco donita sian tempon kaj kuntekston; necesas ĝenerala kadro, kiu prezentas la plenan gamon de aferoj kaj baldaŭ kaj pli longtempe.
Ekde sia liberigo, la diskutdokumento ricevis gravan subtenon de multaj fakuloj kaj politikofaristoj. Multaj specife aprobis la rekomendon evoluigi adaptan kadron kiu permesas intencan kaj iniciateman konsideron de la riskoj kaj implicoj de la teknologio, kaj farante tion, ĉiam pripensas la totalon de dimensioj de la individuo ĝis socio kaj sistemoj.
Unu ŝlosila observado farita per la sugestoj estis agnosko, ke pluraj el la implicoj pripensitaj en la kadro estas esence multfacetaj kaj etendiĝas tra multoblaj kategorioj. Ekzemple, misinformado povus esti pripensita de kaj la individua kaj geostrategia lenso; tiel, la sekvoj estus vastaj.
La opcio inkluzivi kazesplorojn aŭ ekzemplojn por testi la kadron ankaŭ estis proponita. Ĉi tio povus esti uzata por evoluigi gvidliniojn por montri kiel ĝi povus esti uzata praktike en malsamaj kuntekstoj. Tamen, ĉi tio estus signifa entrepreno kaj povas limigi kiel malsamaj grupoj perceptas la uzon de ĉi tiu kadro. Ĝi estas plej bone farita de politikofaristoj laborantaj kun spertuloj en specifaj jurisdikcioj aŭ kuntekstoj.
Ekde oktobro 2023, ekzistas pluraj signifaj naciaj kaj plurflankaj iniciatoj kun plia konsidero de la etiko kaj sekureco de AI. La implicoj de AI sur la integreco de kelkaj el niaj kritikaj sistemoj, inkluzive de financa, registara, jura kaj edukado, same kiel malsamaj sciosistemoj (inkluzive de scienca kaj indiĝena scio), estas de kreskanta zorgo. La reviziita kadro plie reflektas tiujn aspektojn.
La sugestoj ricevitaj ĝis nun estas reflektitaj en la reviziita versio de la analiza kadro, kiu nun estas publikigita kiel gvidilo al politikofarantoj.
Dum la kadro estas prezentita en la kunteksto de AI kaj rilataj teknologioj, ĝi estas tuj transdonebla al la konsideroj de aliaj rapide emerĝantaj teknologioj kiel kvantuma kaj sinteza biologio.
3) Gluckman, P. kaj Allen, K. 2018. Komprenante bonfarton en la kunteksto de rapidaj ciferecaj kaj rilataj transformoj. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OCDE. 2022. OECD Kadro por la Klasifiko de AI-sistemoj. OECD Digital Economy Papers, No. 323,#. Parizo, OECD-Eldonejo.
https://oecd.ai/en/classificatio
La Kadro
La sekva tabelo prezentas la dimensiojn de supoza analiza kadro. Ekzemploj estas disponigitaj por ilustri kial ĉiu domajno povas gravas; en kunteksto, la kadro postulus kuntekste signifan vastiĝon. Ankaŭ gravas distingi inter la ĝeneralaj aferoj, kiuj aperas dum platformevoluoj kaj tiuj, kiuj povas aperi dum specifaj aplikoj. Neniu ununura konsidero inkluzivita ĉi tie estu traktata kiel prioritato kaj, kiel tia, ĉio estu ekzamenata.
La temoj estas larĝe grupigitaj en la sekvajn kategoriojn kiel skizite malsupre:
La tabelo detaligas dimensiojn, kiujn eble necesas konsideri kiam oni taksas novan teknologion.
🔴 INGSA. 2018. Kompreni bonfarton en la kunteksto de rapidaj ciferecaj kaj rilataj transformoj.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Novaj priskribiloj (fontaj tra la ampleksa konsulto kaj sugestoj kaj literaturrecenzo)
🟡 OECD Kadro por Klasifikado de AI-Sistemoj: ilo por efikaj AI-politikoj.
https://oecd.ai/en/classification
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🟡Kompetenteco de AI de uzantoj | Kiom kompetentaj kaj konsciaj pri la propraĵoj de la sistemo estas la verŝajnaj uzantoj, kiuj interagos kun la sistemo? Kiel ili estos provizitaj per la koncernaj uzantinformoj kaj avertoj? |
🟡 Trafita koncernato | Kiuj estas la ĉefaj koncernatoj, kiuj estos trafitaj de la sistemo (individuoj, komunumoj, vundeblaj, sektoraj laboristoj, infanoj, politikofarantoj, profesiuloj ktp.)? |
🟡 Opcio | Ĉu uzantoj havas la ŝancon elekti ekster la sistemon aŭ ĉu ili donas ŝancojn defii aŭ korekti la produktaĵon? |
🟡Riskoj al homaj rajtoj kaj demokratiaj valoroj | Ĉu la sistemo efikas fundamente al homaj rajtoj, inkluzive sed ne limigitaj al privateco, esprimlibereco, justeco, nediskriminacia ktp.? |
🟡Eblaj efikoj al la bonfarto de homoj | Ĉu la sistemaj efikaj areoj rilatas al la bonfarto de la individua uzanto (laborkvalito, edukado, sociaj interagoj, mensa sano, identeco, medio ktp.)? |
🟡 Ebleco por homa labor-delokiĝo | Ĉu ekzistas potencialo por la sistemo aŭtomatigi taskojn aŭ funkciojn, kiuj estis ekzekutitaj de homoj? Se jes, kiaj estas la kontraŭfluaj sekvoj? |
🟡 Potencialo por identeco, valoroj aŭ sciomanipulado | Ĉu la sistemo estas dizajnita aŭ eble kapabla manipuli la identecon de la uzanto aŭ valoroj starigitaj, aŭ disvastigi misinformadon? |
🔴 Ŝancoj por memesprimo kaj mem-realigo | Ĉu ekzistas potencialo por artifiko kaj memdubo? Ĉu ekzistas potencialo por falsa aŭ nekontroleblaj asertoj de kompetenteco? |
🔴 Mezuroj de memvaloro | Ĉu estas premo portreti idealigitan memon? Ĉu aŭtomatigo povus anstataŭigi senton de persona plenumo? Ĉu estas premo konkuri kun la sistemo en la laborejo? Ĉu individua reputacio estas pli malfacile protekti kontraŭ misinformado? |
🔴 Privateco | Ĉu estas disvastigitaj respondecoj por protekti privatecon kaj ĉu ekzistas? supozoj faritaj pri kiel personaj datumoj estas uzataj? |
🔴 Aŭtonomo | Ĉu la AI-sistemo povus influi homan aŭtonomion generante troan fidon per finuzantoj? |
🔴 Homa evoluo | Ĉu ekzistas efiko al akiro de ŝlosilaj kapabloj por homa evoluo, kiel ekz plenumaj funkcioj aŭ interhomaj kapabloj, aŭ ŝanĝoj en atentotempo influanta lernado, evoluigo de personeco, zorgoj pri mensa sano ktp.? |
🔴 Persona sanservo | Ĉu ekzistas asertoj pri mem-diagnozo aŭ personigitaj sanservosolvoj? Okazo, ĉu ili estas validigitaj laŭ reguligaj normoj? |
🔴 Mensa sano | Ĉu ekzistas risko de pliigita angoro, soleco aŭ aliaj menshigienaj problemoj, aŭ ĉu la teknologio povas plibonigi tiajn efikojn? |
🟢 Homa evoluo | Ĉu grandaj lingvomodeloj kaj artefarita ĝenerala inteligenteco povus ŝanĝi la kurso de homa evoluo? |
🟢 Homo-maŝina interago | Ĉu la uzo povus konduki al malkapablo kaj dependeco laŭlonge de la tempo por individuoj? Estas ĉu estas efikoj al homa interago? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🔴 Sociaj valoroj | Ĉu la sistemo esence ŝanĝas la naturon de socio, ebligas normaligon de ideoj antaŭe konsiderataj kontraŭsociaj, aŭ rompas sociajn valorojn de la kulturo en kiu ĝi estas aplikata? |
🔴 Sociaj interagoj | Ĉu estas efiko al signifa homa kontakto, inkluzive de emociaj rilatoj? |
🔴 Sano de la loĝantaro | Ĉu ekzistas potencialo por la sistemo antaŭenigi aŭ subfosi popolanajn intencojn? |
🔴 Kultura esprimo | Ĉu pliiĝo de kultura alproprigo aŭ diskriminacio estas verŝajna aŭ pli malfacile traktebla? Ĉu dependeco de la sistemo por decidiĝo ekskludas aŭ marĝenigas kulture trafajn sekciajn ligojn de socio? |
🔴 Publika edukado | Ĉu estas efiko al instruistoj aŭ edukaj institucioj? Ĉu la sistemo emfazas aŭ reduktas la ciferecan disiĝon kaj maljustecon inter studentoj? Ĉu la interna valoro de scio aŭ kritika kompreno estas progresinta aŭ subfosita? |
🟢 Distorditaj realaĵoj | Ĉu la metodoj uzataj por distingi kio estas vera ankoraŭ estas aplikeblaj? Ĉu la percepto de la realo estas kompromitita? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🟡 Industria sektoro | En kiu industria sektoro estas la sistemo deplojita (financo, agrikulturo, sanservo, edukado, defendo ktp.)? |
🟡 Komerca modelo | En kiu komerca funkcio estas uzata la sistemo kaj en kia kapablo? Kie estas uzata la sistemo (privata, publika, senprofita)? |
🟡 Efikoj sur kritikaj agadoj | Ĉu interrompo de la funkcio aŭ agado de la sistemo influus esencajn servojn aŭ kritikajn infrastrukturojn? |
🟡Larĝo de deplojo | Kiel estas la sistemo deplojita (mallarĝa uzo ene de unuo vs. ĝeneraligita nacie/internacie)? |
🟡 Teknika matureco | Kiom teknike matura estas la sistemo? |
🟢 Kunfunkciebleco | Ĉu verŝajne ekzistas siloj, nacie aŭ tutmonde, kiuj malhelpas liberan komercon kaj efikas kunlaboron kun partneroj? |
🟢 Teknologia suvereneco | Ĉu deziro al teknologia suvereneco kondukas kondutojn, inkluzive de kontrolo de la tuta AI-provizoĉeno? |
🔴 Enspeza redistribuo kaj naciaj fiskaj leviloj | Ĉu la kernaj roloj de la suverena ŝtato povus esti kompromititaj (ekz., rezervaj bankoj)? Ĉu la kapablo de la ŝtato renkonti la atendojn kaj implicojn de la civitanoj (sociaj, ekonomiaj, politikaj ktp.) estos progresinta aŭ reduktita? |
🟢 Cifereca disigo (AI-divido) | Ĉu ekzistantaj ciferecaj malegalecoj pligraviĝas aŭ kreiĝas novaj? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🔴 Regado kaj publika servo | Ĉu la regado-mekanismoj kaj tutmonda regado-sistemo povus esti tuŝitaj pozitive aŭ negative? |
🔴 Novaĵmedioj | Ĉu publika diskurso verŝajne polariĝos kaj enradikiĝos ĉe populacionivelo? Ĉu estos efiko sur la niveloj de fido en la Kvara Estado? Ĉu konvencia ĵurnalisma etiko kaj integrecnormoj estos plu tuŝitaj? |
🔴 Jurŝtato | Ĉu estos efiko al la kapablo identigi individuojn aŭ organizojn por respondecigi (ekz., kian respondecon atribui al algoritmo por malfavoraj rezultoj)? Ĉu kreiĝas perdo de suvereneco (media, fiska, socia politiko, etiko ktp.)? |
🔴Politiko kaj socia kohezio | Ĉu ekzistas ebleco de pli enradikiĝintaj politikaj opinioj kaj malpli da ŝanco por konsentokonstruado? Ĉu ekzistas la ebleco plue marĝenigi grupojn? Ĉu kontraŭaj stiloj de politiko estas pli aŭ malpli verŝajnaj? |
🟢 Socia permesilo | Ĉu estas privatecaj zorgoj, fidaj aferoj kaj moralaj zorgoj, kiuj devas esti konsiderataj por akcepto de koncernato de la uzo? |
🟢 Indiĝena scio | Ĉu indiĝenaj scioj kaj datumoj povus esti koruptitaj aŭ misproprigitaj? Ĉu ekzistas taŭgaj rimedoj por protekti kontraŭ misprezento, misinformado kaj ekspluatado? |
🟢 Scienca sistemo | Ĉu akademia kaj esplora integreco estas kompromitita? Ĉu estas perdo de fido en scienco? Ĉu ekzistas eblecoj de misuzo, trouzo aŭ misuzo? Kio estas la sekvo de la praktiko de scienco? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🟢 Preciza gvatado | Ĉu la sistemoj estas trejnitaj pri individuaj kondutismaj kaj biologiaj datumoj kaj ĉu ili povus esti uzataj por ekspluati individuojn aŭ grupojn? |
🟢 Cifereca konkurso | Ĉu ŝtataj aŭ neŝtataj agantoj (ekz. grandaj teknologiaj kompanioj) povus utiligi sistemojn kaj datumojn por kompreni kaj kontroli loĝantarojn kaj ekosistemojn de aliaj landoj, aŭ subfosi jurisdikcian kontrolon? |
🟢 Geopolitika konkurado | Ĉu la sistemo povus stimuli konkuradon inter nacioj pri utiligado de individuaj kaj grupaj datumoj por ekonomiaj, medicinaj kaj sekurecaj interesoj? |
🟢 Ŝanĝo en tutmondaj potencoj | Ĉu la statuso de naciaj ŝtatoj kiel la ĉefaj geopolitikaj agantoj de la mondo estas minacata? Ĉu teknologiaj kompanioj havas potencon iam rezervitan por naciaj ŝtatoj kaj ĉu ili fariĝis sendependaj, suverenaj agantoj (emerĝanta teknopolusa monda ordo)? |
🟢 Malinformo | Ĉu la sistemo faciligus la produktadon kaj disvastigon de misinformado de ŝtataj kaj neŝtataj agantoj kun efiko al socia kohezio, fido kaj demokratio? |
🟢 Duoblaj aplikoj | Ĉu ekzistas ebleco por kaj armea apliko same kiel civila uzo? |
🟢 Fragmentiĝo de tutmonda ordo | Ĉu siloj aŭ aretoj de reguligo kaj plenumado povus disvolvi, kiuj malhelpas kunlaboron, konduki al nekongruoj en aplikado kaj krei lokon por konflikto? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🟢 Energio kaj resursa konsumo (karbona spuro) | Ĉu la sistemo kaj postuloj pliigas la konsumon de energio kaj rimedo super la efikecgajnoj akiritaj per la aplikaĵo? |
🟢Energia fonto | De kie fontas la energio por la sistemo (renoviĝantaj kontraŭ fosiliaj brulaĵoj ktp.)? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🟡 Direkto kaj kolekto | Ĉu la datumoj kaj enigaĵoj estas kolektitaj de homoj, aŭtomatigitaj sensiloj aŭ ambaŭ? |
🟡 Deveno de la datumoj | Ĉu la datumoj kaj enigaĵoj de spertuloj estas provizitaj, observataj, sintezaj aŭ derivitaj? Ĉu ekzistas akvomarkaj protektoj por konfirmi devenon? |
🟡 Dinamika naturo de la datumoj | Ĉu la datumoj estas dinamikaj, statikaj, dinamikaj ĝisdatigitaj de tempo al tempo aŭ realtempe? |
🟡 Rajtoj | Ĉu la datumoj estas proprietaj, publikaj aŭ personaj (rilataj al identigeblaj individuoj)? |
🟡 Identigebleco kaj personaj datumoj | Se personaj, ĉu la datumoj estas anonimigitaj aŭ pseŭdonimaj? |
🟡 Strukturo de la datumoj | Ĉu la datumoj estas strukturitaj, duonstrukturitaj, kompleksaj strukturitaj aŭ nestrukturitaj? |
🟡 Formato de la datumoj | Ĉu la formato de la datumoj kaj metadatenoj estas normigita aŭ ne-normigita? |
🟡 Skalo de la datumoj | Kio estas la skalo de la datumaro? |
🟡 Taŭgeco kaj kvalito de la datumoj | Ĉu la datumaro taŭgas por celo? Ĉu la specimena grandeco taŭgas? Ĉu ĝi estas sufiĉe reprezenta kaj kompleta? Kiom bruaj estas la datumoj? Ĉu ĝi estas inklina al eraro? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🟡 Disponebleco de informoj | Ĉu ajna informo haveblas pri la modelo de la sistemo? |
🟡 Tipo de AI-modelo | Ĉu la modelo estas simbola (hom-generitaj reguloj), statistika (uzas datumojn) aŭ hibrida? |
🟡 Rajtoj asociitaj kun modelo | Ĉu la modelo estas malfermfonta aŭ proprieta, mem- aŭ tripartia administrita? |
🟡 Unu el pluraj modeloj | Ĉu la sistemo konsistas el unu modelo aŭ pluraj interligitaj modeloj? |
🟡 Genera aŭ diskriminacia | Ĉu la modelo estas genera, diskriminacia aŭ ambaŭ? |
🟡 Modelkonstruaĵo | Ĉu la sistemo lernas surbaze de homskribitaj reguloj, de datumoj, per kontrolata lernado aŭ per plifortiga lernado? |
🟡 Modelevoluo (AI-drivo) | Ĉu la modelo evoluas kaj/aŭ akiras kapablojn de interagado kun datumoj en la kampo? |
🟡 Federacia aŭ centra lernado | Ĉu la modelo estas trejnita centre aŭ en pluraj lokaj serviloj aŭ "randaj" aparatoj? |
🟡 Disvolviĝo/prizorgado | Ĉu la modelo estas universala, agordebla aŭ adaptita al la datumoj de la AI-aktoro? |
🟡 Determinisma aŭ probabilisma | Ĉu la modelo estas uzata en determinisma aŭ probabla maniero? |
🟡 Modela travidebleco | Ĉu informoj haveblas al uzantoj por permesi al ili kompreni modelproduktojn kaj limigojn aŭ uzi limojn? |
🟢 Komputila limigo | Ĉu estas komputilaj limigoj al la sistemo? Ĉu eblas antaŭdiri kapablecsaltojn aŭ grimpi leĝojn? |
kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
🟡 Tasko(j) plenumita(j) per sistemo | Kiajn taskojn plenumas la sistemo (rekono, evento-detekto, prognozo ktp.)? |
🟡 Kombinante taskojn kaj agojn | Ĉu la sistemo kombinas plurajn taskojn kaj agojn (produktaj sistemoj de enhavo, aŭtonomaj sistemoj, kontrolsistemoj ktp.)? |
🟡 La nivelo de aŭtonomeco de la sistemo | Kiom aŭtonomaj estas la agoj de la sistemo kaj kian rolon ludas homoj? |
🟡 Grado de homa implikiĝo | Ĉu ekzistas iu homa implikiĝo por kontroli la ĝeneralan agadon de la AI-sistemo kaj la kapablon decidi kiam kaj kiel uzi la AI-sistemon en iu ajn situacio? |
🟡 Kerna aplikaĵo | Ĉu la sistemo apartenas al kerna aplikaĵo kiel homlingvaj teknologioj, komputila vizio, aŭtomatigo kaj/aŭ optimumigo aŭ robotiko? |
🟡 Taksado | Ĉu normoj aŭ metodoj haveblas por taksi sisteman eligon? |
Kiel oni povus uzi ĉi tiun kadron?
Ĉi tiu kadro povus esti uzata en multaj manieroj, inkluzive de:
Vojo antaŭen
En resumo, la analiza kadro estas disponigita kiel la bazo de ilaro kiu povus esti uzita de koncernatoj por amplekse rigardi la ajnajn signifajn evoluojn aŭ de platformoj aŭ de uzo en konsekvenca kaj sistema maniero. La grandeco prezentitaj en ĉi tiu kadro havas signifon de teknologia taksado ĝis publika politiko, de homa evoluo ĝis sociologio, kaj estontecoj kaj teknologiaj studoj. Dum disvolvite por AI, ĉi tiu analiza kadro havas multe pli larĝan aplikon al iu ajn alia emerĝanta teknologio.
6 UN AI Konsilantaro. 2023. Provizora Raporto: Reganta AI por Homaro. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Dankoj
Multaj homoj estis konsultitaj kaj provizitaj reagoj en la evoluo de kaj la komenca diskutpapero kaj reagoj post ĝia liberigo. Ambaŭ artikoloj estis redaktitaj fare de Sir Peter Gluckman, Prezidanto, la ISC kaj Hema Sridhar, iama Ĉefa Scienca Konsilisto, Ministerio pri Defendo, Nov-Zelando kaj nun Ĉefesploristo, Universitato de Auckland, Nov-Zelando.
Aparte, la ISC Lord Martin Rees, iama Prezidanto de la Reĝa Societo de Londono kaj Kunfondinto de la Centro por la Studo de Ekzistemaj Riskoj, Universitato de Kembriĝo; Profesoro Shivaji Sondhi, Profesoro pri Fiziko, Universitato de Oksfordo; Profesoro K Vijay Raghavan, iama Ĉefa Scienca Konsilisto al la Registaro de Hindio; Amandeep Singh Gill, la sendito de la Ĝenerala Sekretario de UN pri Teknologio; Seán Ó hÉigeartaigh, Plenuma Direktoro, Centro por la Studo de Ekzistecaj Riskoj, Universitato de Kembriĝo; Sir David Spiegelhalter, Winton Profesoro de la Publika Kompreno de Risko, Universitato
de Kembriĝo; Amanda-June Brawner, Senior Policy Adviser kaj Ian Wiggins, Direktoro de Internaciaj Aferoj, Royal Society, Unuiĝinta Reĝlando; Dr Jerome Duberry, Administra Direktoro kaj Dr Marie-Laure Salles, Direktoro, Geneva Graduate Institute; Chor Pharn Lee, Centro por Strategic Futures, Ĉefministroficejo, Singapuro; Barend Mons kaj D-ro Simon Hodson, la Komitato pri Datumoj (CoDATA); Profesoro Yuko Harayama, Iama Administra Direktoro, RIKEN; Profesoro
Rémi Quirion, Prezidanto, INGSA; Dr Claire Craig, Universitato de Oksfordo kaj Iama Kapo de Foresight, Registaro-Oficejo de Scienco; Prof Yoshua Bengio, Scienca Konsilantaro de Ĝenerala Sekretario de UN kaj ĉe Université de Montréal; kaj la multaj aliaj kiuj provizis retrosciigon al la ISC pri la komenca diskutpapero.
Preparante Naciajn Esplorajn Ekosistemojn por AI: Strategioj kaj Progreso en 2024
Ĉi tiu laborpapero de la pensfabriko de la ISC, la Centro por Scienco-Estontecoj, disponigas fundamentajn informojn kaj aliron al resursoj de landoj de ĉiuj partoj de la mondo, en diversaj stadioj de integrigado de AI en iliajn esplorajn ekosistemojn.