Estis proponite de kelkaj akademiuloj kaj politikaj fakuloj, ke la Internacia Scienca Konsilio - kun sia pluralisma membreco de la sociaj kaj natursciencoj - establas procezon por produkti kaj konservi komentitan kadron/kontrolliston de la riskoj, avantaĝoj, minacoj kaj ŝancoj. asociita kun rapide moviĝantaj ciferecaj teknologioj, inkluzive de - sed ne limigitaj al - AI. La celo de la kontrola listo estus informi ĉiujn koncernatojn - inkluzive de registaroj, komercaj intertraktantoj, reguligistoj, civila socio kaj industrio - pri eblaj estontaj scenaroj, kaj kadrigus kiel ili povus pripensi la ŝancojn, avantaĝojn, riskojn kaj aliajn aferojn.
La ISC ĝojas prezenti ĉi tiun diskutdokumenton pri taksado de rapide evoluanta cifereca kaj rilata teknologio. Artefarita Inteligenteco, sinteza biologio kaj kvantumaj teknologioj estas ĉefaj ekzemploj de novigado, informita de scienco, aperanta je senprecedenca rapideco. Povas esti defia sisteme antaŭvidi ne nur iliajn aplikojn, sed ankaŭ iliajn implicojn.
Taksi la sociajn aspektojn de genera AI kiel grandaj lingvaj modeloj, kiuj antaŭvideble reprezentas la plej grandan parton de ĉi tiu diskutdokumento, estas bezonata ponto ene de la nuna diskurso - foje panike, alifoje ne sufiĉe profunda en penso - kaj la necesaj kursoj de agado, kiun ni povas fari. La ISC estas fervora ke analiza kadro inter la socia akcepto de tiaj novaj teknologioj kaj ilia ebla reguligo estas postulata por faciligi la multinteresajn diskutojn kiuj estas necesaj por preni informitajn kaj respondecajn decidojn pri kiel optimumigi la sociajn avantaĝojn de tiu rapide emerĝanta teknologio.
La ISC estas malfermita al reagoj de nia komunumo per ĉi tiu diskutdokumento por taksi kiel plej bone daŭre partopreni kaj kontribui al la debato pri teknologio.
Salvatore Aricò, ĉefoficisto
ISC-diskutdokumento
Kadro por taksi rapide evoluantajn ciferecajn kaj rilatajn teknologiojn: AI, grandaj lingvomodeloj kaj pretere
Ĉi tiu diskutdokumento disponigas la skizon de komenca kadro por informi la multoblajn tutmondajn kaj naciajn diskutojn okazantajn rilate al AI.
Elŝutu la raportonNova! Legu la 2024-an version por politikofaristoj kun elŝutebla kadro por via organizo.
Gvidilo por politikofaristoj: Taksi rapide evoluantajn teknologiojn inkluzive de AI, grandaj lingvomodeloj kaj pretere
Ĉi tiu diskutdokumento disponigas la skizon de komenca kadro por informi la multoblajn tutmondajn kaj naciajn diskutojn okazantajn rilate al AI.
Enhavo
Enkonduko
Rapide emerĝantaj teknologioj prezentas malfacilajn problemojn kiam temas pri ilia regado kaj ebla reguligo. La politiko kaj publikaj debatoj pri artefarita inteligenteco (AI) kaj ĝia uzo alportis ĉi tiujn aferojn en akuta fokuso. Dum larĝaj principoj por AI estis promulgitaj fare de Unesko, OECD kaj aliaj, kaj ekzistas naskiĝantaj diskutoj koncerne tutmondan aŭ jurisdikcian reguligon de la teknologio, ekzistas ontologia interspaco inter la evoluo de altnivelaj principoj kaj ilia enkadrigo en reguligan, politikon, aliroj pri administrado kaj administrado. Jen kie la neregistara scienca komunumo povus havi apartan rolon.
Estis proponite de kelkaj akademiuloj kaj politikaj fakuloj, ke la Internacia Scienca Konsilio (ISC) - kun sia plurisma membreco de la sociaj kaj natursciencoj - establas procezon por produkti kaj konservi komentitan kadron/kontrolliston de la riskoj, avantaĝoj, minacoj kaj ŝancoj asociitaj kun rapide moviĝantaj ciferecaj teknologioj, inkluzive de - sed ne limigitaj al - AI. La celo de la kontrola listo estus informi ĉiujn koncernatojn - inkluzive de registaroj, komercaj intertraktantoj, reguligistoj, civila socio kaj industrio - pri eblaj estontaj scenaroj, kaj kadrigus kiel ili povus pripensi la ŝancojn, avantaĝojn, riskojn kaj aliajn aferojn.
La produktaĵoj ne agus kiel taksadkorpo, sed kiel adapta kaj evoluanta analiza kadro kiu povus subteni ajnajn taksajn kaj reguligajn procezojn kiuj povus esti evoluigitaj fare de koncernatoj, inkluzive de registaroj kaj la plurflanka sistemo. Ĉiu analiza kadro devus ideale esti evoluigita sendepende de registaraj kaj industriaj asertoj, donitaj iliaj kompreneblaj interesoj. Ĝi ankaŭ devas esti maksimume plurisma en siaj perspektivoj, tiel ampleksante ĉiujn aspektojn de la teknologio kaj ĝiaj implicoj.
Ĉi tiu diskutdokumento disponigas la skizon de komenca kadro por informi la multoblajn tutmondajn kaj naciajn diskutojn okazantajn rilate al AI.
Fono: Kial analiza kadro?
La rapida apero de teknologio kun la komplekseco kaj implicoj de AI kondukas multajn asertojn pri grandaj avantaĝoj. Tamen, ĝi ankaŭ provokas timojn pri gravaj riskoj, de individua ĝis geostrategia nivelo. Granda parto de la diskuto tendencas okazi ĉe la ekstremaj finoj de la spektro de vidoj, kaj pli pragmata aliro estas necesa. AI-teknologio daŭre evoluas kaj historio montras, ke preskaŭ ĉiu teknologio havas kaj utilajn kaj malutilajn uzojn. La demando estas do: kiel ni povas atingi utilajn rezultojn de ĉi tiu teknologio, reduktante la riskon de malutilaj sekvoj, iuj el kiuj povus esti ekzistecaj en grandeco?
La estonteco ĉiam estas necerta, sed ekzistas sufiĉaj kredindaj kaj spertaj voĉoj pri AI kaj genera AI por kuraĝigi relative antaŭzorgan aliron. Krome, sistema aliro estas necesa, ĉar AI estas klaso de teknologioj kun larĝa uzo kaj apliko de multoblaj specoj de uzantoj. Ĉi tio signifas, ke la plena kunteksto devas esti konsiderata kiam oni konsideras la implicojn de AI por individuoj, socia vivo, civita vivo, socia vivo kaj en la tutmonda kunteksto.
Male al la plej multaj pasintaj teknologioj, ciferecaj kaj rilataj teknologioj havas tre mallongan tempodaŭron de evoluo ĝis liberigo, plejparte pelita de la interesoj de la produktentreprenoj aŭ agentejoj. AI rapide disvastiĝas; iuj trajtoj povas nur ŝajni post liberigo, kaj la teknologio povus havi kaj malbonvolajn kaj bonfarajn aplikojn. Gravaj valoraj dimensioj influos kiel ajna uzo estas perceptita. Krome, povas ekzisti geostrategiaj interesoj en ludo.
Ĝis nun, la reguligo de virtuala teknologio plejparte estis vidita tra la lenso de "principoj" kaj libervola plenumo. Pli lastatempe, tamen, la diskuto turniĝis al temoj de nacia kaj plurflanka regado, inkluzive de la uzo de reguligaj kaj aliaj politikaj iloj. La asertoj faritaj por aŭ kontraŭ AI estas ofte hiperbolaj kaj - pro la naturo de la teknologio - malfacile takseblaj. Establi efikan tutmondan aŭ nacian teknologian reguligan sistemon estos malfacila, kaj necesos multoblaj tavoloj de risko-informita decidado laŭlonge de la ĉeno, de inventinto ĝis produktanto, ĝis uzanto, ĝis registaro kaj ĝis la plurflanka sistemo.
Dum altnivelaj principoj estis promulgitaj fare de Unesko, OECD kaj la Eŭropa Komisiono, inter aliaj, kaj diversaj altnivelaj diskutoj estas survoje koncerne temojn de ebla reguligo, ekzistas granda ontologia interspaco inter tiaj principoj kaj administrado aŭ reguliga kadro. Kio estas la taksonomio de konsideroj, kiujn reguligisto eble bezonos konsideri? Malvaste fokusita enkadrigo estus malprudenta, konsiderante la larĝajn implicojn de tiuj teknologioj. Ĉi tiu potencialo estis la temo de multe da komentaĵoj, kaj pozitivaj kaj negativaj.
La evoluo de analiza kadro
La ISC estas la primara tutmonda NGO integranta naturajn kaj sociajn sciencojn. Ĝia tutmonda kaj disciplina atingo signifas, ke ĝi estas bone lokita por generi sendependajn kaj tutmonde trafajn konsilojn por informi la kompleksajn elektojn antaŭen, precipe ĉar la nunaj voĉoj en ĉi tiu areno estas plejparte de industrio aŭ de la ĉefaj teknologiaj potencoj. Sekvante ampleksan diskuton dum la lastaj monatoj, inkluzive de la konsidero de neregistara taksadprocezo, la ISC finis ke ĝia plej utila kontribuo estus produkti kaj konservi adaptan analizan kadron kiu povas esti utiligita kiel la bazo por diskurso kaj decidiĝo de ĉiuj koncernatoj, inkluzive dum iu formala taksa procezo kiu aperas.
Ĉi tiu kadro prenus la formon de ĝenerala kontrolo, kiu povus esti uzata de kaj registaraj kaj neregistaraj institucioj. La kadro identigas kaj esploras la potencialon de teknologio kiel ekzemple AI kaj ĝiaj derivaĵoj per larĝa lenso kiu ampleksas homan kaj socian bonfarton, same kiel eksterajn faktorojn, kiel ekzemple ekonomiko, politiko, la medio kaj sekureco. Iuj aspektoj de la kontrola listo povas esti pli gravaj ol aliaj, depende de la kunteksto, sed pli bonaj decidoj estas pli verŝajnaj se ĉiuj domajnoj estas konsiderataj. Ĉi tio estas la eneca valoro de aliro al kontrola listo.
La proponita kadro estas derivita de antaŭa laboro kaj pensado, inkluzive de la cifereca bonfarta raporto de la Internacia Reto por Registara Scienca Konsilo (INGSA).1 kaj la OECD AI Klasifika Kadro2 prezenti la totalon de la eblaj ŝancoj, riskoj kaj efikoj de AI. Ĉi tiuj antaŭaj produktoj estis pli limigitaj en sia intenco donita sian tempon kaj kuntekston, estas bezono de ĝenerala kadro kiu prezentas la plenan gamon de aferoj ambaŭ en la mallonga kaj longtempe.
Dum evoluigite por la konsidero de AI, ĉi tiu analiza kadro povus esti aplikita al iu ajn rapide emerĝanta teknologio. La temoj estas larĝe grupigitaj en la sekvajn kategoriojn por plia ekzameno:
Listo de konsideroj por ĉiu el ĉi-supraj kategorioj estas inkluzivita kune kun iliaj respektivaj ŝancoj kaj sekvoj. Iuj estas gravaj por specifaj kazoj aŭ aplikoj de AI dum aliaj estas ĝeneralaj kaj agnostikaj de platformo aŭ uzo. Neniu ununura konsidero inkluzivita ĉi tie estu traktata kiel prioritato kaj, kiel tia, ĉio estu ekzamenata.
Kiel oni povus uzi ĉi tiun kadron?
Ĉi tiu kadro povus esti utiligita en, sed ne limigita al, la sekvaj manieroj:
La sekva tablo estas frua formado de la grandeco de analiza kadro. Depende de la teknologio kaj ĝia uzo, iuj komponantoj estos pli gravaj ol aliaj. La ekzemploj estas provizitaj por ilustri kial ĉiu domajno povas gravas; en kunteksto, la kadro postulus kuntekste signifan vastiĝon. Ankaŭ gravas distingi inter platformevoluoj kaj la ĝeneralaj aferoj, kiuj povas aperi dum specifaj aplikoj.
Dimensioj konsiderindaj kiam oni taksas novan teknologion
Komenca skizo de la dimensioj kiuj eble bezonos esti pripensitaj kiam taksado de nova teknologio | ||
Dimensioj de efiko | kriterioj | Ekzemploj de kiel tio povas esti reflektita en analizo |
Individuo/ mem | AI-kompetenteco de uzantoj | Kiom kompetentaj kaj konsciaj pri la propraĵoj de la sistemo estas la verŝajnaj uzantoj, kiuj interagos kun la sistemo? Kiel ili estos provizitaj per la koncernaj uzantinformoj kaj avertoj? |
Trafitaj koncernatoj | Kiuj estas la ĉefaj koncernatoj, kiuj estos trafitaj de la sistemo (t.e. individuoj, komunumoj, vundeblaj, sektoraj laboristoj, infanoj, politikofarantoj, profesiuloj)? | |
Opcio | Ĉu uzantoj havas eblon elekti eksteren de la sistemo; ĉu oni donu al ili ŝancojn defii aŭ korekti la produktaĵon? | |
Riskoj al homaj rajtoj kaj demokratiaj valoroj | Ĉu la sistemo povus influi (kaj en kiu direkto) sur homajn rajtojn, inkluzive de, sed ne limigitaj al, privateco, libereco de esprimo, justeco, risko de diskriminacio, ktp.? | |
Eblaj efikoj al la bonfarto de homoj | Ĉu la sistemo povus influi (kaj en kiu direkto) la bonfarton de la individua uzanto (t.e., laborkvalito, edukado, sociaj interagoj, mensa sano, identeco, medio)? | |
Potencialo por homa laborista delokiĝo | Ĉu ekzistas potencialo por la sistemo aŭtomatigi taskojn aŭ funkciojn, kiuj estis ekzekutitaj de homoj? Se jes, kiaj estas la kontraŭfluaj sekvoj? | |
Potencialo por identeco, valoroj aŭ sciomanipulado | Ĉu la sistemo estas dizajnita por aŭ eble povas manipuli la identecon aŭ valorojn de la uzanto fiksitaj, aŭ disvastigi misinformon? Ĉu ekzistas potencialo por falsaj aŭ nekontroleblaj asertoj de kompetenteco? | |
Mezuroj de memvaloro | Ĉu estas premo portreti idealigitan memon? Ĉu aŭtomatigo povus anstataŭigi senton de persona plenumo? Ĉu estas premo konkuri kun la sistemo en la laborejo? Ĉu individua reputacio estas pli malfacila protekti kontraŭ misinformado? | |
Privateco | Ĉu estas disvastigitaj respondecoj por protekti privatecon kaj ĉu ekzistas supozoj pri kiel personaj datumoj estas utiligitaj? | |
aŭtonomeco | Ĉu la sistemo povus influi homan aŭtonomion generante troan fidon je la teknologio de finuzantoj? | |
Homa disvolviĝo | Ĉu estas efiko al akiro de ŝlosilaj kapabloj por homa evoluo kiel ekzekutivaj funkcioj, interhomaj kapabloj, ŝanĝoj en atentotempo influanta lernadon, personecon, zorgojn pri menshigieno ktp.? | |
Persona sanservo | Ĉu ekzistas asertoj pri personigitaj sanservosolvoj? Se jes, ĉu ili estas validigitaj laŭ reguligaj normoj? | |
Mensa sano | Ĉu ekzistas risko de pliigita angoro, soleco aŭ aliaj menshigienaj problemoj, aŭ ĉu la teknologio povas mildigi tiajn efikojn? | |
Homa evoluo | Ĉu la teknologio povus kaŭzi ŝanĝojn en homa evoluo? | |
Dimensioj de efiko | kriterioj | Priskribo |
Socio/socia vivo | Sociaj valoroj | Ĉu la sistemo esence ŝanĝas la naturon de la socio aŭ ebligas la normaligon de ideoj antaŭe konsiderataj kontraŭsociaj, aŭ ĉu ĝi rompas la societajn valorojn de la kulturo en kiu ĝi estas aplikata? |
Socia interago | Ĉu estas efiko al signifa homa kontakto, inkluzive de emociaj rilatoj? | |
egaleco | Ĉu la aplikaĵo/teknologio verŝajne reduktos aŭ plifortigos malegalecojn (t.e., ekonomiaj, sociaj, edukaj, geografiaj)? | |
Popola sano | Ĉu ekzistas potencialo por la sistemo antaŭenigi aŭ subfosi popolanajn intencojn? | |
Kultura esprimo | Ĉu pliiĝo de kultura alproprigo aŭ diskriminacio estas verŝajna aŭ pli malfacile traktebla? Ĉu dependeco de la sistemo por decidiĝo eble ekskludas aŭ marĝenigas sekciojn de socio? | |
Publika edukado | Ĉu estas efiko al instruistoj aŭ edukaj institucioj? Ĉu la sistemo emfazas aŭ reduktas maljustecon inter studentoj kaj la ciferecan disiĝon? Ĉu la interna valoro de scio aŭ kritika kompreno estas progresinta aŭ subfosita? | |
Distorditaj realaĵoj | Ĉu la metodoj, kiujn ni uzas por distingi, kio estas vera, ankoraŭ aplikeblas? Ĉu la percepto de la realo estas kompromitita? | |
Ekonomia kunteksto (komerco) | Industria sektoro | En kiu industria sektoro estas la sistemo deplojita (t.e., financo, agrikulturo, sanservo, edukado, defendo)? |
Komerca modelo | En kiu komerca funkcio estas uzata la sistemo, kaj en kia kapablo? Kie estas uzata la sistemo (privata, publika, senprofita)? | |
Efiko sur kritikaj agadoj | Ĉu interrompo de la funkcio aŭ agado de la sistemo influus esencajn servojn aŭ kritikajn infrastrukturojn? | |
Spiro de deplojo | Kiel estas la sistemo deplojita (mallarĝe ene de organizo vs ĝeneraligita nacie/internacie)? | |
Teknika matureco (TRL) | Kiom teknike matura estas la sistemo? | |
Teknologia suvereneco | Ĉu la teknologio kondukas pli grandan koncentriĝon de teknologia suvereneco. | |
Enspeza redistribuo kaj naciaj fiskaj leviloj | Ĉu la kernaj roloj de la suverena ŝtato povus esti kompromititaj (t.e. Rezervaj Bankoj)? Ĉu la kapablo de la ŝtato renkonti la atendojn kaj implicojn de civitanoj (t.e., sociaj, ekonomiaj, politikaj) estos progresinta aŭ reduktita? | |
Dimensioj de efiko | kriterioj | Priskribo |
Civita vivo | Administrado kaj publika servo | Ĉu regantaj mekanismoj kaj tutmondaj regadsistemoj povus esti influitaj pozitive aŭ negative? |
Novaĵmedioj | Ĉu publika diskurso verŝajne pli-malpli polariziĝos kaj enradikiĝos je loĝantaro? Ĉu estos efiko sur la niveloj de fido en la amaskomunikilaro? Ĉu konvencia ĵurnalisma etiko kaj integrecnormoj estos plu tuŝitaj? | |
Ŝtato de Rajto | Ĉu estos efiko sur la kapablo identigi individuojn aŭ organizojn por respondecigi (t.e., kian respondecon atribui al algoritmo por malfavoraj rezultoj)? Ĉu tio kreas perdon de suvereneco (t.e., media, fiska, socia politiko, etiko)? | |
Politiko kaj socia kohezio | Ĉu ekzistas ebleco de pli enradikiĝintaj politikaj opinioj kaj malpli da ŝanco por konsentokonstruado? Ĉu ekzistas la ebleco plue marĝenigi grupojn? Ĉu kontraŭaj stiloj de politiko estas pli aŭ malpli verŝajnaj? | |
Geo-strategia/ geopolitika kunteksto | Preciza gvatado | Ĉu la sistemoj estas trejnitaj pri individuaj kondutismaj kaj biologiaj datumoj, kaj se jes, ĉu ili povus esti uzataj por ekspluati individuojn aŭ grupojn? |
Cifereca koloniigo | Ĉu ŝtataj aŭ neŝtataj agantoj kapablas utiligi sistemojn kaj datumojn por kompreni kaj kontroli la loĝantarojn kaj ekosistemojn de aliaj landoj, aŭ por subfosi jurisdikcian kontrolon? | |
Geopolitika konkurado | Ĉu la sistemo influas konkuradon inter nacioj kaj teknologiaj platformoj por aliro al individuaj kaj kolektivaj datumoj por ekonomiaj aŭ strategiaj celoj? | |
Komercaj kaj komercaj interkonsentoj | Ĉu la sistemo havas implicojn por internaciaj komercaj interkonsentoj? | |
Ŝanĝo en tutmondaj potencoj | Ĉu la statuso de naciaj ŝtatoj kiel la ĉefaj geopolitikaj agantoj de la mondo estas minacata? Ĉu teknologiaj kompanioj havos potencon iam rezervitan por naciaj ŝtatoj kaj ĉu ili iĝas sendependaj suverenaj aktoroj? | |
Malinformado | Ĉu estas pli facile por ŝtataj kaj neŝtataj aktoroj produkti kaj disvastigi misinformadon, kiu influas socian kohezion, fidon kaj demokration? | |
mediaj | Energio kaj resursokonsumo (karbonpiedsigno) | Ĉu la sistemo kaj postuloj pliigas la konsumon de energio kaj rimedo super la efikecgajnoj akiritaj per la aplikaĵo? |
Dimensioj de efiko | kriterioj | Priskribo |
Datumoj kaj enigo | Detekto kaj kolekto | Ĉu la datumoj kaj enigaĵoj estas kolektitaj de homoj, aŭtomatigitaj sensiloj aŭ ambaŭ? |
Deveno de la datumoj | Koncerne la datumojn, ĉu ĉi tiuj estas provizitaj, observitaj, sintezaj aŭ derivitaj? Ĉu ekzistas akvomarkaj protektoj por konfirmi devenon? | |
Dinamika naturo de la datumoj | Ĉu la datumoj estas dinamikaj, senmovaj, ĝisdatigitaj de tempo al tempo aŭ ĝisdatigitaj en reala tempo? | |
rajtoj | Ĉu datumoj estas proprietaj, publikaj aŭ personaj (t.e. rilataj al identigeblaj individuoj)? | |
Identigebleco de personaj datumoj | Se personaj datumoj, ĉu ili estas anonimigitaj aŭ pseŭdonimigitaj? | |
Strukturo de la datumoj | Ĉu la datumoj estas strukturitaj, duonstrukturitaj, kompleksaj strukturitaj aŭ nestrukturitaj? | |
Formato de la datumoj | Ĉu la formato de la datumoj kaj metadatenoj estas normigita aŭ ne-normigita? | |
Skalo de la datumoj | Kio estas la skalo de la datumaro? | |
Taŭgeco kaj kvalito de la datumoj | Ĉu la datumaro taŭgas por celo? Ĉu la specimena grandeco taŭgas? Ĉu ĝi estas sufiĉe reprezenta kaj kompleta? Kiom bruas la datumoj? Ĉu ĝi estas inklina al eraro? | |
modelo | Havebleco de informoj | Ĉu informoj pri la modelo de la sistemo haveblas? |
Tipo de AI-modelo | Ĉu la modelo estas simbola (hom-generitaj reguloj), statistika (uzas datumojn) aŭ hibrida? | |
Rajtoj asociitaj kun modelo | Ĉu la modelo estas malferma fonto, aŭ proprieta, mem- aŭ tripartia administrita? | |
Unuopaj aŭ pluraj modeloj | Ĉu la sistemo konsistas el unu modelo aŭ pluraj interligitaj modeloj? | |
Genera aŭ diskriminacia | Ĉu la modelo estas genera, diskriminacia aŭ ambaŭ? | |
Modelkonstruaĵo | Ĉu la sistemo lernas surbaze de homskribitaj reguloj, de datumoj, per kontrolata lernado aŭ per plifortiga lernado? | |
Modelevoluo (AI-drivo) | Ĉu la modelo evoluas kaj/aŭ akiras kapablojn de interagado kun datumoj en la kampo? | |
Federacia aŭ centra lernado | Ĉu la modelo estas trejnita centre aŭ en pluraj lokaj serviloj aŭ "randaj" aparatoj? | |
Evoluo kaj bontenado | Ĉu la modelo estas universala, agordebla aŭ adaptita al la datumoj de la AI-aktoro? | |
Determinisma aŭ probabla | Ĉu la modelo estas uzata en determinisma aŭ probabla maniero? | |
Modela travidebleco | Ĉu informoj haveblas al uzantoj por permesi al ili kompreni modelproduktojn kaj limigojn aŭ uzi limojn? | |
Komputila limigo | Ĉu estas komputilaj limigoj al la sistemo? Ĉu ni povas antaŭdiri kapablecsaltojn aŭ grimpi leĝojn? | |
Dimensioj de efiko | kriterioj | Priskribo |
Tasko kaj eligo | Tasko(j) plenumata(j) de sistemo | Kiajn taskojn plenumas la sistemo (t.e. rekono, evento-detekto, prognozo)? |
Kombinante taskojn kaj agojn | Ĉu la sistemo kombinas plurajn taskojn kaj agojn (t.e., enhavproduktadsistemoj, aŭtonomaj sistemoj, kontrolsistemoj)? | |
La nivelo de aŭtonomeco de la sistemo | Kiom aŭtonomaj estas la agoj de la sistemo kaj kian rolon ludas homoj? | |
Grado de homa implikiĝo | Ĉu ekzistas iu homa implikiĝo por kontroli la ĝeneralan agadon de la AI-sistemo kaj la kapablon decidi kiam kaj kiel uzi la sistemon en iu ajn situacio? | |
Kerna aplikaĵo | Ĉu la sistemo apartenas al kerna aplikaĵo kiel homlingvaj teknologioj, komputila vizio, aŭtomatigo kaj/aŭ optimumigo aŭ robotiko? | |
pritakso | Ĉu normoj aŭ metodoj haveblas por taksi sisteman produktaĵon aŭ trakti neantaŭviditajn emerĝajn ecojn? |
Ŝlosilo al fontoj de la priskribiloj
klarteksto:
Gluckman, P. kaj Allen, K. 2018. Kompreni bonfarton en la kunteksto de rapidaj ciferecaj kaj rilataj transformoj. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Grasa teksto:
OECD. 2022. OECD Kadro por la Klasifikado de AI-sistemoj. OECD Digital Economy Papers, n-ro 323, OECD Publishing, Parizo. https://oecd.ai/en/classification
Kursiva teksto:
Novaj priskribiloj (de multoblaj fontoj)
Vojo antaŭen
Depende de la respondo al ĉi tiu diskutdokumento, faka laborgrupo estus formita fare de la ISC por plue evoluigi aŭ ŝanĝi ĉi-supran analizan kadron per kiu koncernatoj povus amplekse rigardi iujn ajn signifajn evoluojn aŭ de platformoj aŭ de uzaj dimensioj. La laborgrupo estus discipline, geografie kaj demografie diversa, kun kompetenteco ampleksanta de teknologia taksado ĝis publika politiko, de homa evoluo ĝis sociologio kaj estontecoj kaj teknologiaj studoj.
Por okupiĝi pri ĉi tiu diskutdokumento, bonvolu viziti konsilio.scienco/publikaĵoj/framework-digital-technologies
Dankoj
Multaj homoj estis konsultitaj en la disvolviĝo de ĉi tiu artikolo, kiu estis redaktita de Sir Peter Gluckman, Prezidanto, ISC kaj Hema Sridhar, iama Ĉefa Sciencisto, Ministerio pri Defendo, kaj nun altranga esploristo, Universitato de Auckland, Nov-Zelando.
Aparte ni dankas Lord Martin Rees, iaman Prezidanton de la Reĝa Societo kaj kunfondinto de la Centro por Studo de Ekzistemaj Riskoj, Universitato de Kembriĝo; Profesoro Shivaji Sondhi, Profesoro pri Fiziko, Universitato de Oksfordo; Profesoro K Vijay Raghavan, iama ĉefa scienca konsilisto al la Registaro de Hindio; Amandeep Singh Gill, sendito pri Teknologio de ĝenerala sekretario de UN; Dr Seán Óh Éigeartaigh, Plenuma Direktoro, Centro por la Studo de Ekzistemaj Riskoj, Universitato de Kembriĝo; Amanda-June Brawner, Senior Policy Adviser kaj Ian Wiggins, Direktoro de Internaciaj Aferoj, Royal Society UK; D-ro Jerome Duberry, D-ro Marie-Laure Salles, Direktoro, Geneva Graduate Institute; Mr Chor Pharn Lee, Centro por Strategic Futures, Ĉefministroficejo, Singapuro; Barend Mons kaj D-ro Simon Hodson, la Komitato pri Datumoj (CoDATA); Prof Yuko Harayama, Japanio; Profesoro Rémi Quirion, Prezidanto, INGSA; Dr Claire Craig, Universitato de Oksfordo kaj Iama Kapo de Foresight, Registaro-Oficejo de Scienco; kaj Prof Yoshua Bengio, Scienca Konsilantaro de Ĝenerala Sekretario de UN kaj ĉe Université de Montréal. La kontrollista aliro estis ĝenerale aprobita kaj la ĝustatempeco de iu ago de la ISC estis emfazita.
Bildo: adamichi sur iStock