EU AI Aktas: ES dirbtinio intelekto reguliavimo aktas

Europos Sąjunga (ES) neseniai pasiekė svarbų susitarimą, kuris gali pakeisti dirbtinio intelekto (DI) technologijų naudojimą ir reguliavimą visame regione. Susitarimas buvo užbaigtas po intensyvių derybų, kurios truko beveik visą savaitę, įskaitant 24 valandų tarpinstitucinių diskusijų maratoną.

Šis susitarimas iškelia ES kaip pionierę dirbtinio intelekto reguliavimo srityje, leisdamas Europai tapti viena iš pirmųjų didžiųjų pasaulio jurisdikcijų, turinčių specifiškas taisykles, skirtas DI reguliavimui. Viena iš pagrindinių diskusijų temų buvo kaip reguliuoti generatyvinius DI modelius bei biometrinės atpažinties įrankius, tokius kaip veido atpažinimas ir pirštų atspaudų skenavimas.

Pagal naująjį susitarimą, generatyviniai DI modeliai ir bendrosios paskirties DI sistemos prieš jų išleidimą privalės atitikti skaidrumo reikalavimus. Modelių kūrėjai turės pateikti techninę dokumentaciją, laikytis ES autorių teisių apsaugos taisyklių ir suteikti išsamų su duomenimis susijusį aprašymą.

Be to, DI modeliai, laikomi sistemingai rizikingais, privalės atlikti rizikos vertinimus, valdyti galimas grėsmes, informuoti Europos Komisiją apie rimtus incidentus, užtikrinti kibernetinę saugą ir teikti ataskaitas apie jų energetinį efektyvumą. Valdžios institucijos galės vykdyti realaus laiko biometrinę stebėseną viešose erdvėse tik esant realioms ar numatomoms grėsmėms, pavyzdžiui, teroristinėms atakoms, ar ieškant asmenų, įtariamų dėl sunkių nusikaltimų.

Konkretūs įstatymo formuliavimai dar bus svarstomi artimiausiomis dienomis, o naujasis reglamentas turėtų įsigalioti ne anksčiau kaip 2025 m. Formuodami DI aktą, ES pareigūnai ir valstybės narės turėjo rasti pusiausvyrą tarp technologijos rizikų ir siekio neatsilikti technologiniu požiūriu nuo JAV ir Kinijos.

+370 613 70 574 info@promptas.lt ChatGPT, dirbtinio intelekto mokymai Lietuvoje

ES dirbtinio intelekto reguliavimas: AI aktas

2023 m. gruodį ES Komisija, Vadovų Taryba ir Parlamentas pagaliau susitarė dėl būsimo dirbtinio intelekto reguliavimo akto.

ES dirbtinio intelekto reguliavimas: AI aktas

2023 m. gruodžio 8 dieną ES Komisija, Vadovų Taryba ir Parlamentas – po 37 valandų derybų – susitarė dėl Dirbtinio intelekto reguliavimo akto. Kol kas skelbia tik apibendrinimą, bet ne galutinį tekstą.

Aktas buvo vystomas virš dvejų metų ir tikimąsi, kad taps modeliu ir kitoms pasaulio šalims, – atkreipia dėmesį duomenų mokslininkas Vainius Indilas.

Keli kertiniai punktai:

Išlaikytas „rizikomis paremtas” modelis

Reguliacijos „ašis” yra AI skirstymas pagal rizikos lygius – kuo jis didesnis, tuo griežtesnės taisyklės taikomos.

Rizikingumo lygis priklauso nuo to, kur AI naudojamas. Tam tikros distopinės panaudojimo sritys apskritai uždraustos (pavyzdžiui, „socialinių taškų” skaičiavimas), o tam tikros priskirtos didelės rizikos kategorijai (pavyzdžiui, priėmimas į darbą remiantis AI), kur prieš taikant privaloma atlikti įvairius rizikos vertinimus.

Numatyti įsipareigojimai „bendros paskirties” AI sistemoms

Didelė dalis akto ruošta dar prieš ChatGPT iškilimą. Tačiau atsižvelgiant į generuojančio dirbtinio intelekto „revoliuciją”, aptartos ir „bendros paskirties” AI sistemos kaip Chat GPT.

Bendros paskirties sistemos turės pranešti, koks turinys buvo naudojamas jas apmokant, kad būtų galima patikrinti, ar nepažeidžiamos autorinės teisės.

O „didelės įtakos” (t.y. itin galingos) sistemos turės papildomai atlikti rizikos vertinimus, „piktybinių” panaudojimo atvejų testavimą, pranešti apie energijos suvartojimą ir parodyti, kad mažina rizikas. Tikslūs kriterijai kol kas nepaskelbti. Šitoj vietoj detalės bus itin svarbios.

Panašu, kad atviros prieigos („open-source”) modeliams numatytos tam tikros išimtys, kas yra gerai.

Apribotas žmogaus/veidų atpažinimo technologijų naudojimas viešose erdvėse, bet paliktos išimtys teisėsaugai.

Privatumo advokatai kritikavo sprendimą palikti išimtis ir norėjo, kad toks taikymas apskritai būtų uždraustas.

Numatyti saugikliai

Viename iš pranešimų minima, kad bus numatytas nusikaltimų sąrašas, kuriuos tiriant leidžiama naudoti atpažinimo sistemas ir kad reikės teismo sprendimo. Jei abu šie saugikliai bus, tai neblogas kompromisas. Nors tiesa, kad pradėjus taikyti sistemą, visada išlieka neteisingo panaudojimo rizika.

Bendras įspūdis neblogas – atrodo, kad išlaikytas balansas tarp saugiklių kūrimo ir inovacijos neužgniaužimo. Tačiau bus svarbu pamatyti detales, – rašo duomenų mokslininkas Vainius Indilas.

    Susisiekite:
    Dirbtinio intelekto mokymų centras