Nedelja, 24. 11. 2024, 22.42
1 ura, 50 minut
Umetna inteligenca in evropska zakonodaja
Aljaž Jadek: "Težko bi rekli, da Slovenija pomembno zaostaja pri aplikativni rabi umetne inteligence"
Akt o umetni inteligenci je začel veljati 1. avgusta 2024, toda v celoti se bo začel uporabljati šele 2. avgusta 2026. Zakaj so ga sprejeli, kaj nam prinaša, ali smo nanj pripravljeni, ali nas morda pri čem omejuje, namesto da bi nas samo obvaroval in ali umetna inteligenca ogroža delovna mesta, so bila zgolj nekatera vprašanja v pogovoru s pravnim strokovnjakom.
"Akt o umetni inteligenci v osredje ureditve postavlja človeka, njegov namen je spodbujati uvajanje na človeka osredotočene in zaupanja vredne umetne inteligence ter zagotoviti visoko raven varovanja zdravja, varnosti in temeljnih pravic Evropske unije, vključno z demokracijo, pravno državo in varstvom okolja, pred škodljivimi učinki sistemov umetne inteligence," je v pogovoru za Siol.net pojasnil Aljaž Jadek, ki kot starejši odvetnik v odvetniški družbi Jadek & Pensa svetuje strankam in skrbi za njihovo skladno poslovanje.
Zlasti ga zanima področje prava informacijske tehnologije in pravne tehnologije, zato je med drugim svetoval številnim multinacionalnim podjetjem, vključno z nekaj podjetji s seznama Fortune 500, na področju elektronske komunikacije, varstva potrošnikov, storitev informacijskih tehnologij in drugih pravnih področij, povezanih z novimi tehnologijami.
Kaj vidite kot najpomembnejši cilj Akta o umetni inteligenci?
Z načelom pismenosti je Evropska unija za osrednji cilj postavila zagotovitev zadostne ravni pismenosti osebja na področju umetne inteligence. Zdi se, da bo na vseh ravneh treba z najrazličnejšimi znanji o umetni inteligenci izobraziti veliko število različnih oseb, ki se bodo na tak ali drugačen način srečevali z umetno inteligenco, bodisi v družbah, ki bodo umetno inteligenco integrirale v svoje produkte ali pa jo bodo zgolj uporabljale, vse do organov nadzora in končnih uporabnikov.
"Zdi se, da bo na vseh ravneh treba z najrazličnejšimi znanji o umetni inteligenci izobraziti veliko število različnih oseb, ki se bodo na tak ali drugačen način srečevali z umetno inteligenco,"
Koga zavezuje Akt o umetni inteligenci?
Akt o umetni inteligenci bo veljal zlasti za ponudnike, to so subjekti, ki razvijejo sistem in ga dajo na trg ali v uporabo pod svojim imenom ali znamko, za plačilo ali brezplačno, in uvajalce, to so subjekti, ki te sisteme uporabljajo v svoji pristojnosti v okviru svoje poklicne dejavnosti. V določenih primerih bo Akt o umetni inteligenci veljal tudi za subjekte izven Evropske unije, in sicer kadar bo ponudnik, ki nima sedeža v Evropski uniji, svoj sistem dal na trg ali v uporabo v Evropski uniji oziroma se bodo izhodni podatki sistema umetne inteligence ponudnika ali uvajalca, ki nima sedeža v Evropski uniji, uporabljali v Evropski uniji. S tem ekstrateritorialnim učinkom želi Evropska unija poseči tudi na subjekte izven meja Evropske unije, ki bodo vplivali na uporabo umetne inteligence znotraj Evropske unije.
Kakšne obveznosti Akt o umetni inteligenci prinaša posameznikom, podjetjem in državi?
Akt o umetni inteligenci razvršča sisteme umetne inteligence v tri ključne vrste: sisteme velikega tveganja, modele za splošne namene in modele omejenega tveganja. Glede na tveganja, ki jih ti sistemi prinašajo, Akt o umetni inteligenci določa posamezne obveznosti.
"V določenih primerih bo Akt o umetni inteligenci veljal tudi za subjekte izven Evropske unije, in sicer kadar bo ponudnik, ki nima sedeža v Evropski uniji, svoj sistem dal na trg ali v uporabo v Evropski uniji oziroma se bodo izhodni podatki sistema umetne inteligence ponudnika ali uvajalca, ki nima sedeža v Evropski uniji, uporabljali v Evropski uniji."
Kaj bodo morali storiti sistemi velikega tveganja?
Za sisteme velikega tveganja je treba izpolnjevati visoke standarde v zvezi z delovanjem sistema, kot so med drugim nadzor, testiranje, vodenje evidenc in kibernetska varnost. Tudi ponudniki in uvajalci takih sistemov bodo morali izpolnjevati številne obveznosti v zvezi z uporabo takih sistemov, kot so med drugim ugotavljanje skladnosti, registracija, priprava sistema upravljanja kakovosti, spremljanje in evidentiranje delovanja. V zvezi z modeli za splošne namene, med katere spadajo tudi veliki jezikovni modeli, bodo morali ponudniki izpolnjevati določene obveznosti, vendar bodo te manj zahtevne kot za sisteme velikega tveganja.
Kaj pa modeli omejenega tveganja?
Za modele omejenega tveganja, med katere spadajo vsi modeli, ki bodo imeli neposredno interakcijo s fizičnimi osebami, bo treba zagotoviti jasno obvestilo, da gre za interakcijo s sistemom umetne inteligence. Posledično bomo uporabniki lahko točno vedeli, kdaj imamo interakcijo z umetno inteligenco in katere vsebine so bile z njo generirane. Na ravni države in Evropske unije pa Akt o umetni inteligenci prinaša vrsto administrativnih obveznosti, ki jih bo treba zagotoviti, od izdajanja potrdil o skladnosti, oznake CE in standardizacije sistemov do organov, registrov in postopkov pred organi. Ves ta administrativni ustroj pa bo služil zagotavljanju skladnosti sistemov in subjektov na trgu.
"Uporabniki lahko točno vedeli, kdaj imamo interakcijo z umetno inteligenco in katere vsebine so bile z njo generirane."
Kako lahko umetna inteligenca izboljša delo in delovne procese?
Umetna inteligenca lahko zlasti avtomatizira ponavljajoče se rutinske naloge. S tem se sprostijo zmogljivosti zaposlenih, ki se lahko osredotočijo na kompleksnejše naloge. Na primer, umetna inteligenca lahko obdeluje velike količine podatkov, prepozna anomalije in pripravi poročila. Z analizo velikih količin podatkov umetna inteligenca pomaga tudi vodjem, da sprejemajo bolj informirane odločitve, na primer nabavo blaga optimizira glede na povpraševanje. V storitvenih dejavnostih, kot sta trženje in prodaja, omogoča personalizirano komunikacijo s strankami in zanje predlaga izdelek ali storitve, ki jih najbolj zanimajo. Umetna inteligenca lahko navadam kupcev približa tudi oglase in oglasna sporočila, ki jih zna že sama izdelati.
V proizvodnji lahko umetna inteligenca spremlja delovanje strojev in predvidi morebitne okvare, kar omogoča boljše vzdrževanje in zmanjšanje izpadov. Proizvodne linije pa lahko prilagodi za povečanje učinkovitosti in zmanjšanje odpadkov. V zdravstvu lahko umetna inteligenca pomaga pri diagnosticiranju bolezni s prepoznavanjem vzorcev v medicinskih slikah, kar izboljšuje natančnost in hitrost diagnoze. Umetna inteligenca lahko zagotavlja stalno in zanesljivo podporo strankam, kar povečuje zadovoljstvo strank in zmanjšuje obremenitev zaposlenih.
Kako bo Akt o umetni inteligenci vplival na delovanje medijev?
Odgovor v videu.(video: Ana Kovač).
Umetna inteligenca lahko prinese tudi tveganja – katera?
Pristranskost in diskriminacija nastopita, če so podatki, na katerih so trenirani algoritmi umetne inteligence, pristranski. To lahko vodi do nepravičnih odločitev. Umetna inteligenca zbira in analizira velike količine osebnih podatkov, kar lahko ogrozi pravico do zasebnosti posameznikov. Če sistemi umetne inteligence niso pravilno zavarovani, lahko postanejo tarča kibernetskih napadov, kar lahko ima resne posledice na zasebnost in varstvo osebnih podatkov. Zato je pomembno, da regulacija naslavlja takšna tveganja.
Ali bo umetna inteligenca odžirala delovna mesta?
Umetna inteligenca lahko v določenih primerih nadomesti potrebo po delovnih mestih, kar lahko vodi do povečanja brezposelnosti. Umetna inteligenca pa lahko vodi tudi do izgube znanj in spretnosti, če se pri svojih opravilih preveč zanašamo nanjo. V primeru napak pri uporabi umetne inteligence je pogosto težko določiti odgovornost, kar lahko povzroči pravne zaplete, tudi napačne odločitve v pravnih ali zdravstvenih postopkih, saj je z umetno inteligenco povezan določen deficit transparentnosti in pojasnljivosti rezultatov.
Ali pravo sledi spremembam, ki jih prinaša umetna inteligenca?
Pravo sledi napredku družbe, vendar v primerih tehnoloških pojavov v zgodnjih fazah razvoja ne uspe slediti vsem vplivom sprememb na družbo. Zato se je v Evropi zakonodajalec odločil segmentirati tveganja glede na resnost grožnje in podrobneje reguliral najbolj tvegane segmente. Zaradi skokovitega napredka tehnologije na tem področju je nemogoče pričakovati, da bo regulacija uspela slediti vsem izzivom, ki jih ta prinaša, vseeno pa je pomembno, da ureja najbolj tvegane prakse.
"Pravo sledi napredku družbe, vendar v primerih tehnoloških pojavov v zgodnjih fazah razvoja ne uspe slediti vsem vplivom sprememb na družbo."
Te so zagotovo ravno na področju zaposlovanja in dela nasploh …
Posebno pozornost je zakonodajalec v Aktu o umetni inteligenci, ki za države članice velja neposredno, namenil delovno-pravnemu področju. Določeni sistemi na področju zaposlovanja, upravljanja delavcev in dostopa do samozaposlitve se namreč uvrščajo med visoko tvegane sisteme umetne inteligence. Čeprav bi bilo smiselno določene pravice in izzive celoviteje in določneje nasloviti tudi na nacionalni ravni, pa so nekatera obstoječa pravila na delovno-pravnem področju že dobro vzpostavljena in delno uporabljiva tudi v kontekstu umetne inteligence.
Kaj je največji izziv, ki ga umetna inteligenca prinaša pravu in pravnikom?
Vprašanje odgovornosti in zanesljivosti. Pravniki se soočajo z dejstvom, da lahko prihaja do napak (npr. t. i. halucinacij algoritmov), kar lahko povzroči napačne pravne odločitve. Tehnologija je kompleksna in ni vedno jasno, kako deluje, pa tudi ne, kdo je odgovoren za napake – razvijalci, uporabniki ali sama tehnologija.
Kako umetna inteligenca spreminja delovna razmerja?
Umetna inteligenca ima ponekod že občutne učinke na delovno-pravnem področju, saj spreminja določene ustaljene prakse. Z razvojem umetne inteligence in njeno vse večjo implementacijo v delovnem okolju se postopoma spreminja tudi naše razumevanje tradicionalnega delovnega razmerja. Na eni strani imamo na voljo orodja umetne inteligence, ki zaposlenim omogočajo učinkovitejše opravljanje delovnih nalog, na drugi strani pa lahko delodajalci z uporabo umetne inteligence optimizirajo delovni proces. Spremembe v delovnem razmerju pa so zlasti opazne z vzponom t. i. algoritemskega šefa, ko sistemi umetne inteligence postopoma prevzemajo naloge zaposlovanja, spremljanja in ocenjevanja zaposlenih. Imamo tudi tveganja, kot so prekomerno zanašanje na orodja umetne inteligence, dehumanizacija delovnega okolja in potencialna diskriminacija, kar je ustrezno prepoznal tudi evropski zakonodajalec.
"Posebno pozornost je zakonodajalec v Aktu o umetni inteligenci, ki za države članice velja neposredno, namenil delovno-pravnemu področju. Določeni sistemi na področju zaposlovanja, upravljanja delavcev in dostopa do samozaposlitve se namreč uvrščajo med visoko tvegane sisteme umetne inteligence."
Ali imamo primere dobre prakse, ki bi jih veljalo izpostaviti?
Dobre prakse vključujejo uporabo umetne inteligence za izboljšanje delovnih procesov in povečanje produktivnosti ter učinkovitosti, tako na strani delavca kot na strani delodajalca. Pri delavcih gre zlasti za orodja, ki omogočajo avtomatizacijo rutinskih opravil, olajšujejo obdelavo večjih količin podatkov ali omogočajo večjo natančnost. Tako lahko npr. sistem umetne inteligence zdravnikom zagotovi ključne informacije, s katerimi lahko optimizirajo tehniko zdravljenja. Sistem umetne inteligence lahko tudi npr. omogoča biometrično spremljanje oziroma zaznavanje utrujenosti voznikov in s tem lahko prepreči tveganje za prometno nesrečo.
Kako pa umetna inteligenca pomaga delodajalcem?
Delodajalci lahko uporabljajo orodja umetne inteligence v različnih fazah – od izbire kandidata prek avtomatiziranih razgovorov, spremljanja produktivnosti z uporabo nosljivih naprav, organizacije letnih dopustov itd. Danes so vse aktualnejše ideje o implementaciji umetnointeligenčnih chatbotov, ki temeljijo na podatkovni bazi delodajalca in bi delavcem omogočali zastavljanje vprašanj v zvezi z delovnim razmerjem, kar bi razbremenilo kadrovsko osebje. Nenazadnje pa lahko orodja umetne inteligence pomagajo zaposlenim pri kariernem razvoju in krepitvi zadovoljstva na delovnem mestu.
"Dobre prakse vključujejo uporabo umetne inteligence za izboljšanje delovnih procesov in povečanje produktivnosti ter učinkovitosti, tako na strani delavca kot na strani delodajalca. Pri delavcih gre zlasti za orodja, ki omogočajo avtomatizacijo rutinskih opravil, olajšujejo obdelavo večjih količin podatkov ali omogočajo večjo natančnost."
Toda algoritmi niso vedno nepristranski …
Če ostanemo v okviru delovno-pravnega področja, je bil eden od glavnih ciljev uporabe umetne inteligence v delovnih razmerjih doseganje objektivnejših in pravičnejših odločitev, vendar se je v praksi izkazalo, da so algoritmi sami pogosto vir pristranskosti. Če so na primer podatki, s katerimi so ti sistemi trenirani, pristranski ali nepopolni, bodo tudi odločitve, ki jih sprejema tak umetnointeligenčni sistem, pristranske. To je še posebej problematično pri sprejemanju odločitev o zaposlovanju, napredovanju ali prekinitvah delovnih razmerij.
Kako naj odpravimo te pristranskosti?
Najprej je pomembno prepoznati, da umetna inteligenca ni imuna na napake in pristranskosti, ki jih lahko podeduje iz človeških praks in preteklih podatkov. Z vidika delodajalca je zato pomembno, da stremi k etični in odgovorni uporabi orodij umetne inteligence, kar lahko zagotovi na različne načine, na primer z vzpostavitvijo internih aktov in politik, rednim preverjanjem delovanja teh sistemov in vključitvijo človeškega nadzora. Vselej pa je ključno, da delodajalec kritično vrednoti rezultate, ki jih ponujajo umetnointeligenčni sistemi.
Algoritmi lahko obdelujejo veliko količino podatkov, tudi osebnih. Kako bi morali zagotoviti ustrezno varnost podatkov in posameznikov?
Tudi pri uporabi umetne inteligence, bodisi pri njenem učenju bodisi pri uporabi za opravljanje vsakodnevnih opravil, je treba spoštovati vsa relevantna pravila s področja varstva osebnih podatkov. Ker Akt o umetni inteligenci tega področja povečini ne ureja, se za vprašanja, povezana z varstvom osebnih podatkov, uporablja splošna zakonodaja, torej zlasti Splošna uredba o varstvu osebnih podatkov (GDPR) in Zakon o varstvu osebnih podatkov (ZVOP-2), in področni predpisi, na primer Zakon o delovnih razmerjih (ZDR-1) in podobni.
"Tudi pri uporabi umetne inteligence, bodisi pri njenem učenju bodisi pri uporabi za opravljanje vsakodnevnih opravil, je treba spoštovati vsa relevantna pravila s področja varstva osebnih podatkov."
Ali dovolj varujemo osebne podatke in zasebnost posameznikov?
Ozaveščenost na tem področju je že na dokaj visokem nivoju, saj GDPR velja že od leta 2018, zato so podjetjem njihove obveznosti v zvezi s tem že dobro poznane. Zlasti zaradi nepojasnljivosti umetne inteligence in (vsaj trenutne) težave z njenimi halucinacijami se bomo verjetno še nekaj časa soočali z nekaterimi izzivi z vidika varstva osebnih podatkov, na dolgi rok pa se zdi, da bi bila skladnost z zahtevami zakonodaje za varstvo osebnih podatkov tudi pri uporabi umetne inteligence lahko mogoča.
Ali so področja ali primeri rabe, kjer zakonodaja prepoveduje uporabo umetne inteligence?
Nov Akt o umetni inteligenci prepoveduje nekatere posebej škodljive in zlonamerne prakse umetne inteligence z namenom zaščititi posameznike pred morebitnimi škodljivimi posledicami. Prepovedani so sistemi, ki z manipulacijo ali zavajanjem bistveno izkrivljajo vedenje posameznikov in jih pripeljejo do škodljivih odločitev, izkoriščajo ranljive skupine (starejši, invalidi, socialno ogroženi), ocenjujejo in razvrščajo ljudi (družbeno točkovanje), ocenjujejo tveganja za storitev kaznivih dejanj glede na profil, nezakonito zbirajo biometrične podatke, sklepajo o čustvih na delovnem mestu in izobraževanju ter izvajajo biometrično kategorizacijo in identifikacijo v javnih prostorih. Ta del akta začne veljati 2. februarja 2025 in od tega dneva zgornji primeri rabe umetne inteligence v Evropski uniji ne bodo dovoljeni.
Ali so še katera področja ali primeri rabe, kjer bi zakonodaja morala prepovedati uporabo umetne inteligence?
Akt o umetni inteligenci predstavlja precej zgodnjo ureditev nekega novega tehnološkega pojava, ki je še v zgodnji fazi razvoja. Ker gre za zgodnjo ureditev, Evropa ni želela preveč omejiti nadaljnjega razvoja, zato se je pri urejanju področja poslužila pristopa, ki temelji na tveganju. To pomeni, da je ukrepe sprejemala sorazmerno z ocenjeno stopnjo tveganja. Bolj tvegana področja in uporaba so bolj regulirana ali celo prepovedana, manj tvegana pa manj. Tak pristop urejanja se zdi najprimernejši, saj že v zgodnji fazi razvoja tehnologije omogoča najnujnejše regulatorne omejitve, hkrati pa pušča odprta vrata za nadaljnji razvoj. Pomembno je, da je Evropa dobro zajela področja, ki so prepovedana, pri tem pa je ključno tudi to, da s tem ni pretirano omejila nadaljnjega razvoja te nove tehnologije.
"Nov Akt o umetni inteligenci prepoveduje nekatere posebej škodljive in zlonamerne prakse umetne inteligence z namenom zaščititi posameznike pred morebitnimi škodljivimi posledicami."
Ali bodo te omejitve zavirale razvoj in raziskave?
Akt o umetni inteligenci prinaša kar nekaj ukrepov v podporo inovacijam. Predvideni so regulatorni peskovniki in regulirana testiranja sistemov velikega tveganja, ki služijo predvsem učenju, preizkušanju, pospeševanju inovacijam, izoblikovanju dobrih praks in splošnemu izboljšanju pravne varnosti. Nadalje so za mala in srednja podjetja ter zagonska podjetja predvideni še dodatni ukrepi v podporo izobraževanju, komunikaciji z organi in splošnemu olajšanju dostopa na trg.
Ali smo v Sloveniji pripravljeni na vse, kar Akt o umetni inteligenci prinaša?
Treba bo postoriti še kar nekaj stvari, da bomo lahko zagotovili skladno uporabo umetne inteligence. Na ravni države bo treba oblikovati kar nekaj organov, ki bodo skrbeli za nadzor in skladno uporabo. Država ima za oblikovanje vseh teh organov nekoliko skrajšano časovnico, saj morajo biti ti organi vzpostavljeni že 2. avgusta 2025.
Kaj pa gospodarstvo?
Družbe morajo same poskrbeti, da bodo do predvidenih rokov izpolnile vse zahteve iz Akta o umetni inteligenci. Subjekti na trgu, ki uporabljajo umetno inteligenco, bodo morali v zvezi z Aktom o umetni inteligenci najprej, in sicer do 2. februarja 2025, opraviti analizo, ali njihova uporaba umetne inteligence predstavlja prepovedano prakso umetne inteligence, in s tako uporabo prenehati. Ponudniki in pooblaščeni zastopniki modelov umetne inteligence za splošne namene bodo morali najkasneje 2. avgusta 2025 začeti izpolnjevati obveznosti iz Akta o umetni inteligenci v zvezi z modeli umetne inteligence za splošne namene. Vse ostale obveznosti v zvezi z modeli umetne inteligence se bodo morale začeti izpolnjevati od 2. avgusta 2026 dalje. Pri tem pa je treba preveriti, ali model umetne inteligence slučajno ne pade med katero izmed izjem, za katere se bo Akt o umetni inteligenci začel uporabljati šele kasneje.
Ali jim bo uspelo ujeti vse roke?
Večina družb se že intenzivno pripravlja na prihajajoče roke. Tudi na ravni države se že izvajajo prve aktivnosti za oblikovanje organov. Pri vsem tem se zdi najbolj problematično pomanjkanje kadra z ustreznim znanjem, ki bo vse predvidene aktivnosti izvajal.
Kako je v drugih državah glede tega?
Če govorimo o državah Evropske unije, bi težko rekli, da Slovenija pomembno zaostaja pri aplikativni rabi umetne inteligence. Zgodovinsko gledano so bila slovenska podjetja, ki so se ukvarjala z razvojem programske opreme, med naprednejšim in zdi se, da je tako tudi danes. Po drugi strani pa države EU zaostajajo za nekaterimi drugimi ekonomijami, še posebej za ZDA in Kitajsko. Temu botruje strožji pravni režim EU na področju varstva osebnih podatkov in zdaj tudi umetne inteligence.
"Zgodovinsko gledano so bila slovenska podjetja, ki so se ukvarjala z razvojem programske opreme, med naprednejšim in zdi se, da je tako tudi danes. Po drugi strani pa države EU zaostajajo za nekaterimi drugimi ekonomijami, še posebej za ZDA in Kitajsko."
Ali je ta strožji režim prednost ali hiba?
Upravičena je bojazen, da bo zaradi strožje regulacije nastal še večji razkorak v razvoju in ekonomski uspešnosti EU, saj so pogledi na svobodno gospodarsko pobudo različni. Regulacija je v ZDA bolj naklonjena svobodni gospodarski pobudi in posledično so predpisi bolj benevolentni in dopuščajo več praks, ki bi jih v EU lahko videli kot sporne. Kitajska določena vprašanja regulira še manj kot ZDA.
Ali lahko ima to škodljive posledice za evropske države?
Večina razvoja umetne inteligence bo skoncentrirana v pravnih okoljih z manj administrativnimi bremeni, ki za razvijalce pomenijo dodatne stroške. Morda se bo zaradi zahtevnega regulativnega okolja tudi zgodilo, da kakšna boljša različica orodij, podprtih z umetno inteligenco, sploh ne bo na razpolago v EU. Tudi med državami EU bodo lahko nastajale večje razlike, odvisne od tega, ali bo mogoče zagotoviti zadostno število vhodnih podatkov za izboljšanje zanesljivosti odgovorov umetne inteligence.
Kako gredo skupaj avtorske pravice in umetna inteligenca?
Pravo EU v ospredje postavlja človeka, kar pomeni, da je avtorsko delo lahko le tisto, ki ga je ustvaril človek. Tako delo lahko uživa avtorskopravno varstvo, tudi če je ustvarjeno s pomočjo orodja umetne inteligence, v kolikor je rezultat človeških kreativnih, ustvarjalnih odločitev, ki so v teh delih izražene. Neka splošna, generalna ideja človeka, na podlagi katere orodje umetne inteligence ustvari produkt, ne bo izpolnjevala pogojev za avtorsko zaščito takega produkta in na njem tisti, ki je to idejo dal, ne bo pridobil izključnih pravic.
"Večina razvoja umetne inteligence bo skoncentrirana v pravnih okoljih z manj administrativnimi bremeni, ki za razvijalce pomenijo dodatne stroške."
Toda če nekdo nekaj ustvari z orodjem umetne inteligence, kdo je v resnici avtor?
Moramo biti pazljivi na splošne pogoje ponudnikov orodij umetne inteligence. Načeloma velja, da je imetnik pravic na produktu uporabnik orodja, ni pa nujno, saj si ponudnik orodja lahko pridrži pravice zase ali komercialno omeji izkoriščanje tega dela uporabniku, zaradi česar je pomembno, da splošne pogoje dobro preberemo pred uporabo orodja, sicer se lahko sami znajdemo v vlogi kršilca pravic.
Kaj pa besedilno in podatkovno rudarjenje v raziskovalne namene?
To ureja zakon o avtorskih in sorodnih pravicah. Pri tem gre za vsebinsko omejitev avtorske pravice v splošne namene ali pa v namene znanstvenega raziskovanja. Bistvena razlika med njima je v tem, da lahko imetnik pravic prepove splošno besedilno in podatkovno rudarjenje, medtem ko pri besedilnem in podatkovnem rudarjenju za namene znanstvenega raziskovanja tega ne more storiti. Če torej ne želimo, da bi se umetna inteligenca učila na naših delih, kadar gre za rudarjenje v splošne namene, si lahko pravice pridržimo.