Hegle Pärna ja Merlin-Liis Toomela: tehisaru kasutamine võib viia kohtuasjani | Arvamus

2251044h3d63t24

Tere tulemast Eestisse! Hegle Pärna ja Merlin-Liis Toomela on tõstatanud olulise teema tehisintellekti kasutamisest kohtuasjades. Nende arvamusartikkel käsitleb tehisaru kasutamise eetilisi ja õiguslikke küsimusi ning tõstatab võimaliku vajaduse seadusandluse täiendamiseks selles valdkonnas. Kas tehisintellekti kasutamine õigussüsteemis võib tuua kaasa õigluse tagamise või hoopis ebaõiglase kohtlemise? Nende küsimuste üle arutlemine on äärmiselt oluline kõigile seadusandjatele, juristidele ja ühiskonnaliikmetele ning nõuab laialdast tähelepanu ja arutelu.

Kolme populaarseima keelemudeli kasutustingimusi sirvides nähtub, et autoriõiguste rikkumise korral vastutab enamjaolt pahaaimamatu tehisaru kasutaja, samuti pole nende juures tagatud konfidentsiaalsust. Hegle Pärna ja Merlin-Liis Toomela kirjutavad, mida teha, et roboti abi karuteeneks ei osutuks.

Suurem osa keelemudelite (ChatGPT, Bard, Microsoft CoPilot) arendajaid on loonud eraldi kasutustingimused Euroopa Majanduspiirkonna (EMP), Šveitsi ja Ühendkuningriigi kasutajatele. Kõikide olulisemate arendajate – OpenAI, Microsoft ja Google – kasutustingimused sisaldavad mitmeid õiguslikult keerulisi nüansse, mida tuleks robotit ärilisel eesmärgil rakendades silmas pidada.

ChatGPT looja OpenAI tingimused asetavad peamise kasutamisest tuleneva õigusliku riski otseselt mudeli kasutajale. ChatGPT kasutustingimuste järgi vastutab keelemudeli kasutaja (konto looja) selle eest, et keelemudeli väljund ei rikuks kehtivaid seadusi. See tekitab aga hulgaliselt õiguslikke ja eriti autoriõiguslikke küsimusi.

Kui kasutajal puudub selgus, missuguseid andmeid on kasutatud konkreetse mudeli arendamiseks, sh kas nende hulka kuulub autoriõigustega kaitstud kirjutisi või fotosid, siis on keeruline ka kindlaks teha, kas roboti loodud väljund võib rikkuda mõne kolmanda isiku autoriõigusi. Ka Google Bardi tingimustest avaldub sarnane riskide jaotus.

Autoriõiguste võimaliku rikkumise osas on ChatGPT looja OpenAI vastu algatatud USA-s ka mitu kohtuasja. Kõige märgilisem on ilmselt New York Timesi kohtuasi OpenAI vastu. Selle puhul seisneb küsimus just võimalikus autoriõiguste rikkumises seoses ChatGPT arendamiseks kasutatud treeningandmetega, mille kasutamine ei pruugi olla seadusega kooskõlas. Üheski säärases kohtuasjas pole praeguseks veel lahendini jõutud.

Loe rohkem:  Rein Munter: olmevee kvaliteedile mõeldes | Arvamus

Sarnastest kohtuasjadest ei pruugi tulevikus pääseda ka mudeli siinpool Atlandi ookeani olevad kasutajad.

Kui ettevõte kasutab ärilistel eesmärkidel teost, mille on loonud mõni keelemudel, mida treeniti autoriõigustega kaitstud teoste abil, võib see avada tee kohtuvaidlusteks. Microsoft on enda loodud CoPiloti kasutamisest tingitud hädade leevendamiseks loonud juba spetsiaalse süsteemi: ettevõte lubab teatud juhtudel võtta vastutuse, kui nende mudeli kasutajal tekib selle viisipärase kasutamise tulemusel autoriõigustega seotud vaidlus.

Peale intellektuaalset omandit puudutavatele teemade on kasutustingimustes veel tähelepanu vajavaid sätteid, mis puudutavad andmekaitset, privaatsust ning konfidentsiaalsust.

“Peale selle leidub OpenAI tingimustes eraldi märge, et nad ei pruugi saada kasutaja sisestatud sisendandmeid kustutada. “

Näiteks on ChatGPT tingimustes punkt, mille järgi võib selle keelemudel kasutada enda arendamiseks ja parandamiseks ka kasutajate sisendit. Mudelite loojate kasutustingimused tagavad inimestele küll ka nn opt out võimaluse ehk teisisõnu on võimalik kasutajatel hoiduda sellest, et kasutaja andmeid kasutatakse mudeli arendamiseks. See kehtib aga üksnes isikuandmete kohta. Peale selle leidub OpenAI tingimustes eraldi märge, et nad ei pruugi saada kasutaja sisestatud sisendandmeid kustutada ning hoiatus, et kasutajad ei jagaks mudelis delikaatset teavet.

Keelemudelite kasutustingimustest puuduvad ka konfidentsiaalsuse sätted. Seega ei ole kasutajale garanteeritud piisavat konfidentsiaalsust ega privaatsust, mis võimaldaks mudelit turvaliselt kasutada.

Konfidentsiaalse teabe keelemudelisse sisestamine võib paljudel juhtudel tähendada ka lepingulise kohustuse rikkumist, näiteks kui mudeli kasutaja on oma kliendiga, kelle teavet ta kasutab, sõlminud eelnevalt konfidentsiaalsuslepingu.

Ka Google Bardi tingimustes on kirjas, et kasutajate andmeid võidakse kasutada Google toodete, teenuste ja masinõppetehnoloogiate arendamiseks. Vastupidiselt Google Bardile ja ChatGPT-le on Microsoft CoPiloti tingimustes esile toodud, et sisendandmeid ei kasutata mudelite treenimiseks ja arendamiseks. Samuti on Microsoft CoPilot oma tingimustes selgelt väljendanud, et nad järgivad kehtivaid privaatsuse ja turvalisusega seonduvaid nõudeid äriklientide ees, nagu näiteks isikuandmete kaitse üldmäärust (IKÜM/GDPR).

Loe rohkem:  Harri Tiido: ukrainluse vastu võitlemisest Venemaal | Arvamus

Mudelite kasutamisel esineb seega hulk riske, mille maandamisele tuleks juba praegu mõelda. Esimese sammuna tuleks tõsta töötajate teadlikkust riskidest, korraldades näiteks asjakohaseid koolitusi. Ettevõttesiseselt tuleks paika panna tehisaru kasutamise reeglid ja juhendid, ka tuleks üle vaadata oma klientidega sõlmitud lepingud konfidentsiaalse teabe ja keelemudelite kasutamise reeglite osas.

Kokkuvõttes võib öelda, et Hegle Pärna ja Merlin-Liis Toomela artikkel tehisintellekti kasutamise õiguslikest tagajärgedest on äärmiselt oluline teema. Tehisintellekti kiire arenguga kaasnevad õiguslikud küsimused ja võimalikud kohtuasjad on vältimatud. Eesti õigussüsteem peab olema valmis nendeks väljakutseteks ning looma selged raamistikud tehisintellekti kasutamiseks, et tagada inimeste õigused ja vastutus. Artikkel kutsub üles laiemat arutelu ja teadlikkust sellest, kuidas tehisintellekt võib mõjutada meie õigussüsteemi ning inimeste igapäevaelu.

Lisa kommentaar

Sinu e-postiaadressi ei avaldata. Nõutavad väljad on tähistatud *-ga