Inglismaa kohus hoiatas juristide võimaliku kriminaalvastutuse eest tehisintellekti kasutamise eest kohtumaterjalides pärast juhtumite avastamist, kus viidati olematutele kohtuotsustele.
G. Ostrov
Inglismaa ja Walesi Kõrgkohus andis ametliku hoiatuse juristidele tehisintellekti tehnoloogiate valesti kasutamise tõsiste tagajärgede kohta kohtupraktikas. Hoiatus järgnes mitme silmapaistva juhtumi avastamisele, kus advokaadid esitasid kohtule viiteid täiesti väljamõeldud kohtuotsustele ja tsiteerisid olematuid määrusi.
Avastatud rikkumised
Kohtupidaja Victoria Sharp, Kuningliku Kohtu president, ja Jeremy Johnson vaatasid läbi kaks näitlikku juhtumit tehisintellekti poolt genereeritud teabe kasutamisest kohtudokumentides. Esimeses kohtuasjas tunnistasid hageja koos advokaadiga avalikult, et nad koostasid kahe pangaasutuse vastu suunatud hagi materjale, kasutades aktiivselt tehisintellekti tööriistu.
Kohtumaterjalide detailne kontrollimine näitas šokeerivaid tulemusi: 45 esitatud kohtupraktika viiteist osutusid 18 täiesti väljamõeldud. Kohtuasi lõpetati eelmisel kuul tõsiste tagajärgedega protsessi osalejatele.
Teises juhtumis, mis lõppes käesoleva aasta aprillis, ei suutnud jurist, kes esindas kliendi huve kohaliku omavalitsusega eluasemeküsimuses, selgitada viie näidatud kohtupraktika näite päritolu.
Kohtu ametlik seisukoht
"Võivad olla tõsised tagajärjed õigusemõistmisele ja süsteemi usaldusele, kui tehisintellekti valesti kasutada," - teatas kohtunik Sharp oma ametlikus järelduses. Ta rõhutas, et juriste võidakse karistada kriminaalvastutusele võtmisega või ameti pidamise õiguse äravõtmisega tehisintellekti poolt loodud teadlikult valeandmete esitamise eest.
Kohtunik märkis eriti, et populaarsed tehisintellekti tööriistad, sealhulgas ChatGPT, "ei ole võimelised läbi viima usaldusväärseid õigusuuringuid" ja võivad genereerida küll enesekindlalt sõnastatud, kuid täiesti valesid väiteid või viiteid olematutele kohtupraktika allikatele.
Konkreetsete juhtumite üksikasjad
Ühes vaadeldud kohtuasjades nõudis mees endale mitme miljoni suuruse kompensatsiooni väidetavalt pangade poolt rikutud lepingutingimuste eest. Hiljem tunnistas hageja ise, et ta koostas kohtupraktika viiteid tehisintellekti tööriistade ja erinevate internetiressursside kaudu, uskudes tingimusteta esitatud materjalide ehtsusesse. Tema advokaat väitis, et tugines kliendi uuringutele ega kontrollinud teavet iseseisvalt.
Teises kohtuasjas esindas jurist inimese huve, kes oli Londonis kodust välja tõstetud ja vajas eluaseme tagamist. Ka tema kasutas tehisintellekti poolt genereeritud viiteid, kuid ei suutnud selgitada nende päritolu. Kohus kahtlustas tehisintellekti kasutamist iseloomuliku ameerika sõnade kirjutamise ja šabloonse teksti esitamisstiili tõttu.
Tehisintellekti vigade statistika
Silicon Valley ettevõtte Vectara uuringud, mida läbi viiakse alates 2023. aastast, näitavad, et isegi kõige täiuslikumad chatbotid teevad vigu 0,7–2,2% juhtudest. Seejuures tõuseb nn "hallutsinatsioonide" tase järsult, kui süsteemidelt nõutakse mahu teksti genereerimist nullist. OpenAI teatas hiljuti, et nende uued mudelid eksivad 51–79% juhtudest üldküsimustele vastamisel.
Rahvusvaheline praktika
Kohtunik Sharp tõi näiteid USA-st, Austraaliast, Kanadast ja Uus-Meremaalt, kus tehisintellekt tõlgendas seadusi valesti või lõi väljamõeldud tsitaate. Hoolimata tehisintellekti tunnistamisest võimsa tööriistana, rõhutas ta, et selle kasutamine kaasneb tõsiste riskidega õigusemõistmisele.
Inglismaa ja Walesi Kõrgkohtu ametlik veebisait: https://www.judiciary.uk
Probleemide korral kirjutage meile, aitame kiiresti ja kvaliteetselt!