
Pastaraisiais metais dirbtinis intelektas tapo viena iš sparčiausiai besivystančių ir didžiausią įtaką darančių technologijų pasaulyje. Įstatymų leidėjai į tai reaguoja reguliavimo priemonėmis, tokiomis kaip neseniai patvirtintas Europos Sąjungos dirbtinio intelekto aktas. Tuo tarpu dirbtinio intelekto sistemos kaip „OpenAI“ „ChatGPT“ ir Google „Gemini“ jau naudojamos įvairiose verslo srityse: klientų aptarnavimo, tekstų kūrimo, duomenų analizės ir sprendimų priėmimo. Dirbtinis intelektas geba greitai ir efektyviai atlikti sudėtingas užduotis, automatizuoti pasikartojančius procesus ir generuoti įžvalgas iš didelių duomenų masyvų, taip didindamas darbo našumą ir verslo konkurencingumą. Dėl šių privalumų vis daugiau įmonių pasitelkia dirbtinį intelektą kasdienėje veikloje, prisitaikydamos prie rinkos pokyčių ir kurdamos naujas verslo galimybes.
Tačiau lengva ir nemokama prieiga prie tokių dirbtinio intelekto įrankių kaip „ChatGPT“ leidžia darbuotojams juos naudoti darbdaviams ne visada apie tai žinant. Tokia praktika kelia gana rimtų rizikų, tokių kaip konfidencialių įmonės duomenų nutekinimas bei įstatymo saugomų autorių teisių pažeidimai. Toliau šios rizikos aptariamos kiek detaliau bei apžvelgiamos galimos jų suvaldymo priemonės.
Jautrių įmonės duomenų nutekinimas
Įmonės darbuotojai, siekdami pagreitinti ar kitokiu būdu efektyviau atlikti savo darbo funkcijas, į tokias dirbtinio intelekto sistemas kaip „ChatGPT“ gali pateikti įvairaus pobūdžio informaciją. Be paprastų bendro pobūdžio užklausų, tai gali būti klientų asmens duomenys, sutarčių su klientais sąlygos ar kita konfidenciali ar net įmonės komercinę paslaptį sudaranti informacija.
Norint suprasti galimas pasekmes, svarbu žinoti, kaip veikia tokios sistemos kaip „ChatGPT“. Šie vadinamieji didieji kalbos modeliai (angl. large language models) geba atpažinti ir generuoti natūralią kalbą mokydamiesi iš milžiniškų duomenų kiekių. Su „ChatGPT“ bendraujama pateikiant užklausas (angl. prompt) ir gaunant atsakymus (angl. output). Esminis veikimo aspektas – kiekviena pateikiama užklausa tampa duomenų, skirtų tolesniam sistemos apmokymui, dalimi, ir tokių duomenų nebeįmanoma atgauti.
Iš šios ypatybės kyla keletas rizikų:
- Galimas nutekėjimas kitiems vartotojams. Pavyzdžiui, „OpenAI“ 2023 m. kovą patyrė incidentą, kai vartotojai galėjo matyti kitų asmenų vardus, el. pašto adresus ir banko kortelių duomenis[1]. Taip pat fiksuoti bandymai parduoti „ChatGPT“ vartotojų duomenis juodojoje rinkoje[2].
- Klaidinantis algoritmų veikimas. Galbūt tretieji asmenys gali specialiai suformuoti užklausas taip, kad sistema pateiktų svetimus konfidencialius duomenis.
- Asmens duomenų apsaugos problemos (BDAR). Pateikiant sistemos apmokymui jautrius asmens duomenis, galima nesilaikyti BDAR nuostatų, pvz., siekiant pradinės asmens sutikimo ar užtikrinant teisėtą duomenų tvarkymo pagrindą.
- Konfidencialumo susitarimų pažeidimai. Jei su verslo partneriais esate pasirašę konfidencialumo sutartis, tokios informacijos teikimas „ChatGPT“ gali būti laikomas jų pažeidimu.
Autorių teisių pažeidimai
Šiuolaikiniai kalbos modeliai, tokie kaip „ChatGPT“, yra apmokomi milžiniškais duomenų kiekiais, tarp kurių – daugybė autorių teisių saugomų kūrinių. Dėl to skirtingose šalyse jau vyksta bylos, kuriose teigiama, kad be sutikimo naudojama autorių teisių saugoma medžiaga apmokant dirbtinio intelekto sistemas. Pavyzdžiui, JAV vykstanti byla „New York Times v. OpenAI“ ir JK byla „Getty Images v. Stability AI“. Nors rezultatų dar nėra, šie procesai turės didelės įtakos būsimam DI sistemos mokymo duomenų naudojimo reglamentavimui.
Kyla klausimas ir dėl tokių įrankių naudotojų atsakomybės. Tarkime, „ChatGPT“ atsakyme atgaminamas koks nors saugomas turinys, tuomet toliau naudojant šį turinį gali kilti autorių teisių pažeidimas. Darbuotojui galint nežinoti, kad šis fragmentas yra saugomas teisių objektas, atsakomybė vis tiek gali tekti įmonei.
Netikslių atsakymų panaudojimas
Dirbtinio intelekto sistemos kartais pateikia klaidingą ar net išgalvotą informaciją. Tokie atvejai žinomi kaip „haliucinacijos“, jų dažnumas gali siekti 3–10 proc. visų atsakymų[3]. Taigi, neteisinga informacija gali atsirasti, jei algoritmas remiasi nepatikimais duomenimis. Tokios klaidos ypač kritiškos srityse, kur reikia aukšto tikslumo (pavyzdžiui, finansinės ar teisinės konsultacijos).
Be to, šališkumas duomenų rinkiniuose gali lemti neteisingas ar diskriminuojančias išvadas. Pavyzdžiui, klientų aptarnavimo sistemos, paremtos pasenusiais duomenimis, gali teikti neišsamius ar klaidinančius atsakymus. Todėl būtina kritiškai vertinti DI sugeneruotą informaciją, kad išvengtume sprendimų, grįstų klaidingomis įžvalgomis.
Galimos rizikų suvaldymo priemonės
Greičiausias ir paprasčiausias būdas išvengti paminėtų rizikų būtų tiesiog uždrausti darbo vietoje naudoti „ChatGPT“ ar kitas DI sistemas. Tačiau tokia priemonė gali prieštarauti įmonės siekiui išnaudoti DI teikiamas efektyvumo naudas.
Todėl rekomenduotina:
- Parengti aiškias naudojimosi DI taisykles. Reikėtų, kad darbuotojams būtų paaiškinta, kokiais tikslais ir kaip galima naudoti „ChatGPT“ ar pan. sistemas. Numatyti pasekmes taisyklių pažeidimo atveju.
- Diegti vidinį DI įrankį. Galima svarstyti vidinę įmonės sistemą, siekiant geresnės duomenų apsaugos bei pritaikymo specifiniams poreikiams.
- Kontrolės mechanizmai. Įdiegti apsaugas, ribojančias, kokie duomenys gali būti įvedami į DI sistemas, stebėti veiksmus, kuriais potencialiai gali būti pažeistos konfidencialumo ar autorių teisės.
- Bendradarbiauti su IT specialistais. Siekiant užtikrinti, kad DI platformos būtų tinkamai sukonfigūruotos, minimalizėtų klaidų ar nutekėjimo galimybės.
Publikaciją parengė „Glimstedt“ vyresnysis teisininkas, advokato padėjėjas Ovidijus Speičys ir teisininkė, advokato padėjėja Gabrielė Šapkauskaitė.
[1] https://www.cshub.com/data/news/openai-confirms-chatgpt-data-breach
[2] https://www.scmagazine.com/news/chatgpt-credentials-snagged-by-infostealers
[3] https://siliconangle.com/