Ko država govori o umetni inteligenci, govori o prihodnosti, učinkovitosti, hitrejših postopkih in boljših storitvah. A ob vseh teh obljubah se hitro pojavi tudi neprijetno vprašanje, kaj se zgodi z našimi osebnimi podatki. Prav na to je te dni opozoril Informacijski pooblaščenec, ko je javno izpostavil tveganja, povezana z načrtovano nacionalno platformo za generativno umetno inteligenco.
Gre za projekt, ki naj bi bil na voljo širokemu krogu uporabnikov, od posameznikov do podjetij in javnih institucij. Toda širša uporaba pomeni tudi večje tveganje, še posebej tam, kjer se v sisteme vnašajo osebni podatki ljudi.
Umetna inteligenca presega igranje z besedami
Generativna umetna inteligenca danes ni več le orodje za pisanje besedil ali ustvarjanje slik. Vstopa v resne sisteme, kot so šolstvo, zdravstvo, bančništvo in javna uprava. In prav tu se po besedah Informacijskega pooblaščenca začnejo resna vprašanja.
Če umetna inteligenca obdeluje osebne podatke, podatke zaposlenih, pacientov, dijakov ali strank, potem zanjo veljajo enaka pravila kot za vsak drug informacijski sistem. To pomeni jasno pravno podlago, omejen obseg podatkov in pregledno obdelavo.
Težava pa je, da številni komercialni sistemi generativne umetne inteligence, zlasti tisti zunaj Evropske unije, teh standardov ne zagotavljajo v celoti.
Informacijski pooblaščenec posebej opozarja na ponudnike umetne inteligence s sedežem zunaj EU. Prav zoper največje med njimi na evropski ravni že potekajo nadzorni postopki zaradi domnevnih kršitev pravil o varstvu osebnih podatkov.
Evropski odbor za varstvo podatkov je v posebnem poročilu, ki se je ukvarjalo tudi s klepetalnim robotom ChatGPT, izpostavil več sistemskih težav:
- nejasen izvor podatkov za učenje sistemov,
- težave pri uveljavljanju pravic posameznikov,
- pomanjkanje preglednosti,
- netočnost odgovorov in tako imenovane “halucinacije”.
To niso podrobnosti, ampak temeljna vprašanja zaupanja.
Zakaj v EU še ni dovolj shranjevanje podatkov?
Ena izmed zahtev razpisa za nacionalno platformo je, da se podatki hranijo znotraj EU. Toda po besedah informacijske pooblaščenke Jelene Virant Burnik to samo po sebi še ne pomeni, da je vse skladno z zakonodajo.
Če javna institucija v sistem umetne inteligence vnaša osebne podatke, mora vedeti:
- kdo ima dostop do teh podatkov,
- za kakšen namen se uporabljajo,
- koliko časa se hranijo,
- in ali jih je mogoče izbrisati.
Pri številnih komercialnih rešitvah odgovori na ta vprašanja niso jasni ali pa jih sploh ni.
Težave reguliranih sektorjev
Najbolj zadržani do uporabe nacionalne platforme bodo po ocenah Informacijskega pooblaščenca prav tisti sektorji, kjer so pravila najstrožja. to so banke, zavarovalnice, zdravstvo, šolstvo in javna uprava.
V teh okoljih so posebej problematične tri stvari:
- netočnost podatkov,
- nezmožnost popravkov,
- in odsotnost možnosti popolnega izbrisa osebnih podatkov.
Če sistem tega ne omogoča, njegova uporaba preprosto ni zakonita.
Pravice posameznika niso pogajalske
Ena ključnih točk opozorila je pravica posameznika. Vsakdo ima pravico vedeti, kaj se dogaja z njegovimi podatki. Kje so shranjeni, kdo jih obdeluje in za koliko časa.
Poleg tega ima posameznik pravico do dostopa, popravka in izbrisa podatkov. To pa je pri trenutnih modelih generativne umetne inteligence pogosto nemogoče zagotoviti.
Prenos podatkov izven EU je dopusten le, če država prejemnica zagotavlja enakovreden standard varstva – kar pa v praksi pogosto ni izpolnjeno.
Državni projekt zahteva več kot tehnično rešitev
Informacijski pooblaščenec jasno poudarja, da je pri državnih projektih takšnega obsega nujna ocena učinka na varstvo podatkov. Ne kot formalnost, ampak kot resen razmislek o posledicah za ljudi in družbo.
Uvajanje umetne inteligence brez tega pomeni tveganje ni le pravno, temveč tudi etično in družbeno.
Rok za oddajo ponudb za nacionalno platformo se je iztekel 11. decembra. Ministrstvo za visoko šolstvo, znanost in inovacije števila prijaviteljev še ne razkriva, saj to po zakonu o javnem naročanju ni dovoljeno do uradne odločitve komisije.
Preberite več:
Postopek naj bi potekal skladno z zakonodajo. A opozorilo Informacijskega pooblaščenca jasno kaže, da bo moral biti izbor več kot le tehnično in finančno vprašanje.













