Ameriško podjetje Anthropic je prejšnji teden omejilo izdajo svojega najnovejšega modela umetne inteligence Mythos na ozek krog partnerjev, potem ko je model pri odkrivanju in izkoriščanju kibernetskih ranljivosti presegel vse, razen najboljših človeških strokovnjakov. Dostop je najprej dobilo 12 tehnoloških podjetij s sedežem v ZDA, med njimi Apple, Microsoft in Amazon, ter dodatnih 40 neimenovanih organizacij. Anthropic je obenem potrdil, da potekajo pogovori z ameriško vlado.
Evropski regulatorji so pri tem ostali ob strani. Kot poroča Politico, so uradniki osmih nacionalnih kibernetskih agencij v EU potrdili, da nimajo dostopa do modela. Samo nemška agencija BSI je potrdila, da je v stiku z Anthropicom, a modela še ni testirala. Britanski inštitut za varnost umetne inteligence je Mythos že preizkusil in v ponedeljek objavil oceno. Predstojnica nemškega BSI Claudia Plattner je za Politico opozorila, da je vprašanje, ali bodo tako zmogljiva orodja nekoč prosto dostopna na trgu, neposredno povezano z nacionalno in evropsko varnostjo.
Yoshua Bengio, eden od treh utemeljiteljev globokega učenja z montrealske univerze, je za Politico ocenil, da je “globoko zaskrbljujoče”, da o ravnanju s tveganji odločajo podjetja in ne regulatorji. Po oceni Daniela Privitere iz berlinskega inštituta KIRA Evropa trenutno nima načrta, kako si zagotoviti dostop do najzmogljivejših modelov umetne inteligence. Nekdanja evroposlanka Marietje Schaake, ki je sooblikovala evropski kodeks za razvijalce najnaprednejših modelov, opozarja, da upravljanje modelov s tako daljnosežnim vplivom s strani zasebnih podjetij odpira resna vprašanja o nadzoru.
Evropska komisija je sporočila, da ocenjuje morebitne posledice z vidika zakonodaje EU. Anthropicov model bi ob morebitni izdaji na trg padel pod določbe evropskega zakona o umetni inteligenci in akta o kibernetski odpornosti, ki nalagata obvezno obravnavo kibernetskih tveganj. A dokler model ni na trgu, je nadzor EU omejen. Kot je za Politico opozorila neodvisna raziskovalka Laura Caroli, ki je sodelovala pri pripravi zakona o umetni inteligenci, se ob tem zastavlja vprašanje, kaj bi se zgodilo, če bi namesto Anthropica enak model razvil kitajski DeepSeek.














En odgovor
Najprej odkriva kibernetske ranljivosti, sčasoma pa bo to izkoristil in se obrnil proti nam.