Podjetji za umetno inteligenco Anthropic in OpenAI iščeta strokovnjake za kemično orožje in eksplozive, ki bodo oblikovali varnostne omejitve njunih sistemov, poroča Euronews na podlagi objav prostih delovnih mest obeh družb.
Anthropic je na LinkedInu objavil, da išče strokovnjaka za politiko na področju kemičnega orožja in eksplozivov, ki bo preprečeval “katastrofalno zlorabo” tehnologije. Zaposleni bo oblikoval in nadzoroval varovalke, ki določajo, kako se modeli umetne inteligence odzivajo na vprašanja o kemičnem orožju in eksplozivih, ter izvajal hitre odzive ob zaznanih grožnjah. Med pogoji za prijavo je najmanj pet let izkušenj na področju obrambe pred kemičnim orožjem ali eksplozivi in poznavanje radioloških razpršilnih naprav.
OpenAI je v začetku meseca objavil iskanje raziskovalcev za ekipo Preparedness, ki spremlja “katastrofalna tveganja, povezana z najnaprednejšimi modeli umetne inteligence”. Družba išče tudi modelarja groženj, ki bo odgovoren za prepoznavanje, modeliranje in napovedovanje tveganj najnaprednejših sistemov.
Obe zaposlovanji sledita sporu med Anthropicom in ameriško vlado. Ministrstvo za obrambo (Department of War) je 24. februarja zahtevalo neomejen dostop do Anthropicovega pogovornega robota Claude, podjetje pa je to zavrnilo in vložilo tožbo, potem ko ga je Washington označil za “tveganje v dobavni verigi”. Izvršni direktor Dario Amodei je pojasnil, da pogodbe z ministrstvom ne bi smele vključevati uporabe sistema za množični nadzor prebivalstva ali vgradnjo v povsem avtonomne orožne sisteme, navaja Euronews. OpenAI je kmalu zatem z istim ministrstvom podpisal pogodbo o uporabi svoje tehnologije v tajnih okoljih, a je po lastnih navedbah postavil stroge omejitve, vključno s prepovedjo množičnega nadzora in avtonomnega orožja.














En odgovor
To je dokaz, kako resni so varnostni izzivi v dobi umetne inteligence.