Evropska komisija objavila je danas smjernice kako bi pomogla AI modelima koje je označila kao nosioce sistemskih rizika da ispune strože obaveze predviđene propisima EU o vještačkoj inteligenciji (AI Act), s ciljem da se ublaže potencijalne prijetnje.
Ova inicijativa dolazi kao odgovor na kritike određenih kompanija o regulativi i njenom administrativnom opterećenju, a istovremeno ima za cilj da pruži veću jasnoću firmama koje se suočavaju s kaznama od 7,5 miliona eura ili 1,5% prometa, pa sve do 35 miliona eura ili 7% globalnog prometa u slučaju kršenja.
Akt o vještačkoj inteligenciji, koji je usvojen prošle godine, počeće da se primjenjuje od 2. avgusta za AI modele sa sistemskim rizicima i osnovne modele, poput onih koje razvijaju Google, OpenAI, Meta Platforms, Anthropic i Mistral. Kompanije imaju rok do 2. avgusta naredne godine da se usklade s propisima.
Komisija definiše AI modele sa sistemskim rizicima kao one sa izuzetno naprednim računarskim sposobnostima koje mogu značajno uticati na javno zdravlje, bezbjednost, osnovna prava ili društvo u cjelini.
Prva grupa modela biće u obavezi da sprovodi evaluaciju modela, procjenjuje i ublažava rizike, sprovodi testiranja otporna na napade, prijavljuje ozbiljne incidente Komisiji i obezbijedi adekvatnu sajber bezbjednost protiv krađe i zloupotrebe.
Opšti AI modeli (GPAI), odnosno osnovni modeli, biće podložni zahtjevima transparentnosti – uključujući izradu tehničke dokumentacije, usvajanje politika o autorskim pravima i pružanje detaljnih sažetaka o sadržajima korišćenim za treniranje algoritama.
„Današnjim smjernicama Komisija podržava glatku i efikasnu primjenu Zakona o AI“, poručila je evropska komesarka za digitalnu tehnologiju Hena Virkunen u saopštenju.
Komentari (0)
POŠALJI KOMENTAR