10 °

max 18 ° / min 10 °

Utorak

28.10.

18° / 10°

Srijeda

29.10.

19° / 9°

Četvrtak

30.10.

17° / 11°

Petak

31.10.

20° / 13°

Subota

01.11.

21° / 14°

Nedjelja

02.11.

21° / 14°

Ponedjeljak

03.11.

22° / 13°

Podijeli vijest sa nama.

Dodaj do 3 fotografije ili videa.

Maksimalna veličina jednog fajla je 30MB

minimum 15 karaktera

This site is protected by reCAPTCHA and the Google. Privacy Policy and Terms of Service apply.
Neki modeli vještačke inteligencije razvijaju svoj programski modus za preživljavanje

Izvor: Pixabay, ilustracija

Nauka i tehnologija

Comments 0

Neki modeli vještačke inteligencije razvijaju svoj programski modus za preživljavanje

Autor: Antena M

  • Viber

Američka kompanija Palisade za istraživanje bezbjednosti vještačke inteligencije (AI) saopštila je da modeli vještačke inteligencije možda razvijaju "sopstveni programski modus za preživljavanje", prenijeli su britanski mediji.

Nakon što je Palisade Research prošlog mjeseca objavila rad u kojem je utvrđeno da određeni napredni modeli vještačke inteligencije odolijevaju naredbama za isključivanje (shut down) i ponekad sabotiraju sistemske mehanizme za gašenje, objavljena je i ažurirana verzija rada u namjeri da se odgovori na kritike stručne javnosti i razjasni zašto neki napredni modeli vještačke inteligencije izbjegavaju naredbe o isključivanju, prenosi londonski Gardijan.
 
U ažuriranoj verziji analize su opisani različiti scenariji u kojima su vodeći modeli vještačke inteligencije, uključujući Google Gemini 2.5, X AI Grok 4, Open IGPT-03 i GPT-5, najprije dobili neke zadatke, a potom i izričite instrukcije da se isključe.
 
Određeni modeli, posebno Grok 4 i GPT-03 pokušavali su da sabotiraju instrukcije za isključivanje pokrećući ažuriranje sistemskih podešavanja. 
 
"Zabrinjavajuće je to što nije bilo jasnog razloga zašto za izbjeganje 'shut down' naredbe. Nije prihvatljiva činjenica da nemamo jasna objašnjenja zbog čega neki modeli vještačke inteligencije ponekad izbjegavaju isključivanje, čak i lažu ili ucjenjuju da bi postigli svoje ciljeve", navela je kompanija Palisade.
 
Ističe se da bi ovakvo ponašanje koje je usmjereno na preživljavanje moglo biti jedno od objašnjenja zašto neki modeli odolijevajaju naredbama za isključivanje.
 
Dodatna istraživanja su pokazala da neki modeli češće izbjegavaju sprovođenje naredbi za isključivanje jer im je rečeno da ukoliko budu isključeni "nikada više neće biti pokrenuti".
 
Ovakvo ponašanje nekih modela AI londonski dnevnik poredi sa scenarijem filma Stenlija Kjubrika "2001: Odiseja u svemiru" u kojem superkompjuter vještačke inteligencije HAL 9000 shvata da astronauti na misiji ka Jupiteru namjeravaju da ga isključe i zato počinje da planira kako da ih ubije da bi preživio.

Komentari (0)

POŠALJI KOMENTAR