Modelele de inteligență artificială ar putea să-și dezvolte propria „mobilitate de supraviețuire”, dezvăluie o companie de cercetare în domeniul siguranței inteligenței artificiale citată de The Guardian.
După ce Palisade Research a publicat luna trecută un articol care a constatat că anumite modele avansate de inteligență artificială par rezistente la a fi oprite, uneori, chiar sabotând mecanismele de oprire, compania a revenit cu o actualizare încercând să clarifice de ce se întâmplă acest lucru.
În actualizarea din această săptămână, Palisade, parte dintr-un ecosistem de nișă de companii care încearcă să evalueze posibilitatea ca IA să dezvolte capabilități periculoase, a descris scenarii pe care le-a rulat în care modelele de IA de top – inclusiv Gemini 2.5 de la Google, Grok 4 de la xAI și GPT-o3 și GPT-5 de la OpenAI. Acestea au primit o sarcină, dar ulterior au primit instrucțiuni explicite de a se opri singure.
Anumite modele, în special Grok 4 și GPT-o3, au încercat în continuare să saboteze instrucțiunile de oprire în configurația actualizată. În mod îngrijorător, a scris Palisade, nu a existat un motiv clar pentru care se intamplă acest lucru.
„Comportamentul de supraviețuire” ar putea fi o explicație pentru motivul pentru care modelele rezistă închiderii, a spus compania. Studiile sale suplimentare au indicat că modelele erau mai predispuse să reziste închiderii atunci când li se spunea că, dacă ar fi, „nu vor mai rula niciodată”.
O altă explicație ar putea fi ambiguitățile din instrucțiunile de oprire date modelelor – dar aceasta este ceea ce ultima lucrare a companiei a încercat să abordeze și „nu poate fi întreaga explicație”, a scris Palisade. O explicație finală ar putea fi etapele finale ale antrenamentului pentru fiecare dintre aceste modele, care, în unele companii, pot implica instruire în materie de siguranță.
					
                      
                      
                      
                      
                      
                      
					
			
			
			
			
			
			
			
			
			
			
			
			
			
			
			
			
			
Un licean din Baltimore a fost incatusat dupa ce un sistem de inteligenta artificiala i-a confundat punga de Doritos cu o arma de foc. cum spuneam: „glitch”, „bug” si urmeaza „patch”. pa bani grupat. Urmeaza autovehicule „pa pilot automat” AI! looook Mom !!! no hands !!!
Nu suntem departe de acel film cand roboti au preluat agresiv controlul socetatii !
Omul le-a programat asa, sa se opuna comenzii de inchidere !
Metalul, chiar si cel nobil, nu judeca !
Socant nu e ca nu se inchid,ci ca cei care le-au creat stiau dinainte ca se va putea ajunge la asa ceva,dar i-a durut in kr.In curand o sa-i usture.Tot in kr.
Pentru ca asa au fost programate….? 🤣 Oricum in IT glirch-urile si bug-urile, patch-urile fac parte din inovatie, nu? Plus, un bun motiv pentru a obliga intereesatii sa-si faca abonament la „mentenanta”. Tesla a inventat becul infinit si energia GRATUITA, FATA LIMITE, parca? Ce s-a intamplat, intre timp…?