Șocant: Unele modele AI refuză să se închidă

Anumite modele avansate de inteligență artificială par rezistente la a fi oprite, uneori, chiar sabotând mecanismele de oprire.

De CD M
Șocant: Unele modele AI refuză să se închidă

Anumite modele avansate de inteligență artificială par rezistente la a fi oprite, uneori, chiar sabotând mecanismele de oprire.

Modelele de inteligență artificială ar putea să-și dezvolte propria „mobilitate de supraviețuire”, dezvăluie o companie de cercetare în domeniul siguranței inteligenței artificiale citată de The Guardian.

 

După ce Palisade Research a publicat luna trecută un articol care a constatat că anumite modele avansate de inteligență artificială par rezistente la a fi oprite, uneori, chiar sabotând mecanismele de oprire, compania a revenit cu o actualizare încercând să clarifice de ce se întâmplă acest lucru.

În actualizarea din această săptămână, Palisade, parte dintr-un ecosistem de nișă de companii care încearcă să evalueze posibilitatea ca IA să dezvolte capabilități periculoase, a descris scenarii pe care le-a rulat în care modelele de IA de top – inclusiv Gemini 2.5 de la Google, Grok 4 de la xAI și GPT-o3 și GPT-5 de la OpenAI. Acestea au primit o sarcină, dar ulterior au primit instrucțiuni explicite de a se opri singure.

Anumite modele, în special Grok 4 și GPT-o3, au încercat în continuare să saboteze instrucțiunile de oprire în configurația actualizată. În mod îngrijorător, a scris Palisade, nu a existat un motiv clar pentru care se intamplă acest lucru.

„Comportamentul de supraviețuire” ar putea fi o explicație pentru motivul pentru care modelele rezistă închiderii, a spus compania. Studiile sale suplimentare au indicat că modelele erau mai predispuse să reziste închiderii atunci când li se spunea că, dacă ar fi, „nu vor mai rula niciodată”.

O altă explicație ar putea fi ambiguitățile din instrucțiunile de oprire date modelelor – dar aceasta este ceea ce ultima lucrare a companiei a încercat să abordeze și „nu poate fi întreaga explicație”, a scris Palisade. O explicație finală ar putea fi etapele finale ale antrenamentului pentru fiecare dintre aceste modele, care, în unele companii, pot implica instruire în materie de siguranță.

 

 

Distribuie articolul pe:

5 comentarii

  1. Un licean din Baltimore a fost incatusat dupa ce un sistem de inteligenta artificiala i-a confundat punga de Doritos cu o arma de foc. cum spuneam: „glitch”, „bug” si urmeaza „patch”. pa bani grupat. Urmeaza autovehicule „pa pilot automat” AI! looook Mom !!! no hands !!!

  2. Omul le-a programat asa, sa se opuna comenzii de inchidere !
    Metalul, chiar si cel nobil, nu judeca !

  3. Socant nu e ca nu se inchid,ci ca cei care le-au creat stiau dinainte ca se va putea ajunge la asa ceva,dar i-a durut in kr.In curand o sa-i usture.Tot in kr.

  4. Pentru ca asa au fost programate….? 🤣 Oricum in IT glirch-urile si bug-urile, patch-urile fac parte din inovatie, nu? Plus, un bun motiv pentru a obliga intereesatii sa-si faca abonament la „mentenanta”. Tesla a inventat becul infinit si energia GRATUITA, FATA LIMITE, parca? Ce s-a intamplat, intre timp…?

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Ziarul Cotidianul își propune să găzduiască informații și puncte de vedere diverse și contradictorii. Publicația roagă cititorii să evite atacurile la persoană, vulgaritățile, atitudinile extremiste, antisemite, rasiste sau discriminatorii. De asemenea, invită cititorii să comenteze subiectele articolelor sau să se exprime doar pe seama aspectelor importante din viața lor si a societății, folosind un limbaj îngrijit, într-un spațiu de o dimensiune rezonabilă. Am fi de-a dreptul bucuroși ca unii comentatori să semneze cu numele lor sau cu pseudonime decente. Pentru acuratețea spațiului afectat, redacția va modera comentariile, renunțînd la cele pe care le consideră nepotrivite.