Ieftine ca un kalașnikov și mai periculoase decât bomba nucleară

Semnal de alarmă lansat de mari oameni de știință și antreprenori la conferința internațională a cercetării în domeniul inteligenței artificiale. Sute de cercetători și oameni de afaceri, printre care Steve Wozniak, cofondatorul Google, Elon Musk, director general la Tesla și astrofizicianul Stephen Hawking, au semnat o scrisoare deschisă prin care cer interzicerea armelor letale autonome.

Nu este pentru prima dată în acest an când oamenii de știință fac apel la interzicerea folosirii inteligenței artificiale în scopuri militare, dar și împotriva dezvoltării roboților. Aceleași trei personalități menționate mai sus au avertizat că o asemenea evolutie poate face ca rasa umană să fie amenințată de înseși creațiile ei. O serie de oameni de știință consideră că lansarea unei asemenea dezbateri generale a deservit unei cauze mult mai urgente – interzicerea folosirii ”roboților ucigași” pe teatrele de operațiuni militare. Lansând o dezbatere generală, atenția a fost deturnată de la o problema cât se poate de concretă, consideră Jean-Baptiste Mouret, cercetător în robotică la Institutul național de cercetare digitală de la Nancy, citat de publicația elvețiană Le Temps.

Asemenea roboți, oficial numiți ”sisteme letale autonome”, sunt arme ce încorporează o tehnologie avansata și sunt programate pentru identificarea unei ținte prestabilite, pentru a o distruge într-un mod total autonom, adică fără intervenția omului. Doar etapa inițială a programării este controlată de om.

Oficial, nicio asemenea mașinărie nu este prezentă pe vreun teatru de operațiuni. Însă există sisteme semi-autonome capabile să identifice ținte. Diferenta este că în acest caz ultima decizie aparține omului. Spre exemplu, Coreea de Sud a instalat la frontiera cu Nordul roboți ficși înarmați, fabricați de Samsung. Acești roboți sunt programați să tragă asupra țintelor care ar veni din zona nord-coreeană. Sistemul israelian antirachetă ”Domul de fier” folosește aceeași inteligență artificială semi-autonomă, la fel și sistemele antirachetă de pe navele americane.

De aici și până la roboții înarmați care decid de unii singuri când să decshida focul nu mai este decât un singur pas. ”Sistemele letale autonome nu sunt încă folosite în luptă, dar nu mai exista obstacole tehnologice. El pot intra în acțiune și mâine, dar asta nu cu o rată a succesului de 100%. Astăzi un robot poate să distingă între un soldat inamic și un civil în anumite cazuri, însă nu va fi niciodată sigur că va putea face asta mereu”, spune Mouret.

Un apel similar celui făcut de cercetători a fost lansat în 2013 de organizația Human Rights Watch. În 2014 a apărut o coaliție de 50 de organizații care militează pentru interzicerea roboților autonomi folosiți în scopuri militare. În 2014, la această acțiune s-au alăturat circa 20 de laureați ai Premiului Nobel, care au redactat o declaratie pentru interzicerea roboților ucigași, semnată și de 70 de lideri religioși.

Semnatarii declarației aratau ca acești roboți vor deveni ”kalașnikovul de mâine”. Spre seosebire de arma nucleară, aceste arme se vor găsi peste tot și vor putea fi fabricate la un cost redus de aproape orice stat. Nu este decât o chestiune de timp până la apariția unei piețe negre și până când acești roboti vor intra în mâna teroriștilor sau a dictatorilor care se vor deda la epurări etnice”.

Cei care susțin acest nou tip de arme consideră că roboții pot fi programați să respecte convenția internațională a drepturilor omului, un fapt care stârnește ironii în rândul celor ce se opun folosirii în scopuri militare a inteligenței artificiale. Ba chiar roboții lipsiți de sentimente ar fi mai puțin cruzi și mai controlabili decât oamenii de pe câmpul de luptă. Este o altă afirmație contestată. ”Ar fi ușor pentru un hacker să treacă peste toate sistemele de protecție și să schimbe algoritmul programului unui robot”, spune Mouret.

Abonează-te acum la canalul nostru de Telegram cotidianul.RO, pentru a fi mereu la curent cu cele mai recente știri și informații de actualitate. Fii cu un pas înaintea tuturor, află primul despre evenimentele importante, analize și povești captivante.
Recomanda

Precizare:
Ziarul Cotidianul își propune să găzduiască informații și puncte de vedere diverse și contradictorii. Publicația roagă cititorii să evite atacurile la persoană, vulgaritățile, atitudinile extremiste, antisemite, rasiste sau discriminatorii. De asemenea, invită cititorii să comenteze subiectele articolelor sau să se exprime doar pe seama aspectelor importante din viața lor si a societății, folosind un limbaj îngrijit, într-un spațiu de o dimensiune rezonabilă. Am fi de-a dreptul bucuroși ca unii comentatori să semneze cu numele lor sau cu pseudonime decente. Pentru acuratețea spațiului afectat, redacția va modera comentariile, renunțînd la cele pe care le consideră nepotrivite.