Andrei Marga: Optica inteligenței artificiale

Inteligența artificială” reia ideea „l’homme maschine”, a lui La Mettrie. Acesta își asuma că omul poate fi abordat cu succes ca mașină, dar și că este posibilă o mașină care copiază omul. Prin John McCarthy (1955), „artificial intelligence” a și fost concepută ca „teorie și tehnologie a creării de mașini care învață și decid pe baza acestei învățări”. Se voiau „mașini capabile să facă abstracții, să dezvolte idei, să rezolve probleme, care au fost rezervate până acum oamenilor, și să se optimizeze pe sine”. Unul dintre creatori, Marvin Minsky, a și formulat cel mai clar optica deja în anii 1970. „În următorii doi până la opt ani vor fi mașini având inteligența unui om mijlociu. Mă gândesc la o mașină care este în stare să citească Shakespeare, să schimbe uleiul la mașină, să toarcă intrigi la birou, să relateze o glumă și să controverseze. În acest punct, mașina va începe să se formeze singură, cu viteză fantastică. După câteva luni, ea va fi atins nivelul unui geniu, iar cât de mare va fi capacitatea ei de prestare nu va mai fi de subestimat”, declara într-un interviu vestitul inventator.

Informaticienii sunt optimiști. Consacratul lor purtător de cuvânt, Martin Ford, aseamănă expansiunea „inteligenței artificiale” cu schimbările ample aduse de electricitate în viața oamenilor. El observă însă și un fapt de cotitură: pătrunderea mai adâncă în rețelele neuronale odată cu cercetarea felului în care sunt compuse și se manifestă moleculele de proteine. Preluată tehnologic, această cercetare a dus la o noua dezvoltare a „inteligenței artificiale”, ce se aplică apoi, firește, la rândul ei, în cercetări ale minții umane. Rețelele neuronale au devenit și mai informative în construcția de noi computere (Rule of the Robots: How Artificial Intelligence Will Transform Everything, Basic Books, New York, 2021). Programul DeepMind și-a adăugat Deep Learning, iar apoi, computația Cloud a dus la platforme ale Google ce permit tot mai multor oameni accesul la folosirea „inteligenței artificiale”. Martin Ford nu vede limite în ceea ce privește simularea creierului uman ca realitate biologică, dar consideră că o copiere a creierului sub toate aspectele rămâne science fiction (ediția germană, 2024, p. 17). Nu fiindcă informațiile ce se stochează sunt incomplete sau modulele software, legate de logica cunoscută, insuficiente, ci datorită complexității înseși a creierului.

Cunoașterea care conduce dezvoltarea „inteligenței artificiale” este azi ramificată. La ea participă informatica, ingineria, neurologia, fiziologia, psihologia, matematica, logica, teoria comunicării. Idealul este de a ajunge la mașini ce pot fi agenți de sine stătători în viața oamenilor. Diversificarea direcțiilor de dezvoltare este enormă. Informaticienii au, în aceste demersuri, firește, abordările lor.

Inteligența artificială” modifică adânc înțelegerea lumii, „provoacă” filosofia și schimbă cultura. Cine se pronunță asupra ei se cuvine să cunoască ceea ce se petrece înăuntrul ei. În orice caz, s-a ajuns deja în punctul în care este evident că preocupările pentru cunoașterea „inteligenței artificiale” și cele privind condiția umană sunt chemate să meargă mână în mână.

Întrebarea ce pot și ce nu pot computerele, care întruchipează acum cel mai clar „inteligența artificială”, este pusă de tot mai mulți oameni. Răspund, la rândul meu, evidențiind aici argumentele majore puse în dezbatere și rezumând perspectiva proprie.

Teoria actuală a cunoașterii nu poate să nu înceapă cu apărarea tezei autonomiei funcționale a minții umane. Ea are de partea ei multe argumente, izvorâte chiar din practica cercetării de la Galilei, la Einstein, Max Planck, Norbert Wiener. Hilary Putnam i-a adăugat „argumentul computerial”. Conform acestuia, în sistemele care au cel puţin gradul de complexitate al mașinilor capabile să dea seama de propria funcționare, care sunt „maşinile Turing”, „descrierile organizării funcţionale” sunt logic diferite de „construcţia lor structurală (fizico-chimică)” si de „descrierile modului de comportament efectiv sau potenţial” (Hilary Putnam, Mind, Language and Reality, 1975). Ceea ce înseamnă că, în cazul relației dintre creierul uman și organism, lucrurile stau cel puțin la fel. Funcționarea creierului se sustrage oricărei mecanici.

Complexitatea aceasta nu ar trebui însă să descurajeze modelările creierului uman. El însuși inovator în lingvistică, robotică și filosofie, Hilary Putnam a reluat argumentul lui Noam Chomsky după care nu este de așteptat ca „inteligența artificială” să copieze limbajul natural, dar modelarea limbajului trebuie continuată. „Multe sisteme sunt prea complexe pentru noi ca să le putem prelua, să facem predicții sau să le simulăm în detalii; dar asta nu înseamnă să spunem că nu putem să căutăm modele teoretice utile ale unor astfel de sisteme” (Hilary Putnam, Renewing Philosophy, Harvard University Press, 1992, p. 17). Operăm, de pildă, cu „științe economice”, chiar dacă nu s-a captat complexitatea economiei.

Întrebarea ce se pune în fața oricărei pretenții privind „mașinile inteligente” este „unde se află conștiința?”. John Searle a răspuns convingător: „conștiința este o caracteristică a creierului la un nivel mai înalt decât acela al neuronilor individuali” (Putting Consciousness Back in the Brain. Replic…, în volumul Neuroscience & Philosophy. Brain, Mind & Language, Columbia University Press, 2003, p.99). Procesele mentale sunt legate de procesele neuronale din creier. „Conștiința constă /…/ în procese mentale subiective, calitative, unificate ce se petrec în spațiul fizic al craniului, probabil localizate mai ales în sistemul talamocortical” (p. 114). Ea nu e transpozabilă în nici un alt loc.

Poate fi socotit creierul uman un computer? Tot John Searle a argumentat: „creierul, pe cât contează operațiile sale intrinseci, nu face procesarea informației. El este un organ biologic și procesele sale specific neurobiologice cauzează forme specific de intenționalitate. În creier, în mod intrinsec, există proceese neurobiologice și uneori ele cauzează conștientizări” (Is The Brain a Digital Computer?, 1990, în același volum, p.106). Creierul nu „procesează informații” – în fapt el prelucrează date, atâtea câte pot fi stilizate ca informații, dar datele rămân mereu ceva mai mult. Ele țin de experiențe ale acțiunilor de inserare a ființei umane în condițiile mediului vieții. Creierul permite analogia cu un computer, dar este mereu mai mult.

John Searle a acuzat o „eroare de tip homunculus (homunculus fallacy)” în modelările computaționale ale minții. Această eroare constă, tehnic vorbind, în aceea că un concept este explicat recursiv, adică prin conceptul însuși, fără a-l defini sau explica în prealabil. Ea este observabilă ușor atunci când se explică vederea umană reținând că lumina din exterior formează o imagine pe retină și ceva (sau cineva) plasat în creier controlează dacă imaginea este imagine. Asumpția este că înăuntrul creierului ar exista, metaforic vorbind, „un homunculus, adică un omuleț”, care controlează imaginile ce se derulează.

O personalitate cu bună formație în noua configurație a cunoașterii, Daniel Dennett, a formulat două argumente îndreptate contra exaltării potențialului „inteligenței artificiale”.

Primul argument este acela că „inteligența artificială” este o abordare care a luat act de faptul că strategia de cercetare reprezentată de behaviorism în psihologie, nu mai dă rezultate. Nici reprezentarea prin psihologia fiziologică a semnalelor neuronale nu le mai dă. Fiind ambele excedate de complexitatea psihicului, s-a recurs la o strategie care a ales, dintre variantele abordării cogniției, pe aceasta: cum poate un sistem să îndeplinească performanța X? Or, aceasta este o „chestiune de soluție mai curând decât una de descoperire” (Brainstorms. Philosophical Essays on Mind and Psychology, The MIT Press, 1986, p. 111). Este vorba, astfel, de o teoretizare „aprioristică”, ce ne poate duce la sesizarea de constrângeri, dar poate înșela cu privire la realitate.

Felul de a proceda „aprioristic” a fost repede îmbrățișat de „psihologia cognitivistă”, ai cărei adepți s-au entuziasmat de abordarea psihicului plecând de la modelări computeriale. Acest fel de a proceda trimite însă psihologia pe o cale ce o ține la distanță de datele empirice și antrenează patru lacune: a) componentele modelării sunt introduse miraculos; b) se ia în mod discutabil o constrângere ca mai importantă decât altele; c) se restrânge artificial designul unui subsistem; d) se restrânge convenabil performanța unui sistem (p. 112-113). „Psihologia cognitivă” își asumă că există un izomorfism între computer și creier, dar „verisimilitudinea” programului computerial nu este același lucru cu izomorfismul.

Nu mai este de mirare, observ eu, că, de pildă, ministrul educației naționale al Franței a cerut deja cu un deceniu în urmă părăsirea „psihologiei cognitive” ca bază a educației. Argumentul era că aceasta îndepărtează formarea elevilor de realitățile vieții lor.

Inteligența artificială este cea mai abstractă cercetare a posibilității inteligenței sau cunoașterii” (p. 119). Ea împarte cu filosofia interesul pentru structuri abstracte și cu psihologia interesul pentru un sistem aparte – cel al psihicului uman. În fapt, „programele inteligenței artificiale nu sunt experimente empirice, ci experimente de gândire regulate protetic prin computere” (p. 117). Nici nu este sigur că „inteligența artificială” rezolvă toate problemele pe care le întâlnește pe traseu. Oricum, ea nu-și asumă întreaga realitate.

Al doilea argument formulat de Daniel Dennett pleacă de la teorema lui Gödel: într-un sistem de axiome consistent, de pildă, al aritmeticii numerelor naturale, sunt propoziții ce nu se pot dovedi în acel sistem. Or, computerele sunt mașini bazate pe sisteme de axiome, „mașinile Turing” recurgând prin construcție la exploatarea tuturor legilor cunoscute pentru a-și atinge scopul. Dar, oricât de dezvoltată ar fi, „mașina Turing” are nevoie de ceva ce ține de creatorul ei. Nu are nici bază matematică asumpția că ea ar putea avea un scop, în înțelesul propriu al acestui termen (p. 261). „Mașina Turing” depinde de intenția designerului, iar această intenție nu se transmite ca atare mașinii.

Interpretarea cu care avem de a face din partea celor care exaltă potențialul „inteligenței artificiale” este că ea ar implica procese cognitive reale. John Searle i se opune. Teza sa este: „Operațiile creierului cauzează conștiință care are conținut semantic. Operațiile programelor sunt pur sintactice, iar sintaxa prin ea însăși nu constituie conștiință, nici nu este suficientă să genereze conștiință” (p. 62). Ca să putem vorbi legitim de prezența „conștiinței”, aceasta ar trebui „duplicată”, dar ea este numai „simulată” de computer. Nici „mașinile Turing” nu pot duplica conștiința, căci sunt prevăzute doar cu sintaxă. „Fenomenele mentale au o ontologie la persoana întâi în sensul că ele există efectiv doar când sunt experimentate de un agent uman sau animal” (p. 64). Restul sistemelor nu ajung la procese mentale.

Lui John Searle i se datorează argumentul „Camerei Chineze (Chinese Room)”: să presupunem, analog „testului Turing”, că într-o cameră este plasat un om care nu cunoaște limba chineză. Dar acesta este dotat cu un pix, o bucată de hârtie, cu date privind simbolurile limbii chineze și instrucțiunile cu privire la ceea ce poate face cu simbolurile. Vom putea observa că persoana se comportă asemenea unuia care folosește simbolurile și regulile acestora din limba chineză fără să o înțeleagă. „Întregul sistem nu are nici o cale să atașeze semantică sintaxei simbolurilor din computer” (p. 59). Persoana poate folosi simboluri, dar nu le stăpânește „semnificația”.

John Searle mai argumentează plecând de la teoria sa a „actelor de vorbire (speech acts)” și invocând unitatea propoziției. Noi formulăm propoziții în comunicare – „sentences” – pentru a performa în materie de comportament. Performativitatea este imanentă comunicării (The unity of the proposition, 2008, în Philosophy in a New Century, p. 188). Locuția presupune ilocuție. Dar și invers, ilocuția este legată de reprezentarea a ceva în lume. În orice caz, vedem totdeauna obiecte doar în relații ce ne interesează. Fundamentală în propoziție nu este, așadar, „referința (reference)”, ci „satisfacția (satisfaction)” obținută prin acțiune, iar „adevărul (truth)” este doar caz particular al „satisfacției”. Unitatea unei propoziții este dată astfel nu de altceva decât de „starea intereselor și acțiunilor noastre (state of affairs)” ce procură satisfacție (p. 193). Dar „limbajul este cel care ne permite să rupem unitatea naturală a propoziției introducând o articulare pe care forma prelingvistică nu o are” (p. 192). Posibilitatea acestei ruperi este fructificată de „inteligența artificială”.

Mai este de observat că „testul Turing” abordează inteligența conform behaviorismului: ceea ce se gândește trebuie să se vadă în comportament – al oamenilor sau al computerelor. De altfel, deja Alan Turing își asuma că un comportament exterior este un test concluziv pentru un eventual proces cognitiv ce are loc în interior. Numai că, observă John Searle, „este posibil să existe stări mentale fără a fi exprimate în comportament și este posibil să fie comportament care să nu corespundă la stări mentale” (The Turing Test: fifty-five years later, 2008, în Philosophy in a New Century, p. 55). Poate exista comportament exterior fără proces cognitiv și invers. Astfel că, putem construi mașini, dar nu le putem atribui „interior” de natură mentală.

În prelungirea acestor argumentări, decisive, după părerea mea, privind potențialul „inteligenței artificiale”, aduc aici încă două argumente, din perspectiva mea – a pragmatismului reflexiv.

Primul argument l-am formulat pe baza observării cunoașterii (vezi volumul Argumentarea, Editura Academiei Române, 2010). El pleacă de la considerentul că se pot obține, printr-o analiză, pornind de la nivelul accesibil oricărui om, trepte ale cunoașterii: judecata; propoziția folosită în comunicarea curentă dintre oameni; ansamblul de propoziții ce poate reda diferențele, divergențele, contradicțiile realității; propoziții ca parte a „actelor de vorbire”; și, desigur, „actele de vorbire” ca părți ale „jocurilor de limbaj”; delimitarea „informației”, prelucrarea acesteia și folosirea tehnicilor digitale; operarea cu „argumente” în vederea ajungerii la „înțelegere”; evaluarea argumentelor din punctul de vedere al inteligibilității expresiei, veracității vorbitorului, adevărului conținutului și justeței relației celor care comunică.

Tabloul acesta ne spune că ceea ce numim cunoaștere – inclusiv cea realizată cu ajutorul „inteligenței artificiale” – pleacă de la date factuale și este de încredere. Ea se realizează în trepte și presupune parcurgerea lor. Pierde evident acela care nu se folosește de computer. Apăr însă susținerea că, înțeleasă ca asumare a întregului condițiilor vieții umane, „gândirea” este mai sus de treptele enunțate, fără a se rupe de ele și fără a se reduce la vreuna (A. Marga, Vocația gândirii, 2024). Ca efect – cultura, luată în lărgimea și finalitatea ei la bază, „înțelegerea”, rămâne indispensabilă cunoașterii, fie ea și realizată cu „inteligența artificială”.

Al doilea argument este acela, că sub anumite aspecte, deja prin construcție și funcționare, „inteligența artificială” prestează mai puțin decât „inteligența naturală”. Și ea are un prealabil care-i condiționează rezultatele. Ea a plecat de la căutările de rezolvare a unei probleme tehnice: construirea de mașini aidoma minții umane, eventual cu capacități sporite. Ea a modelat mintea pe anumite premise logico-lingvistice. Ea a făcut loc unui concept al „informației” care asigură abordarea matematică, dar a rămas deschisă întrebarea pe cât operăm în viața curentă cu acest concept. Ea a aplicat o metodologie constând în abordarea unui obiect într-un cadru apriori, computațional. Ca urmare a acestor opțiuni, rămâne de discutat în ce măsură această metodologie duce la cunoașterea lumii trăite a vieții – realitatea inevitabilă cu care ne întâlnim și în care trăim în cursa noastră ca oameni pe pământ. (Din volumul A. Marga, Inteligența artificială și condiția umană, în pregătire)

Recomanda 10
Andrei Marga 651 Articole
Author

11 Comentarii

  1. Inca din zorii aparitiei STIINTEI in Europa, DAIMONULUI(OMUL-DZEU) Zamolxis/550 BC (elevul MATEMATICIANULUI Thales, COSMOLOGULUI Anaximandru, FILOZOFULUI si ASTRONOMULUI Pitagora) a adus rezultatele STIINTEI Astronomie pe TARAMUL nostru GETO-DACIC. La mai putin de 200 de ani de la APARITIA acestei STIINTE in lume (anul 746 BC, in Noul Babilon, pe vremea regelui Nabonassar II, cand incep notarile si interpretarile fenomenelor ceresti).
    „VII,3,5. Se spune că un get cu numele Zamolxis ar fi deprins de la acesta unele cunoştinţe astronomice, iar o altă parte ar fi deprins-o de la egipteni, căci cutreierările sale l-ar fi dus până acolo. Mai întâi, [Zamolxis] s-ar fi făcut preot al ZEULUI cel mai slăvit la ei [ZEUS/DZeus cel CERESC], iar după aceea a primit şi numele de zeu.” (Strabon/(64 BC–24 AD), Geografia).
    Deci acum 2500 de ani POPORUL nostru GETO-DACIC a avut ACCES la STIINTA (Astronomie si Cosmologie) …
    Dar tu Andrei (ca ministru al Educatiei post 1991) CE AI FACUT pentru REintroducerea Astronomiei ca obiect de studiu in scoala româneasca ? NIMIC !
    Te-ai limit la ‘propavaduirea’ unor concepte ‘filosofarde desuete’ demne de metafiza sec. XIX. Precum si la ‘propavaduirea’ unor ‘conceptii spirituale invechite’ demne de mileniul I BC si straine de taramul nostru (concepte deserice si desartice descrise de tine pe larg intr-o carte a ta).
    Si de aceea, prin INACTIVITATEA ta ca Ministru al Educatiei, NECREDINCIOSII de IERI si de ASTAZI (cei post ’89), adica cei RAMASI IN URMA in EDUCATIA si CULTURA lor … CRED ca LUMEA (ramasa geocentrica si antropomorfista la acestia) a fost FACUTA in 7 zile de catre o ‘presupusa’ entitate antropomorfa. Necredinciosi in CUNOASTEREA UMANA de tip sarlica …

  2. Asocierea cu oricine, inclusiv cu Inexistentul este prostie, nu inteligenta. Inteligenta este baza umorului, iar umorul nu poate fi clonat. In schimb, prostia este universala si potrivit lui 1stein, este infinita.

  3. Atunci când prin prisma conștienței sau conștiinței de sine afirmăm că omul există sau că este viu, în realitate afirmăm că el, (fiecare,) coexistă alături, împreună, uneori concomitent, alteori separați ca spațiu și timp cu ceilalți oameni căci nu ne putem nici măcar imagina cum ar fi putut ori ar putea arăta un om în lipsa existenței celorlalți ca părți autentice ale umanității din care el însuși împreună cu noi toți facem parte. Din acest motiv, chenoza sau „detașarea de sine” și asocierea cu umanitatea și cu/ sau cu Dumnezeu, este un act nu doar logic și/sau necesar sinelui în mod absolut spre propria-i cunoaștere și înțelegere a realităților în care trăiește ci unul obligatoriu trăirii afective și efective. Dacă trăirea nu se ridică la acest minim nivel al înțelegerii, despre un maxim al trăirii vieții ori trăirilor omenești nici nu poate fi vorba. Cum am putea vreodată discuta o temă, un subiect sau o realitate, netrăind-o niciodată, nicicând?

  4. Adam (ebraică אָדָם, arabă آدم, siriacă: ܐ ܵ ܕ ݂ ܵ ܡ) este un personaj în Cartea Genezei, Coran și Kitab-i-Íqán. Potrivit mitului creației a religiilor avraamice, el este primul om. Conform Vechiului Testament, a fost creat de către Yahweh Elohim-(„Yahweh-Dumnezeu”, Dumnezeul lui Israel) din pământ, „după chipul și asemănarea sa”, în ziua a șasea a Creației. Tatăl lui Cain, Abel și Set. Perechea lui este Eva.
    Povestea lui Adam și a Evei este literalism biblic, fiind în conflict cu concluziile științei moderne. Cea mai notabilă este contradicția bazată pe evoluția oamenilor de la o specie mai primitivă, hominizii.
    Este de asemenea în conflict cu înțelegerile geneticii umane. Dacă toți oamenii ar fi descendenții a două persoane de acum câteva mii de ani, ar trebui ca rata mutațiilor în prezent să fie foarte ridicată.
    Numele de Adam și Eva sunt folosite metaforic într-un context științific pentru a descrie cei mai recenți strămoși comuni Adam cu cromozomul Y și Eva mitocondrială. Aceștia nu au trăit în același loc și nu există niciun motiv pentru care să se creadă ca au trăit în aceeași perioadă, sau că s-au întâlnit și au format un cuplu. Un studiu recent a estimat faptul că Adam cu cromozomul Y a trăit în urmă cu 120 – 156 de mii de ani și Eva mitocondrială în urmă cu 99 – 148 de mii de ani.

  5. Clasificare științifică:

    Ordin: Primates
    Infraordin: Simiiformes
    Suprafamilie: Hominoidea
    Familie: Hominidae
    Trib: Hominini
    Gen: Homo
    Specie: H. sapiens

  6. Doar prin EDUCATIE (accesare a informatiilor anterioare) si prin STOCARE de INFORMATII NOI (ulterioare), OMUL a putut EVOLUA in timp. Genetic ramanand la fel ca acum 6 milioane de ani. Deoarece nu exista nici o gena a ‘folosirii focului’, a ‘folosirii calculatorului’ sau a ‘inventarii arcului si a bombei atomice’.

  7. PS. NICI UN OM nu poate CUNOASTE ‘totul’ (individul ca ‘unul cel unic’/fara interactiune cu ceilalti). Inteligenta umana se dezvolta doar prin interactii cu ceilalti oameni (EDUCATIA bazata pe INVATARE si SCHIMBURI de INFORMATII cu si de la CEILALTI indivizi).
    Altfel, in izolare, omul se SALBATICESTE iar !

  8. Doar CAPACITATEA de STOCARE (COLECTIVA) a INFORMATIILOR (INDIVIDUALE) si EDUCATIA (bazata pe aceste informatii anterioare ale colectivitatilor) au facut (EVOLUTIV in timp) diferenta dintre inteligenta umana si cea a animalelor.

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*


Precizare:
Ziarul Cotidianul își propune să găzduiască informații și puncte de vedere diverse și contradictorii. Publicația roagă cititorii să evite atacurile la persoană, vulgaritățile, atitudinile extremiste, antisemite, rasiste sau discriminatorii. De asemenea, invită cititorii să comenteze subiectele articolelor sau să se exprime doar pe seama aspectelor importante din viața lor si a societății, folosind un limbaj îngrijit, într-un spațiu de o dimensiune rezonabilă. Am fi de-a dreptul bucuroși ca unii comentatori să semneze cu numele lor sau cu pseudonime decente. Pentru acuratețea spațiului afectat, redacția va modera comentariile, renunțînd la cele pe care le consideră nepotrivite.