INTERVIU Marile pericole aduse de AI în școli. Ce sunt „halucinațiile” digitale

„Studii arată că chatboții pot prelua date eronate din întrebările utilizatorilor și apoi le pot repeta ca pe adevăruri”

INTERVIU Marile pericole aduse de AI în școli. Ce sunt „halucinațiile” digitale

Tudor Galoș FOTO Facebook Tudor Galos

„Studii arată că chatboții pot prelua date eronate din întrebările utilizatorilor și apoi le pot repeta ca pe adevăruri”

Ministerul Educației pregătește un ghid pentru folosirea aplicațiilor AI pentru elevii de liceu. Între timp, mai multe școli publice au demarat ore opționale și cursuri despre inteligența artificială ținute de specialiști. Reprezentanții Ministerului Educației spun că, în câteva săptămâni, va fi elaborat un set de instrucțiuni pentru profesori, cu rol de alfabetizare în folosirea inteligenței artificiale.

În câteva luni ar urma ca ghidul să fie dezvoltat într-un program mai amplu care să fie implementat în toate școlile. De asemenea, Comisia Europeană a anunțat că va emite un manual de AI pentru nivelul primar și gimnazial. De asemenea, evaluarea PISA din 2029 privind Alfabetizarea Media și în Inteligență Artificială (MAIL) va evidenția dacă elevii au avut oportunități să învețe și să se implice în mod proactiv și critic într-o lume în care producția, participarea și rețelele sociale sunt din ce în ce mai mult mediate de instrumente digitale și de inteligență artificială.

Cotidianul.ro l-a contactat pe Tudor Galoș, consultant în AI Governance și protecția datelor personale, pentru a analiza provocările aplicării acestui program.

 Competențele profesorilor români și aplicarea conceptelor AI

Prima problemă care se pune este legată de profesorii care ar putea fi responsabili de predarea noilor module despre AI. Încă sunt probleme cu tabla digitală, folosirea platformelor de educație sau alte lucruri mai simplu de implementat.

„Deși mulți profesori se confruntă încă cu utilizarea tablei digitale sau platformelor educaționale, programele pilot sunt concepute non-tehnic – nu necesită cunoștințe avansate de informatică. Astfel, noile cursuri pot fi predate de cadre didactice cu deschidere spre tehnologie, nu neapărat de specialiști, după o pregătire de bază.

Cei mai deschiși însă vor fi clar profesorii de informatică, matematică, fizică. Disciplinele tehnice abordează în mod firesc fundamentele algoritmilor, statisticii sau modelării – materii esențiale în IA. De exemplu, un profesor de informatică poate integra noțiuni de algoritmi și aplicații AI în cadrul orei de programare. Implementările actuale confirmă că, printr-un minim de training, chiar și un profesor de matematică sau fizică pasionat de tehnologie poate preda un modul despre IA.”, spune Tudor Galoș.

Citește și: Creșterea normei didactice. Ministerul Educației spune că nu există discuții

AI nu înseamnă doar partea tehnică a experienței de utilizator. Majoritatea companiilor încearcă acum să descurajeze funcții care țin de sfaturi personale, gestionarea stării de spirit.

„Cred că trebuie să ne uităm cu atenție și la profesorii umaniști și interdisciplinari: Pentru latura etică și socială a IA, pot fi implicați profesori de filozofie, civică, limbi moderne sau științe sociale. Aceștia pot modera dezbateri despre impactul AI în societate, educație și economie, dezvoltând spirit critic la elevi. UNESCO recomandă ca profesorii să aibă o „mentalitate centrată pe om” și să înțeleagă etica AI, competențe care rezonează cu materia de filozofie sau educație civică. Strategia românească de IA prevede crearea de module opționale pentru liceele socio-umane prin colaborare cu universități și companii, ceea ce înseamnă că și profesori de științe socio-umane ar putea contribui la predarea unor concepte de alfabetizare în IA (de exemplu, consecințe etice ale AI, reglementări, utilizare responsabilă)”, explică specialistul.

Cine va antrena cadrele didactice pentru aceste cursuri?

Ce înseamnă, concret, „alfabetizare în AI” pentru un profesor? Cum va fi evaluată această competență? Cine plătește pentru training, specialiști, ministerul reduce cheltuielile și comasează activitatea școlilor acum. La un liceu din capitală este relativ simplu, dar ce facem în liceele mici?

„Este important să înțelegem că nu avem de ce reinventa roata, este destul să ne uităm la ce s-a mai făcut deja prin alte țări. De exemplu, în Statele Unite numeroase școli includ deja lecții de alfabetizare AI în clasele de informatică și tehnologie digitală. Un district din New Jersey a introdus încă din 2023 predarea AI în clasele de computer applications (informatica de gimnaziu), unde profesorii de acest profil le explică elevilor cum funcționează și cum se folosește responsabil AI.

În Uniunea Europeană s-au lansat ghiduri etice și de bune practici dedicate profesorilor de nivel primar și gimnazial, inclusiv celor fără experiență anterioară cu AI. Recent, Comisia Europeană a anunțat chiar elaborarea unui manual de IA pentru școli primare și gimnaziale, subliniind rolul principal al cadrelor didactice în implementarea AI în educație.

Citește și: Chișinăul cere Tiraspolului să oprească presiunile asupra școlilor românești

În plus, unele țări europene experimentează pilot implementări: Italia, de pildă, a demarat programe în licee din mai multe regiuni pentru a testa integrarea platformelor AI în predare. Coreea de Sud reprezintă un exemplu de investiție masivă în formarea profesorilor pe tema digitalizării și inteligenței artificiale. Guvernul sud-coreean și-a propus ca până în 2026 toți profesorii să fie pregătiți în utilizarea tehnologiei digitale pentru inovație în clasă.

În acest scop, a fost alocat un buget de circa 0,74 miliarde de dolari (perioada 2024–2026) pentru trainingul cadrelor didactice în utilizarea AI și dezvoltarea unor manuale digitale avansate. Astfel, și acolo profesorii de informatică, matematică și științe primesc cursuri intensive de perfecționare pentru a preda module AI.”

Reguli de bază: ce să spui și ce să nu spui unui sistem AI

Ce reguli fundamentale ar trebui să învețe elevii despre interacțiunea cu AI? Sunt popularizate deja avertismente privind datele personale, despre sănătate sau parole sensibile.

„Aș începe cu protecția intimității – nu trebuie furnizate chatboților informații sensibile. Un raport recent atrage atenția că unelte AI colectează cantități mari de date sensibile despre utilizatori (de la dosare de sănătate la coduri de securitate) ce apoi pot fi folosite în mod abuziv.

Prin urmare, elevii trebuie învățați să nu bage informații private în interfața AI și să știe că orice date semnificative pe care le dau pot fi procesate de sisteme AI, deci trebuie tratate cu prudență. De asemenea nu trebuie date numere de cont sau coduri de card sau informații despre tratamente medicale personale. În general, AI-ul trebuie tratat ca orice serviciu online – nu furnizați nimic ce ați fi reticent să transmiteți prin alte canale.”

Unele companii sunt blamate pentru că chatbotul lor ar promova xenofobia sau rasismul, cel mai celebru exemplul fiind „Grok” dezvoltat de compania lui Elon Musk.

Citește și: Ce facultate merită să faci în ziua de azi? Top joburi bine plătite și de viitor

„Modelele AI învață din internet și pot reproduce stereotipuri ori chiar limbaj ofensator. Un exemplu recent: Grok – un chatbot dezvoltat de compania lui Elon Musk – a generat mesaje antisemite, spunând că Adolf Hitler ar „rezolva problema” pentru presupuse atacuri împotriva persoanelor albe.

În același timp, un studiu MIT a arătat că GPT-4 a răspuns cu mai puțină empatie (cu 2–17% mai puțin) la mesaje de la utilizatori negri sau asiatici, comparativ cu cei albi. Aceste cazuri ne învață că AI-ul poate deveni uneori xenofob sau rasist. Elevii trebuie să fie conștienți de astfel de discriminări ascunse în AI: orice răspuns care conține ură, stereotipuri rasiale sau limbaj ofensator trebuie privit critic şi, ideal, raportat profesorului sau blocat. Elevii trebuie să învețe să se gândească: De ce a generat AI asta? S-ar putea să fie un mesaj greșit, deci să nu-l luăm ca adevăr.”

„Uneltele AI pot fi ușor induse în eroare de detalii medicale false şi «umplu golurile » cu explicații inventate”

Cel mai mare pericol este legat de folosirea chatbot-urilor pentru a depăși momente dificile legate de socializarea cu colegii, relația cu părinții sau problemele tipice perioadei adolescenței.

„Sunt îngrijorat de cât de des sunt folosite modelele large language models, precum ChatGPT, pentru sfaturi medicale și psihologice. AI-ul nu este doctor și poate greși. Dacă întrebați un chatbot despre sănătate, nu luați răspunsurile ca pe verdicte finale. Studii recente arată că uneltele AI pot fi ușor induse în eroare de detalii medicale false şi „umplu golurile” cu explicații inventate. De exemplu, cercetătorii au arătat că un chatbot a fost alimentat cu o boală inventată și a oferit cu încredere explicații detaliate despre ea, deși boala nu exista.

Că tot vorbeam de greșeli, AI-ul nu e infailibil și uneori inventează informații (așa-numitele „halucinații” ale AI). Un chatbot nu înțelege lumea ca un om, ci doar combină datele cunoscute.

Citește și: Luciana Antonici, consilier al premierului, desființează programa la limba română pentru clasa a IX-a

În consecință, poate răspunde greșit chiar și la întrebări simple. De exemplu, studii arată că chatboții pot prelua date eronate din întrebările utilizatorilor și apoi le pot repeta ca pe adevăruri. Dacă întrebi un AI despre un fapt real care s-a schimbat recent, el poate să nu știe (modelele au de obicei „cutoff date” după care nu sunt actualizate) și va „ghici” ceva din vechiul set de date. ”

Elevii nu vor putea să folosească noile cunoștințe pentru teme

Cotidianul.ro a relatat despre cum arată viitorul în ceea ce privește partenerul ideal de studiu pentru elevi. Chatboturile clasice nu se încadrează în această categorie ba chiar pot genera răspunsuri care, la verificarea sursei, să fie considerate plagiat sau un material care nu este original.

„Aș sublinia și că elevii sunt responsabili pentru ceea ce produc cu ajutorul AI-ului. Doar pentru că un algoritm a generat un eseu sau o soluție, nu înseamnă că nu mai este furt intelectual dacă nu citează sursa. Ghidurile de bune practici subliniază că „elevii sunt responsabili pentru tot conținutul pe care îl generează” și trebuie să fie transparenți cu profesorii despre folosirea AI. Cu alte cuvinte, elevii nu pot folosi AI pentru a trișa la teme sau teste, prezentând ca fiind munca lor”, a concluzionat Tudor Galoș.

Distribuie articolul pe:

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Ziarul Cotidianul își propune să găzduiască informații și puncte de vedere diverse și contradictorii. Publicația roagă cititorii să evite atacurile la persoană, vulgaritățile, atitudinile extremiste, antisemite, rasiste sau discriminatorii. De asemenea, invită cititorii să comenteze subiectele articolelor sau să se exprime doar pe seama aspectelor importante din viața lor si a societății, folosind un limbaj îngrijit, într-un spațiu de o dimensiune rezonabilă. Am fi de-a dreptul bucuroși ca unii comentatori să semneze cu numele lor sau cu pseudonime decente. Pentru acuratețea spațiului afectat, redacția va modera comentariile, renunțînd la cele pe care le consideră nepotrivite.