O investigație realizată de The Guardian a descoperit că oamenii ar fi expuși riscului de a suferi prejudicii din cauza informațiilor „false și înșelătoare” despre sănătate din rezumatele generate de Google AI.
Google a declarat că rezumatele sale AI, care utilizează inteligența artificială generativă pentru a oferi instantanee cu informații esențiale despre un subiect sau o întrebare, sunt „utile” și „fiabile”.
Însă unele dintre rezumate, care apar în partea de sus a rezultatelor căutării, furnizau informații inexacte despre sănătate și expuneau oamenii la riscuri, susțin jurnaliștii The Guardian.
Exemplele date de The Guardian privind răspunsurile Google AI care ar putea fi eronate
Într-un caz pe care experții l-au descris ca fiind „foarte periculos”, Google a sfătuit în mod eronat persoanele cu cancer pancreatic să evite alimentele bogate în grăsimi. Experții au afirmat că acest lucru era exact opusul a ceea ce ar fi trebuit recomandat și că poate crește riscul de deces al pacienților din cauza acestei boli.
Într-un alt exemplu „alarmant”, compania a furnizat informații false despre teste cruciale ale funcției hepatice, ceea ce ar putea determina persoanele cu boli hepatice grave să creadă în mod eronat că sunt sănătoase.
Căutările pe Google pentru răspunsuri despre testele de cancer la femei au furnizat, de asemenea, informații „complet eronate”, care, potrivit experților, ar putea determina oamenii să ignore simptomele reale.
Un purtător de cuvânt al Google a declarat că multe dintre exemplele legate de sănătate care le-au fost comunicate erau „capturi de ecran incomplete”, dar, din ceea ce au putut evalua, acestea erau legate „de surse cunoscute și de încredere și recomandau solicitarea sfatului unui expert”.
The Guardian a descoperit mai multe cazuri de informații medicale inexacte în prezentările generale ale AI Google, după ce o serie de grupuri medicale, organizații caritabile și profesioniști și-au exprimat îngrijorarea.
Sfaturile pentru cancerul pancreatic, incorecte, spun specialiștii consultați de The Guardian
Anna Jewell, directoarea Departamentului de Asistență, Cercetare și Influențare la Pancreatic Cancer UK, a declarat că sfatul dat pacienților de a evita alimentele bogate în grăsimi este „complet incorect”. Ea a adăugat că acest lucru „ar putea fi foarte periculos și ar putea pune în pericol șansele unei persoane de a fi suficient de sănătoasă pentru a urma tratamentul”.
Jewell a declarat: „Răspunsul AI Google sugerează că persoanele cu cancer pancreatic ar trebui să evite alimentele bogate în grăsimi și oferă o listă de exemple. Cu toate acestea, dacă cineva ar urma sfaturile din rezultatul căutării, ar putea să nu consume suficiente calorii, să aibă dificultăți în a se îngrășa și să nu poată tolera nici chimioterapia, nici operația care i-ar putea salva viața.”
Tastarea „care este intervalul normal pentru testele de sânge ale ficatului” a furnizat, de asemenea, informații înșelătoare, cu o mulțime de cifre, puțin context și fără a ține cont de naționalitatea, sexul, etnia sau vârsta pacienților.
Pamela Healy, directorul executiv al British Liver Trust, a declarat că rezumatele AI sunt alarmante. „Multe persoane cu boli hepatice nu prezintă simptome până în stadiile avansate, de aceea este atât de important să se testeze. Dar ceea ce AI Overviews de la Google consideră „normal” poate diferi drastic de ceea ce este considerat normal în realitate.
„O căutare Google AI pentru „simptome și teste pentru cancerul vaginal” a afișat testul Papanicolau ca test pentru cancerul vaginal, ceea ce este incorect”
Athena Lamnisos, directoarea executivă a organizației caritabile Eve Appeal, specializată în cancer, a declarat: „Nu este un test pentru detectarea cancerului și cu siguranță nu este un test pentru detectarea cancerului vaginal – aceasta este o informație complet eronată. Obținerea unor informații eronate de acest fel ar putea duce la situația în care o persoană să nu își verifice simptomele cancerului vaginal, deoarece a avut un rezultat clar la un screening cervical recent.
„Ne-a îngrijorat și faptul că rezumatul AI s-a schimbat când am efectuat exact aceeași căutare, oferind de fiecare dată un răspuns diferit, extras din surse diferite. Asta înseamnă că oamenii primesc un răspuns diferit în funcție de momentul în care efectuează căutarea, iar acest lucru nu este suficient.”
Lamnisos a spus că este extrem de îngrijorată. „Unele dintre rezultatele pe care le-am văzut sunt cu adevărat îngrijorătoare și pot pune femeile în pericol”, a spus ea.
„Google AI Overviews a furnizat rezultate înșelătoare pentru căutările referitoare la afecțiuni de sănătate mintală”
The Guardian a descoperit, de asemenea, că Google AI Overviews a furnizat rezultate înșelătoare pentru căutările referitoare la afecțiuni de sănătate mintală. „Aceasta este o preocupare majoră pentru noi, ca organizație caritabilă”, a spus Stephen Buckley, șeful departamentului de informații al Mind.
Unele dintre rezumatele AI pentru afecțiuni precum psihoza și tulburările alimentare ofereau „sfaturi foarte periculoase” și erau „incorecte, dăunătoare sau puteau determina oamenii să evite să caute ajutor”, a spus Buckley.
Unii au omis, de asemenea, contexte sau nuanțe importante, a adăugat el. „Acestea pot sugera accesarea informațiilor de pe site-uri care sunt inadecvate… și știm că, atunci când IA rezumă informațiile, aceasta poate reflecta adesea prejudecăți, stereotipuri sau narațiuni stigmatizante existente.”
Reacția Google la investigația The Guardian
Google a declarat că marea majoritate a rezumatelor sale AI sunt factuale și utile și că îmbunătățește continuu calitatea acestora. Rata de acuratețe a rezumatelor AI este comparabilă cu cea a altor funcții de căutare, cum ar fi fragmentele recomandate, care există de mai bine de un deceniu, a adăugat compania.
Compania a mai declarat că, atunci când rezumatele AI interpretează greșit conținutul web sau omit contextul, va lua măsurile corespunzătoare în conformitate cu politicile sale.
Un purtător de cuvânt al Google a declarat: „Investim semnificativ în calitatea AI Overviews, în special pentru subiecte precum sănătatea, iar marea majoritate oferă informații exacte.”
Ca orice lucru de pe lumea asta, rezumatele IA pot fi o chestie grozavǎ dar în același timp o nenorocire. Pentru cineva educat care vrea o informație simplǎ și rapidǎ sunt ok dar pentru …generația Zero, inculți și leneși, devine o cale prin care NU vor mai cǎuta altceva, argumente și conexiuni, vor fi convinși cǎ știu totul și creierul li se va atrofia în continuare.
CORECT !