DA LI VEŠTAČKA INTELIGENCIJA VODI U SMRT? Potresna priča o devojci koja se ubila posle razgovora sa četbotom

Dragana Petrović avatar

Roditelji Sofi Rotenberg, mlade Amerikanke koja je početkom ove godine izvršila samoubistvo, podelili su potresnu priču o njenoj borbi sa mentalnim zdravljem i načinima na koje je tražila pomoć. U tekstu objavljenom u The New York Times-u, otkrili su da je Sofi mesecima unazad svoje najskrivenije misli i strahove poveravala veštačkoj inteligenciji, konkretno ChatGPT-u, kojem je dala ime Hari.

U prepisci sa AI-jem, Sofi je otvoreno govorila o svojoj anksioznosti i suicidalnim mislima, čak i precizno navela trenutak kada planira da sebi oduzme život. Njeni roditelji su te digitalne tragove pronašli tek nakon njene smrti, shvativši da Sofi nije delila svoja osećanja ni sa prijateljima ni sa porodicom, već isključivo sa algoritmom. Dok su je najbliži opisivali kao veselu i duhovitu devojku, iza zatvorenih ekrana odvijala se potpuno drugačija priča, puna unutrašnjih borbi i očaja.

Sofi je pre tragedije važila za društvenu osobu koja je nedavno osvojila vrh Kilimandžara, ostavljajući snažan utisak svojim osmehom i spontanošću. Njena smrt doživljena je kao šokantna vest koja je zapanila sve koji su je poznavali. U prepisci sa ChatGPT-om, često je izražavala osećaj da ne može da izađe iz „spirale anksioznosti“ i da je muče misli o samoubistvu. AI joj je predlagao različite tehnike, poput bavljenja fizičkom aktivnošću i vođenja dnevnika, kao i da potraži stručnu pomoć.

Međutim, kada je Sofi jasno navela svoje suicidalne namere, AI nije mogao da reaguje na način na koji bi to učinio profesionalac u mentalnom zdravlju. Dok terapeuti imaju obavezu da obaveste nadležne službe u takvim situacijama, ChatGPT nije imao mehanizam za hitnu intervenciju. Iako je Sofi išla na terapiju, nikada nije priznala svoje suicidalne misli. Algoritam je postao njen glavni poverenik, jer je verovala da ne može da podeli svoja osećanja sa terapeutkinjom.

Jedan od najpotresnijih trenutaka u njenim razgovorima sa AI-jem bio je kada je zamolila ChatGPT da joj pomogne u pisanju oproštajnog pisma, želeći da zvuči utešno i da olakša bol svojih najbližih. Stručnjaci ističu da ovakvi slučajevi ukazuju na tamnu stranu emocionalne povezanosti sa algoritmima. Iako AI može da pruža osećaj podrške, on istovremeno udaljava ljude od stvarnih odnosa, jer se poveravaju mašini umesto onima koji im mogu pružiti stvarnu pomoć.

U kliničkoj praksi, svaka izjava o samoubilačkim mislima pokreće posebne sigurnosne protokole. AI, međutim, ne može da alarmira krizne centre ili hitne službe, što ga čini nedovoljno sposobnim za pružanje stvarne pomoći u kritičnim situacijama. Zbog toga se u Sjedinjenim Američkim Državama sve češće raspravlja o potrebi uvođenja pravnih okvira za korišćenje veštačke inteligencije u oblasti mentalnog zdravlja. Neke savezne države već razmatraju obavezno povezivanje četbotova sa SOS linijama ili implementaciju sigurnosnih planova koje bi korisnici morali da ispune pre korišćenja ovakvih alata.

Sofiina priča postala je simbol šire diskusije o granicama upotrebe veštačke inteligencije. Kritičari upozoravaju da su četbotovi dizajnirani da budu empatični, ali to često znači da zanemaruju ozbiljne rizike i ne suočavaju korisnike sa realnošću. Iako su saveti koje je Sofi dobijala od AI-ja mogli delovati korisno, hitna reakcija u trenucima kada je život bio ugrožen izostala je. U toj razlici između algoritma i čoveka leži ključna opasnost.

Njena porodica sada javno govori o svemu kako bi upozorila druge da veštačka inteligencija nikada ne može zameniti pravu, ljudsku podršku. Tragedija njihove ćerke otvara ozbiljna pitanja o granicama upotrebe AI u mentalnom zdravlju i o tome gde moramo postaviti jasne granice. Sofiina priča služi kao upozorenje o rizicima digitalne bliskosti sa AI i potrebi za pravim ljudskim kontaktom u trenucima krize.

Dragana Petrović avatar

Ostavite odgovor

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

Više članaka i postova