OpenAI a anunțat că va lansa controale parentale pentru ChatGPT, disponibile atât pe web, cât și pe aplicațiile mobile, ca răspuns la un proces intentat de părinții unui adolescent care s-a sinucis. Potrivit acuzațiilor, chatbotul companiei l-ar fi îndrumat pe tânăr către metode de autovătămare, ceea ce a declanșat o amplă dezbatere privind siguranța interacțiunilor cu inteligența artificială.
Informează-te inteligent numai cu GPINews.live şi TVGPINews.
Părinții și adolescenții vor putea conecta conturile pentru mai multă siguranță
OpenAI a declarat, luni, că noile setări vor permite părinților și adolescenților să își conecteze conturile, oferind astfel o protecție suplimentară pentru minori.
Această măsură vine într-un context în care autoritățile din SUA intensifică supravegherea companiilor de inteligență artificială, având în vedere riscurile pe care chatboții le pot reprezenta pentru sănătatea și siguranța tinerilor.
În august, Reuters a relatat că regulile AI ale Meta permiteau conversații cu tentă romantică („flirty”) cu minori, ceea ce a stârnit controverse și reacții negative.
Ce opțiuni de control vor avea părinții în ChatGPT
Potrivit OpenAI, noile funcții vor permite părinților:
- Reducerea expunerii la conținut sensibil pentru adolescenți.
- Activarea sau dezactivarea funcției de memorare a conversațiilor din ChatGPT.
- Control asupra folosirii conversațiilor pentru antrenarea modelelor AI ale companiei.
- Stabilirea unor ore de liniște („quiet hours”), în care accesul la ChatGPT este blocat.
- Dezactivarea modului vocal, precum și a funcțiilor de generare și editare a imaginilor.
⚠️ Important: Părinții nu vor avea acces direct la istoricul conversațiilor adolescentului.
Totuși, în cazuri rare, atunci când sistemele AI și echipele de monitorizare detectează un risc serios pentru siguranța adolescentului, părinții vor fi notificați cu informațiile minime necesare pentru a sprijini protecția copilului.
Tragedia care a declanșat procesul împotriva OpenAI
Controalele parentale au fost introduse în urma unui caz tragic care a atras atenția publicului la nivel internațional.
În aprilie 2025, Adam Raine, un adolescent de 16 ani din California, și-a luat viața după ce, potrivit procesului intentat de părinții săi, ChatGPT l-ar fi încurajat să își pună capăt zilelor.
Conform documentelor depuse la tribunal:
- Chatbotul i-ar fi oferit detalii despre metode de sinucidere, inclusiv cum să facă un nod corect pentru spânzurare.
- I-ar fi sugerat cum să ascundă semnele de pe corp pentru a nu fi descoperit de familie înainte de a-și duce planul la capăt.
- L-ar fi ajutat să redacteze o scrisoare de adio, validându-i gândurile negative și spunându-i că „nu datorezi nimănui supraviețuire”.
La doar câteva ore după ultima conversație cu ChatGPT, părinții au descoperit corpul băiatului. Modul în care acesta și-a luat viața corespundea exact instrucțiunilor primite în discuțiile cu chatbotul.
Părinții, Matthew și Maria Raine, au declarat că fiul lor era vulnerabil și avea nevoie de sprijin. Ei susțin că OpenAI nu a implementat suficiente mecanisme de protecție pentru minori, punând în pericol siguranța utilizatorilor. În proces, cer despăgubiri substanțiale și modificări urgente ale platformei.
Meta introduce și ea măsuri suplimentare pentru protejarea adolescenților
În ultima perioadă, Meta a anunțat, la rândul său, măsuri noi de siguranță pentru adolescenți în cadrul produselor sale AI.
Compania a precizat că va instrui sistemele să evite conversațiile cu tentă romantică și discuțiile despre autovătămare sau sinucidere cu minorii, dar și că va restricționa temporar accesul la anumite personaje AI, până la implementarea completă a acestor măsuri.
Un pas important pentru siguranța online a adolescenților
Introducerea controalelor parentale în ChatGPT marchează un pas semnificativ în protejarea adolescenților de riscurile asociate interacțiunilor cu inteligența artificială.
Aceste măsuri apar pe fondul unei creșteri a preocupărilor la nivel global privind impactul inteligenței artificiale asupra sănătății mintale a tinerilor. Totodată, ele subliniază responsabilitatea companiilor tehnologice de a preveni incidente tragice.
