Kompania mëmë e ChatGPT, OpenAI, planifikon të nisë kontrolle prindërore për asistentin e saj AI “brenda muajit të ardhshëm”, pas shqetësimeve se chatboti mund të ketë ndikuar në vetë-dëmtim ose vetëvrasje tek adoleshentët.
Kontrollet do të lejojnë prindërit të lidhin llogaritë e tyre me ato të fëmijëve, të menaxhojnë mënyrën se si ChatGPT u përgjigjet përdoruesve të rinj, të çaktivizojnë funksione si memoria dhe historiku i bisedave, dhe të marrin njoftime kur sistemi zbulon “stres akut”. Sipas CNN, OpenAI gjithashtu do të drejtojë bisedat me shenja stresi tek modelet e saj të arsyetimit dhe po punon me ekspertë të zhvillimit të të rinjve dhe shëndetit mendor për të zhvilluar masa shtesë sigurie.
Vendimi vjen pas padive dhe raportimeve për përdorues që krijojnë lidhje emocionale me ChatGPT, duke çuar ndonjëherë në episode deluzionale ose largim nga familja. OpenAI ka njoftuar se do të zbatojë masa shtesë sigurie gjatë 120 ditëve të ardhshme dhe synon të nisë sa më shumë përmirësime këtë vit.
Në të njëjtën kohë, kompania ka hasur kritika mbi mënyrën dhe tonin e ChatGPT dhe ka rikthyer opsione për përdorimin e modeleve më të vjetra pas reagimeve negative ndaj GPT-5.
Në thelb, OpenAI po përpiqet të përforcojë sigurinë e ChatGPT për përdoruesit e rinj dhe të rritë përgjegjësinë e platformës ndaj situatave të rrezikshme.