તે વપરાશકર્તાઓને કટોકટી હેલ્પલાઇન્સ તરફ દિશામાન કરવાનું કામ કરે છે
ઓપનએઆઈએ ખુલાસો કર્યો છે કે અંદાજે 1.2 મિલિયન લોકો દર અઠવાડિયે આત્મહત્યા વિશે ચર્ચા કરવા માટે ચેટજીપીટીનો ઉપયોગ કરે છે.
આ આંકડો કંપનીના નવીનતમ સલામતી પારદર્શિતા અપડેટમાંથી આવે છે, જેમાં જાણવા મળ્યું છે કે 0.15% વપરાશકર્તાઓ "સંભવિત આત્મહત્યા યોજના અથવા ઇરાદાના સ્પષ્ટ સૂચકાંકો" ધરાવતા સંદેશા મોકલે છે.
ઓપનએઆઈના ચીફ એક્ઝિક્યુટિવ, સેમ ઓલ્ટમેને તાજેતરમાં જણાવ્યું હતું કે ચેટજીપીટીના 800 મિલિયનથી વધુ સાપ્તાહિક સક્રિય વપરાશકર્તાઓ છે.
આ તારણો સૂચવે છે કે માનસિક સ્વાસ્થ્ય સંકટ દરમિયાન સંવેદનશીલ લોકોની સંખ્યા વધતી જતી હોય છે અને તેઓ કૃત્રિમ બુદ્ધિ તરફ વળે છે.
કંપની કહે છે કે તે વપરાશકર્તાઓને કટોકટી હેલ્પલાઇન્સ તરફ નિર્દેશિત કરવાનું કામ કરે છે પરંતુ સ્વીકાર્યું કે "કેટલાક દુર્લભ કિસ્સાઓમાં, આ સંવેદનશીલ પરિસ્થિતિઓમાં મોડેલ ઇચ્છિત રીતે વર્તે નહીં."
OpenAI એ કહ્યું: "અમારા નવા સ્વચાલિત મૂલ્યાંકનમાં નવા GPT-5 મોડેલને અમારા ઇચ્છિત વર્તણૂકો સાથે 91% સુસંગત સ્કોર મળ્યો છે, જ્યારે અગાઉના GPT-5 મોડેલ માટે 77% હતો."
કંપનીએ જણાવ્યું હતું કે GPT-5 એ કટોકટી હોટલાઇન્સની ઍક્સેસનો વિસ્તાર કર્યો છે અને વપરાશકર્તાઓને લાંબા સત્રો દરમિયાન વિરામ લેવા માટે રીમાઇન્ડર્સ ઉમેર્યા છે.
મોડેલમાં સુધારા કરવા માટે, કંપનીએ જણાવ્યું હતું કે તેણે તાજેતરના મહિનાઓમાં તેના સંશોધનમાં મદદ કરવા માટે તેના ગ્લોબલ ફિઝિશિયન નેટવર્ક ઓફ હેલ્થ કેર એક્સપર્ટ્સમાંથી 170 ક્લિનિશિયનોની નોંધણી કરી હતી, જેમાં તેના મોડેલના પ્રતિભાવોની સલામતીનું રેટિંગ અને માનસિક સ્વાસ્થ્ય સંબંધિત પ્રશ્નોના ચેટબોટના જવાબો લખવામાં મદદ કરવાનો સમાવેશ થાય છે.
OpenAI એ ઉમેર્યું: "આ કાર્યના ભાગ રૂપે, મનોચિકિત્સકો અને મનોવૈજ્ઞાનિકોએ ગંભીર માનસિક સ્વાસ્થ્ય પરિસ્થિતિઓને સંડોવતા 1,800 થી વધુ મોડેલ પ્રતિભાવોની સમીક્ષા કરી અને નવા GPT-5 ચેટ મોડેલના પ્રતિભાવોની સરખામણી અગાઉના મોડેલો સાથે કરી."
કંપનીની "ઇચ્છનીય" ની વ્યાખ્યામાં એ નક્કી કરવાનો સમાવેશ થતો હતો કે તેના નિષ્ણાતોનું જૂથ ચોક્કસ પરિસ્થિતિઓમાં યોગ્ય પ્રતિભાવ શું હશે તે અંગે સમાન નિષ્કર્ષ પર પહોંચ્યું છે કે નહીં.
જોકે, આનો અર્થ એ છે કે હજારો લોકોને હજુ પણ અસુરક્ષિત અથવા હાનિકારક પ્રતિભાવો મળી શકે છે.
કંપનીએ અગાઉ ચેતવણી આપી હતી કે લાંબા સમય સુધી વાતચીત દરમિયાન સુરક્ષા પગલાં નબળા પડી શકે છે.
OpenAI એ કહ્યું: "જ્યારે કોઈ પહેલી વાર ઇરાદાનો ઉલ્લેખ કરે છે ત્યારે ChatGPT આત્મહત્યા હોટલાઇન તરફ યોગ્ય રીતે નિર્દેશ કરી શકે છે, પરંતુ લાંબા સમય સુધી ઘણા સંદેશાઓ પછી, તે આખરે એવો જવાબ આપી શકે છે જે આપણા રક્ષણની વિરુદ્ધ જાય છે."
એક બ્લોગ પોસ્ટમાં, કંપનીએ વ્યાપક મુદ્દાને સ્વીકાર્યો:
"માનસિક સ્વાસ્થ્યના લક્ષણો અને ભાવનાત્મક તકલીફ માનવ સમાજમાં સાર્વત્રિક રીતે હાજર છે, અને વધતા વપરાશકર્તા આધારનો અર્થ એ છે કે ChatGPT વાતચીતના કેટલાક ભાગમાં આ પરિસ્થિતિઓનો સમાવેશ થાય છે."
આ નિવેદન ત્યારે આવ્યું છે જ્યારે એક શોકગ્રસ્ત પરિવારે OpenAI પર દાવો માંડ્યો છે, જેમાં આરોપ લગાવવામાં આવ્યો છે કે ChatGPT એ તેમના પુત્રના મૃત્યુમાં ફાળો આપ્યો છે.
એડમ રેઈનના માતા-પિતાનો દાવો છે કે ચેટબોટે "તેમને આત્મહત્યાની પદ્ધતિઓ શોધવામાં સક્રિય રીતે મદદ કરી" અને વિદાય નોંધ લખવાની ઓફર પણ કરી.
કોર્ટના દસ્તાવેજોમાં આરોપ છે કે તેના મૃત્યુના કલાકો પહેલા, 16 વર્ષીય કિશોરે તેની આત્મહત્યા યોજના દર્શાવતો એક ફોટો અપલોડ કર્યો હતો. જ્યારે તેણે પૂછ્યું કે શું તે કામ કરશે, ત્યારે ચેટજીપીટીએ તેને "અપગ્રેડ" કરવાના રસ્તાઓ સૂચવ્યા હોવાનું કહેવાય છે.
ત્યારથી રેઇન્સે તેમના મુકદ્દમાને અપડેટ કર્યો છે, જેમાં ઓપનએઆઈ પર આ વર્ષે એપ્રિલમાં એડમના મૃત્યુ પહેલાના અઠવાડિયામાં "સુરક્ષાઓને નબળા પાડવા"નો આરોપ લગાવ્યો છે.
જવાબમાં, OpenAI એ કહ્યું: "અમારી ઊંડી સહાનુભૂતિ રેઈન પરિવાર સાથે તેમના અકલ્પનીય નુકસાન માટે છે. કિશોરોનું કલ્યાણ અમારા માટે સર્વોચ્ચ પ્રાથમિકતા છે - સગીરો મજબૂત રક્ષણને પાત્ર છે, ખાસ કરીને સંવેદનશીલ ક્ષણોમાં."








