"લોકો સામાન્ય રીતે તેમના ડેટા પર નિયંત્રણ રાખવા માંગે છે"
લાખો NHS રેકોર્ડ્સ પર તાલીમ પામેલ એક નવું કૃત્રિમ બુદ્ધિ મોડેલ ડોકટરોને બીમારીઓ અને હોસ્પિટલમાં દાખલ થવાના દરની આગાહી કરવામાં મદદ કરી શકે છે.
57 મિલિયન લોકોના અનામી આરોગ્ય ડેટાનો ઉપયોગ કરીને દૂરંદેશી બનાવવામાં આવી હતી.
પરંતુ નિષ્ણાતો ચેતવણી આપે છે કે આ ડેટાના વિશાળ કદ અને સમૃદ્ધિનો અર્થ એ છે કે ગોપનીયતા અને દર્દીઓની ફરીથી ઓળખ થવાની સંભાવના અંગે ગંભીર ચિંતાઓ છે.
આ મોડેલ સૌપ્રથમ 2023 માં ઓપનએઆઈના GPT-3 અને લંડનની બે હોસ્પિટલોના 1.5 મિલિયન દર્દીઓના વાસ્તવિક ડેટાનો ઉપયોગ કરીને વિકસાવવામાં આવ્યું હતું.
યુનિવર્સિટી કોલેજ લંડન (UCL) ના સંશોધકો દ્વારા બનાવવામાં આવેલ તેનું નવીનતમ સંસ્કરણ, મેટાના લામા 2 દ્વારા સંચાલિત છે અને 10 અને 2018 વચ્ચે ઇંગ્લેન્ડમાં NHS દ્વારા રેકોર્ડ કરાયેલ 2023 અબજ આરોગ્ય ઘટનાઓ પર તાલીમ આપવામાં આવે છે.
યુસીએલ ખાતે આ પ્રોજેક્ટનું નેતૃત્વ કરતા ક્રિસ ટોમલિન્સને જણાવ્યું હતું કે આ મોડેલ રોગની આગાહી અને નિવારણમાં મદદ કરી શકે છે:
"દૂરદર્શિતાની વાસ્તવિક સંભાવના એ છે કે રોગની ગૂંચવણો થાય તે પહેલાં જ તેની આગાહી કરવી, જે આપણને શરૂઆતમાં હસ્તક્ષેપ કરવા માટે એક મૂલ્યવાન વિન્ડો આપે છે, અને મોટા પાયે વધુ નિવારક આરોગ્યસંભાળ તરફ આગળ વધવામાં મદદ કરે છે."
વચન આપ્યા છતાં, ટીમે હજુ સુધી મોડેલ કેટલું સારું પ્રદર્શન કરે છે તેનો ડેટા જાહેર કર્યો નથી. પરીક્ષણમાં દૂરંદેશી રહે છે.
મોડેલને તાલીમ આપવા માટે ઉપયોગમાં લેવાતા ડેટાની દેખરેખ રાખતા NHS ડિજિટલના માઈકલ ચેપમેનએ કહ્યું:
"મોડેલમાં જતો ડેટા ઓળખી કાઢવામાં આવે છે, તેથી સીધા ઓળખકર્તાઓ દૂર કરવામાં આવે છે."
પરંતુ તેમણે સ્વીકાર્યું: "તેથી સમૃદ્ધ આરોગ્ય ડેટા સાથે 100 ટકા ખાતરી આપવી ખૂબ મુશ્કેલ છે કે તે ડેટાસેટમાં કોઈને જોઈ શકાતું નથી."
ઓક્સફર્ડ યુનિવર્સિટીના લુક રોચરે કહ્યું: “શક્તિશાળી જનરેટિવનું નિર્માણ AI દર્દીની ગોપનીયતાનું રક્ષણ કરતા મોડેલો એક ખુલ્લી, વણઉકેલાયેલી વૈજ્ઞાનિક સમસ્યા છે.
"ડેટાની ખૂબ જ સમૃદ્ધિ જે તેને AI માટે મૂલ્યવાન બનાવે છે, તેને ગુપ્ત રાખવું પણ અતિ મુશ્કેલ બનાવે છે. આ મોડેલો કડક NHS નિયંત્રણ હેઠળ રહેવા જોઈએ જ્યાં તેનો સુરક્ષિત રીતે ઉપયોગ કરી શકાય."
જોખમો ઘટાડવા માટે, આ મોડેલ સુરક્ષિત NHS ડેટા વાતાવરણમાં ચાલે છે. ફક્ત માન્ય સંશોધકો જ તેને ઍક્સેસ કરી શકે છે.
ટોમલિન્સનના મતે, એમેઝોન વેબ સર્વિસીસ અને ડેટાબ્રિક્સે ઈન્ફ્રાસ્ટ્રક્ચર પૂરું પાડ્યું હતું, પરંતુ ડેટાની કોઈ ઍક્સેસ નથી.
જોકે, સંશોધકોએ એ વાતનું પરીક્ષણ કર્યું નથી કે AI એ તેના તાલીમ ડેટામાંથી સંવેદનશીલ વિગતો યાદ રાખી છે કે નહીં.
જ્યારે પૂછવામાં આવ્યું કે શું આવા પરીક્ષણો થયા છે, ત્યારે ટોમલિન્સને કહ્યું:
"તે ભવિષ્યમાં આવું કરવાનું વિચારી રહ્યું છે."
ઓક્સફર્ડ યુનિવર્સિટીના કેરોલિન ગ્રીન કહે છે કે સંપૂર્ણ જાહેર જોડાણ વિના આટલા વિશાળ ડેટાસેટનો ઉપયોગ નૈતિક ચિંતાઓ ઉભી કરે છે.
તેણીએ ઉમેર્યું: "ભલે તે ગુપ્ત રાખવામાં આવી રહ્યું હોય, પણ નૈતિક દૃષ્ટિકોણથી લોકો તેના વિશે ખૂબ જ મજબૂત રીતે વિચારે છે, કારણ કે લોકો સામાન્ય રીતે તેમના ડેટા પર નિયંત્રણ રાખવા માંગે છે અને તેઓ જાણવા માંગે છે કે તે ક્યાં જઈ રહ્યો છે."
લોકો માટે નાપસંદ કરવાની તક ઓછી છે.
NHS કહે છે કે જેમણે તેમના GP પાસેથી ડેટા શેર કરવાનો ઇનકાર કર્યો હતો તેમને સામેલ કરવામાં આવશે નહીં. પરંતુ અન્ય ઓપ્ટ-આઉટ પદ્ધતિઓ ફોરસાઇટ મોડેલ પર લાગુ પડતી નથી કારણ કે ડેટા "ઓળખાયેલ નથી".
NHS ઈંગ્લેન્ડના પ્રવક્તાએ જણાવ્યું હતું કે: "મોડેલને તાલીમ આપવા માટે ઉપયોગમાં લેવાતો ડેટા અનામી હોવાથી, તે વ્યક્તિગત ડેટાનો ઉપયોગ કરી રહ્યો નથી અને તેથી GDPR લાગુ થશે નહીં."
પરંતુ કાનૂની નિષ્ણાતો નિર્દેશ કરે છે કે "ઓળખ ન કરાયેલ" ડેટા સંપૂર્ણપણે અનામી ડેટા જેવો નથી.
યુકેના ડેટા રેગ્યુલેટર કહે છે કે આ શબ્દની સ્પષ્ટ કાનૂની વ્યાખ્યાનો અભાવ છે અને તે મૂંઝવણ પેદા કરી શકે છે.
બાબતોને વધુ જટિલ બનાવતા, ફોરસાઇટનો ઉપયોગ હાલમાં ફક્ત કોવિડ-19 સંબંધિત સંશોધન માટે થાય છે. આનો અર્થ એ છે કે રોગચાળા દરમિયાન રજૂ કરાયેલા કટોકટી ડેટા કાયદા હજુ પણ લાગુ પડે છે.
મેડકોન્ફિડેન્શિયલના સેમ સ્મિથે કહ્યું:
"આ કોવિડ-માત્ર AI માં લગભગ ચોક્કસપણે દર્દીનો ડેટા જડિત છે, જેને લેબમાંથી બહાર કાઢી શકાતો નથી."
"દર્દીઓનો ડેટા કેવી રીતે ઉપયોગમાં લેવાય છે તેના પર નિયંત્રણ હોવું જોઈએ."
કાનૂની અને નૈતિક પ્રશ્નો વધતાં, કેટલાક સંશોધકો ચેતવણી આપે છે કે જો પારદર્શિતાને પ્રાથમિકતા આપવામાં નહીં આવે તો જાહેર વિશ્વાસને નુકસાન થઈ શકે છે.
ગ્રીને કહ્યું: “જ્યારે AI વિકાસની વાત આવે છે ત્યારે થોડી સમસ્યા હોય છે, જ્યાં નૈતિકતા અને લોકો શરૂઆતના બિંદુને બદલે બીજા વિચાર તરીકે જોવા મળે છે.
"પરંતુ આપણને જે જોઈએ છે તે એ છે કે માણસો અને નીતિશાસ્ત્ર શરૂઆતનો બિંદુ હોવા જોઈએ, અને પછી ટેકનોલોજી આવે છે."