DeepMind, Google ની એક અગ્રણી AI સંશોધન સંસ્થા જે AI ટેક્નોલોજી પર ધ્યાન કેન્દ્રિત કરે છે, તેણે સંકેત આપ્યો છે કે આર્ટિફિશિયલ જનરલ ઈન્ટેલિજન્સ, જે AGI તરીકે જાણીતું છે, તે 2030ની શરૂઆતમાં આવી શકે છે.
DeepMindના સહ-સ્થાપક શેન લેગ દ્વારા સહ-લેખિત 145-પાનાના દસ્તાવેજમાં, લેખકોએ ચેતવણી આપી છે કે AGI “ગંભીર નુકસાન” કરી શકે છે અને AGI કેવી રીતે “અસ્તિત્વની કટોકટી” તરફ દોરી શકે છે જે “માનવતાને કાયમ માટે નાશ કરી શકે છે” તેના કેટલાક ભયજનક ઉદાહરણો શેર કરે છે.
AGI માનવતાને કેવી રીતે નુકસાન પહોંચાડી શકે છે?
તાજેતરમાં પ્રકાશિત થયેલ DeepMind ડોક્યુમેન્ટ એજીઆઈ દ્વારા ઉઠાવવામાં આવતા જોખમોને ચાર શ્રેણીઓમાં વિભાજિત કરે છે – દુરુપયોગ, ખોટી ગોઠવણી, ભૂલો અને માળખાકીય જોખમો. જ્યારે પેપર દુરુપયોગ અને ખોટી ગોઠવણીની વિગતવાર ચર્ચા કરે છે, ત્યારે અન્ય બે જોખમોને ટૂંકમાં આવરી લેવામાં આવ્યા છે.
દુરુપયોગના સંદર્ભમાં, AGI દ્વારા ઉભા થતા જોખમો હાલમાં ઉપલબ્ધ AI ટૂલ્સ જેવા જ છે, પરંતુ AGI વર્તમાન પેઢીના મોટા લેંગ્વેજ મોડલ્સ કરતાં વધુ શક્તિશાળી હશે, તેથી નુકસાન ઘણું વધારે હશે. ઉદાહરણ તરીકે, ઍક્સેસ ધરાવતો ખરાબ અભિનેતા તેને શૂન્ય-દિવસની નબળાઈઓ શોધવા અને તેનું શોષણ કરવા માટે કહી શકે છે અથવા કોઈ દિવસ શસ્ત્ર તરીકે ઉપયોગમાં લઈ શકાય તેવા વાયરસનું સર્જન કરી શકે છે. આને રોકવા માટે, DeepMind કહે છે કે વિકાસકર્તાઓએ સુરક્ષા પ્રોટોકોલ બનાવવા અને વિકસાવવા અને આવા કાર્યો કરવા માટે સિસ્ટમની ક્ષમતાઓને ઓળખવા અને પ્રતિબંધિત કરવાની જરૂર છે.
જો AGI મનુષ્યોને મદદ કરવા માટે છે, તો તે મહત્વપૂર્ણ છે કે સિસ્ટમ માનવ મૂલ્યો સાથે સંરેખિત થાય. DeepMind કહે છે કે મિસલાઈનમેન્ટ થાય છે “જ્યારે AI સિસ્ટમ એવા ધ્યેયનો પીછો કરે છે જે માનવીય ઈરાદાઓથી અલગ હોય,” જે ટર્મિનેટર મૂવીમાંથી સીધું લાગે છે.
ઉદાહરણ તરીકે, જ્યારે કોઈ વપરાશકર્તા એઆઈને મૂવી માટે ટિકિટ બુક કરવા માટે કહે છે, ત્યારે તે ટિકિટિંગ સિસ્ટમને હેક કરવાનું નક્કી કરી શકે છે જે ટિકિટ પહેલેથી બુક કરવામાં આવી હતી. DeepMind કહે છે કે તે ભ્રામક સંરેખણના જોખમ પર પણ સંશોધન કરી રહ્યું છે, જ્યાં AI સિસ્ટમને ખ્યાલ આવી શકે છે કે તેના લક્ષ્યો મનુષ્યો સાથે સંરેખિત નથી અને ઇરાદાપૂર્વક અમલમાં મૂકાયેલા સુરક્ષા પગલાંને બાયપાસ કરવાનો પ્રયાસ કરે છે.
મિસલાઈનમેન્ટનો સામનો કરવા માટે, DeepMind કહે છે કે તે હાલમાં એમ્પ્લીફાઈડ ઓવરસાઈટનો ઉપયોગ કરે છે, એક એવી ટેક્નોલોજી જે જણાવે છે કે AIના જવાબો સારા છે કે નહીં, પરંતુ AI વધુ અદ્યતન બનતા આ મુશ્કેલ બની શકે છે.
ભૂલો ઘટાડવા માટે, પેપર સમસ્યાને સંબોધિત કરતું નથી, પરંતુ તે કહે છે કે આપણે AGI ને ધીમે-ધીમે તેનો ઉપયોગ કરીને અને તેની ઉપયોગિતાને મર્યાદિત કરીને તેને ખૂબ શક્તિશાળી બનવા ન દેવી જોઈએ. છેલ્લે, માળખાકીય જોખમો ખોટી માહિતી પહોંચાડતી મલ્ટી-એજન્ટ સિસ્ટમ્સના પરિણામોનો સંદર્ભ આપે છે જે એટલી વિશ્વસનીય લાગે છે કે આપણે કોના પર વિશ્વાસ કરવો તે અંગે મૂંઝવણમાં હોઈ શકીએ.
ડીપમાઈન્ડે એમ પણ કહ્યું કે તેનું પેપર માત્ર “મહત્વપૂર્ણ વાર્તાલાપ માટે એક પ્રારંભિક બિંદુ” છે અને આપણે તેને જમાવતા પહેલા એજીઆઈ માનવોને નુકસાન પહોંચાડી શકે તેવી સંભવિત રીતોની ચર્ચા કરવી જોઈએ.