🏛️ યુકેને AI સફળતાઓમાં ઝડપી ગતિએ રાખવા માટે સરકાર નવી લેબ બનાવશે ↗
યુકે સરકાર દ્વારા સમર્થિત ફંડામેન્ટલ એઆઈ રિસર્ચ લેબની સ્થાપના કરી રહ્યું છે, જે તેને "બ્લુ સ્કાય" કાર્ય તરીકે રજૂ કરી રહ્યું છે - જે જોખમી, ધીમું અને ક્યારેક એવી રીતે ફળ આપે છે કે બીજા બધાને એવું લાગે છે કે તેઓ સૂઈ ગયા છે. ( GOV.UK )
ધ્યાન ફક્ત "મોટા મોડેલો, વધુ GPU" પર નથી - તે ભ્રમણા, ટૂંકી યાદશક્તિ અને અણધારી તર્ક જેવી સતત ખામીઓનો સામનો કરી રહ્યું છે, ઉપરાંત સંશોધકોને AI સંશોધન સંસાધન દ્વારા ગંભીર ગણતરીની ઍક્સેસ આપી રહ્યું છે. ખૂબ જ સમજદાર લાગે છે... અને શાંતિથી, યુકેના શ્રેષ્ઠ દિમાગને તાત્કાલિક અન્યત્ર ખાલી થવાથી રોકવાના પ્રયાસ જેવું પણ છે. ( GOV.UK )
🧨 Nvidia CEO એ OpenAI, Anthropic માં રોકાણના અંતનો સંકેત આપ્યો ↗
જેન્સન હુઆંગ સંકેત આપી રહ્યા છે કે Nvidia કદાચ ફ્રન્ટિયર AI લેબ્સમાં આ જ રીતે રોકાણ કરવાનું ચાલુ રાખશે નહીં - IPO ગતિશીલતા (અને તપાસના મોટા પાયે ચર્ચા થઈ રહી છે) સાથે ભંડોળ મેળવવાનું તે શૈલીને મુશ્કેલ બનાવે છે. ( રોઇટર્સ )
આ એક એવો સ્વર પરિવર્તન છે જે ધ્યાન આપવા યોગ્ય છે: Nvidia આ સમગ્ર તેજીનો મુખ્ય રાજા છે, છતાં તે સંકેત આપે છે કે "ખાણિયાઓના ટુકડાઓ રાખવા" હવે હંમેશા રમત નથી. અથવા કદાચ તે ફક્ત મોટેથી હેજિંગ છે, જે CEOs કરે છે, જેમ કે શ્વાસ લેવો. ( રોઇટર્સ )
🧩 એક્સક્લુઝિવ: મોટા ટેક જૂથ પેન્ટાગોનમાં એન્થ્રોપિક લડાઈને સમર્થન આપે છે કારણ કે રોકાણકારો AI સુરક્ષા પરના સંઘર્ષને ઓછો કરવા માટે દબાણ કરે છે ↗
એન્થ્રોપિકનો પેન્ટાગોન સ્ટેન્ડઓફ સંપૂર્ણ પ્રેશર કૂકરમાં ફેરવાઈ રહ્યો છે - રોકાણકારો ઇચ્છે છે કે તાપમાન ઓછું થાય, જ્યારે કંપની સલામતીની ભાષા (ખાસ કરીને દેખરેખની આસપાસ) પર તેની લાઇન જાળવી રાખવાનો પ્રયાસ કરે છે. ( રોઇટર્સ )
વાર્તાનો સબટેક્સ્ટ ટેક્સ્ટ કરતાં લગભગ વધુ જોરદાર છે: AI યુગમાં, કરાર શબ્દરચના "કાનૂની નિટપિકિંગ" નથી, તે મૂળભૂત રીતે ઉત્પાદન નીતિ છે - અને તે નક્કી કરે છે કે મોડેલ એક સાધન, શસ્ત્ર અથવા વ્યાપક જવાબદારી બને છે. ( રોઇટર્સ )
🪖 સેમ ઓલ્ટમેન સ્વીકારે છે કે ઓપનએઆઈ પેન્ટાગોનના એઆઈના ઉપયોગને નિયંત્રિત કરી શકતું નથી ↗
ઓલ્ટમેને સ્ટાફને જણાવ્યું હતું કે OpenAI પેન્ટાગોન તેના AI ને તૈનાત કર્યા પછી તેનો ઉપયોગ કેવી રીતે કરે છે તે નિયંત્રિત કરી શકતું નથી - જે જોરથી પડે છે કારણ કે તે લોકો જે ભયમાં ફરતા હતા તેનું નામ આપે છે. ( ધ ગાર્ડિયન )
વ્યાપક પૃષ્ઠભૂમિ "અમે નિયમો સાથે મદદ કરીશું" અને "અમે મદદ કરીશું, પૂર્ણવિરામ" વચ્ચે વધતા ઘર્ષણ અને લશ્કરી દત્તક લેવાનું ઉતાવળિયા અથવા તકવાદી લાગે ત્યારે આંતરિક અને જાહેર પ્રહાર છે. અહીં નીતિશાસ્ત્ર એક સુઘડ રેખા ઓછી અને ભીના રંગના છંટકાવ વધુ છે - દરેક વ્યક્તિ તેમાં પગ મૂકે છે, પછી દલીલ કરે છે કે તે કોનું જૂતા છે. ( ધ ગાર્ડિયન )
🧬 સેંગર ઇન્સ્ટિટ્યૂટ અને ગૂગલ ડીપમાઇન્ડ સાથે જીનોમિક્સ ફેલોશિપમાં નવી એઆઈ ↗
વેલકમ સેંગર ઇન્સ્ટિટ્યૂટ ડીપમાઇન્ડ-ફંડેડ શૈક્ષણિક ફેલોશિપ શરૂ કરી રહી છે જે જીનોમિક્સ પર AI લાગુ કરવા પર કેન્દ્રિત છે - જે આ ચોક્કસ ક્ષેત્રમાં ડીપમાઇન્ડ ફેલો માટે તેના પ્રકારના પ્રથમ સ્લોટ તરીકે સ્થિત છે. ( sanger.ac.uk )
રસપ્રદ વાત એ છે કે (અને, પ્રમાણિકપણે, થોડી તાજગી આપનારી) એ છે કે જ્યાં AI પહેલાથી જ દરેક જગ્યાએ નથી ત્યાં ઓછી શોધાયેલ જીનોમિક્સ સમસ્યાઓ પર ભાર મૂકવામાં આવે છે - ઉપરાંત સ્પષ્ટ નોંધ કે DeepMind સાથીના સંશોધનને દિશામાન કરતું નથી. તે કોઈને રોકેટ આપવા જેવું છે અને "આપણા રોડમેપને ઑપ્ટિમાઇઝ કરો" ને બદલે "કંઈક શોધો" કહેવા જેવું છે. ( sanger.ac.uk )
વારંવાર પૂછાતા પ્રશ્નો
યુકે સરકાર દ્વારા સમર્થિત ફંડામેન્ટલ એઆઈ રિસર્ચ લેબ શું છે અને તે શું કરશે?
સરકાર દ્વારા સમર્થિત ફંડામેન્ટલ એઆઈ રિસર્ચ લેબને "બ્લુ સ્કાય" સંશોધન પ્રયાસ તરીકે સ્થાન આપવામાં આવી રહ્યું છે - ઉચ્ચ જોખમનું કાર્ય જે ફળ આપવા માટે સમય લઈ શકે છે. ફક્ત મોટા મોડેલોને સ્કેલિંગ કરવા પર ધ્યાન કેન્દ્રિત કરવાને બદલે, તેનો ઉદ્દેશ્ય આભાસ, ટૂંકી યાદશક્તિ અને અણધારી તર્ક જેવા સતત મુદ્દાઓ પર ધ્યાન કેન્દ્રિત કરવાનો છે. મૂળ વાત એ છે કે સફળતાઓ ફક્ત વધુ GPU ઉમેરવાથી નહીં, પરંતુ મૂળભૂત સિદ્ધાંતોમાંથી આવે છે.
યુકે ફંડામેન્ટલ એઆઈ રિસર્ચ લેબ સંશોધકોને ગંભીર કમ્પ્યુટ ઍક્સેસ કરવામાં કેવી રીતે મદદ કરી શકે?
યુકે ફંડામેન્ટલ એઆઈ રિસર્ચ લેબની સાથે, આ યોજના એઆઈ રિસર્ચ રિસોર્સ દ્વારા નોંધપાત્ર ગણતરીની ઍક્સેસ પર ભાર મૂકે છે. વ્યવહારમાં, તેનો અર્થ એ થાય છે કે સંશોધકો એવા પ્રયોગો ચલાવી શકે છે જે અન્યથા ખર્ચ અથવા માળખાગત સુવિધાઓ દ્વારા મર્યાદિત હશે. તે ટીમોને એવા સ્તરે વિચારોનું પરીક્ષણ કરવા માટે પણ સક્ષમ બનાવે છે જ્યાં વિશ્વસનીયતા અને મજબૂતાઈ જેવી સમસ્યાઓ માત્ર સૈદ્ધાંતિક નહીં, પણ નક્કર બને છે.
યુકે શા માટે આભાસ, ટૂંકી યાદશક્તિ અને અણધારી તર્ક પર ભાર મૂકી રહ્યું છે?
તે નબળાઈઓ એવી છે જે ડિપ્લોયમેન્ટમાં દેખાય છે અને વિશ્વાસને ઝડપથી ખતમ કરી શકે છે. જણાવેલ ધ્યાન સૂચવે છે કે ધ્યેય ફક્ત ક્ષમતા જ નહીં, પરંતુ વિશ્વસનીયતા પણ છે - બનાવટી આઉટપુટ ઘટાડવાનો, મોડેલો લાંબા સંદર્ભને કેવી રીતે હેન્ડલ કરે છે તે સુધારવાનો અને તર્કને ઓછો અનિયમિત બનાવવાનો. આ પ્રકારનું કાર્ય ઘણીવાર ધીમું અને જોખમી હોય છે, તેથી જ તેને મૂળભૂત સંશોધન તરીકે રજૂ કરવામાં આવી રહ્યું છે.
ઓપનએઆઈ અથવા એન્થ્રોપિકમાં રોકાણ કરવા અંગે એનવીડિયાના સ્વરમાં ફેરફાર ખરેખર શું સંકેત આપે છે?
રિપોર્ટિંગ તેને એક સંકેત તરીકે ફ્રેમ કરે છે કે Nvidia કદાચ ફ્રન્ટિયર લેબ્સમાં એ જ રીતે રોકાણ કરવાનું ચાલુ રાખશે નહીં, ખાસ કરીને કારણ કે IPO ગતિશીલતા અને વિશાળ ચેક કદ તે વ્યૂહરચનાને જટિલ બનાવે છે. AI હાર્ડવેરમાં "પિક્સ-એન્ડ-શોવલ્સ" નેતા હોવા છતાં, તે સૂચવે છે કે માલિકીનો હિસ્સો હંમેશા શ્રેષ્ઠ રમત નથી. તે સાવચેતીભર્યું સંદેશાવ્યવહાર પણ હોઈ શકે છે, જે એક્ઝિક્યુટિવ ટિપ્પણીઓમાં સામાન્ય છે.
"ભાષાની સુરક્ષા" અંગે એન્થ્રોપિકનો પેન્ટાગોન વિવાદ આટલો મોટો કેમ છે?
લેખનો મુખ્ય મુદ્દો એ છે કે કરારની શબ્દરચના ઉત્પાદન નીતિ બની શકે છે - ખાસ કરીને જ્યારે તે દેખરેખ અને અન્ય સંવેદનશીલ ઉપયોગોને સ્પર્શે છે. અહેવાલ મુજબ રોકાણકારો સંઘર્ષ ઓછો કરવા માંગે છે, જ્યારે કંપની સલામતી પર તેની લાઇન જાળવી રાખવાનો પ્રયાસ કરે છે. ઘણી AI ડિપ્લોયમેન્ટમાં, તે કલમો સિસ્ટમનો ઉપયોગ શેના માટે થઈ શકે છે અને કંપની કયા જોખમોને અસરકારક રીતે સ્વીકારે છે તે આકાર આપે છે.
જ્યારે સેમ ઓલ્ટમેન કહે છે કે પેન્ટાગોન AI નો ઉપયોગ કેવી રીતે કરે છે તે OpenAI નિયંત્રિત કરી શકતું નથી ત્યારે તેનો શું અર્થ થાય છે?
તે એક વ્યવહારુ મર્યાદાનું વર્ણન કરી રહ્યું છે: એકવાર કોઈ સાધન તૈનાત થઈ જાય, પછી મૂળ વિકાસકર્તા પાસે ડાઉનસ્ટ્રીમ ઉપયોગને નિયંત્રિત કરવાની મર્યાદિત ક્ષમતા હોઈ શકે છે. તે ખૂબ જ મહત્વપૂર્ણ છે કારણ કે તે લશ્કરી દત્તક લેવા અંગે લોકો દ્વારા ઉભા કરાયેલા મુખ્ય ભય તરફ નિર્દેશ કરે છે - કરારના તબક્કે નિયમો અસ્તિત્વમાં હોઈ શકે છે, પરંતુ અમલીકરણ મુશ્કેલ હોઈ શકે છે. તે "મદદ, અવરોધો સાથે" અને "મદદ, અનુલક્ષીને" વચ્ચેના વ્યાપક તણાવને પણ પ્રતિબિંબિત કરે છે