🏛️ AI മുന്നേറ്റങ്ങളിൽ യുകെയെ അതിവേഗ പാതയിൽ നിലനിർത്താൻ സർക്കാർ പുതിയ ലാബ് സൃഷ്ടിക്കും ↗
യുകെ സർക്കാർ പിന്തുണയുള്ള ഒരു ഫണ്ടമെന്റൽ എഐ റിസർച്ച് ലാബ് സ്ഥാപിക്കുകയാണ്, അതിനെ "നീലാകാശ" ജോലിയായി വിശേഷിപ്പിക്കുന്നു - അപകടസാധ്യതയുള്ളതും, മന്ദഗതിയിലുള്ളതും, ചിലപ്പോൾ മറ്റുള്ളവരെ ഉറക്കം നഷ്ടപ്പെട്ടവരായി തോന്നിപ്പിക്കുന്ന തരത്തിൽ ഫലം നൽകുന്നതുമായ ഒരു തരം. ( GOV.UK )
"വലിയ മോഡലുകൾ, കൂടുതൽ GPU-കൾ" എന്നതിൽ മാത്രമല്ല ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നത് - ഇത് ഭ്രമാത്മകത, മെമ്മറിക്കുറവ്, പ്രവചനാതീതമായ യുക്തി എന്നിവ പോലുള്ള സ്ഥിരമായ പോരായ്മകൾ പരിഹരിക്കുന്നതിനൊപ്പം AI റിസർച്ച് റിസോഴ്സ് വഴി ഗവേഷകർക്ക് ഗുരുതരമായ കമ്പ്യൂട്ടിലേക്ക് പ്രവേശനം നൽകുന്നു. വളരെ യുക്തിസഹമായി തോന്നുന്നു... കൂടാതെ, നിശബ്ദമായി, യുകെയിലെ മികച്ച മനസ്സുകളെ മറ്റെവിടെയെങ്കിലും തൽക്ഷണം വാക്വം ചെയ്യുന്നത് തടയാനുള്ള ശ്രമം പോലെയാണ്. ( GOV.UK )
🧨 ഓപ്പൺഎഐ, ആന്ത്രോപിക് എന്നിവയിലെ നിക്ഷേപങ്ങൾ അവസാനിപ്പിക്കുമെന്ന് എൻവിഡിയ സിഇഒ സൂചന നൽകുന്നു ↗
ഐപിഒ ഡൈനാമിക്സും (ചർച്ച ചെയ്യപ്പെടുന്ന പരിശോധനകളുടെ വ്യാപ്തിയും) ആ രീതിയിലുള്ള ഫണ്ടിംഗ് നേടുന്നത് കൂടുതൽ ബുദ്ധിമുട്ടാക്കുന്നതിനാൽ, എൻവിഡിയ അതേ രീതിയിൽ ഫ്രോണ്ടിയർ എഐ ലാബുകളിൽ നിക്ഷേപം നടത്തുന്നത് തുടരില്ലെന്ന് ജെൻസൺ ഹുവാങ് സൂചന നൽകുന്നു. ( റോയിട്ടേഴ്സ് )
ഇത് ഒരു നിശ്ചിത സമയത്തേക്ക് ശ്രദ്ധിക്കേണ്ട ഒരു സ്വരമാറ്റമാണ്: ഈ മുഴുവൻ കുതിച്ചുചാട്ടത്തിന്റെയും രാജാവ് എൻവിഡിയയാണ്, എന്നിട്ടും "ഖനിത്തൊഴിലാളികളുടെ ഭാഗങ്ങൾ സ്വന്തമാക്കുക" എന്നത് എല്ലായ്പ്പോഴും കളിയല്ലെന്ന് ഇത് സൂചന നൽകുന്നു. അല്ലെങ്കിൽ ഒരുപക്ഷേ അത് ഉറക്കെ സംരക്ഷിക്കുന്നതായിരിക്കാം, അത് സിഇഒമാർ ശ്വസിക്കുന്നത് പോലെയാണ് ചെയ്യുന്നത്. ( റോയിട്ടേഴ്സ് )
🧩 എക്സ്ക്ലൂസീവ്: AI സുരക്ഷാ സംവിധാനങ്ങളെച്ചൊല്ലിയുള്ള സംഘർഷം കുറയ്ക്കാൻ നിക്ഷേപകർ ശ്രമിക്കുമ്പോൾ, പെന്റഗൺ പോരാട്ടത്തിൽ ആന്ത്രോപിക്കിനെ വൻകിട ടെക് ഗ്രൂപ്പ് പിന്തുണയ്ക്കുന്നു ↗
ആന്ത്രോപിക്കിന്റെ പെന്റഗൺ നിലപാട് പൂർണ്ണമായും ഒരു പ്രഷർ കുക്കറായി മാറുകയാണ് - നിക്ഷേപകർ താപനില കുറയ്ക്കാൻ ആഗ്രഹിക്കുന്നതായി റിപ്പോർട്ടുണ്ട്, അതേസമയം കമ്പനി സുരക്ഷാ ഭാഷയിൽ (പ്രത്യേകിച്ച് നിരീക്ഷണവുമായി ബന്ധപ്പെട്ട്) ഉറച്ചുനിൽക്കാൻ ശ്രമിക്കുന്നു. ( റോയിട്ടേഴ്സ് )
കഥയുടെ ഉപവാചകം വാചകത്തേക്കാൾ ഉച്ചത്തിലാണ്: AI യുഗത്തിൽ, കരാറിന്റെ പദപ്രയോഗങ്ങൾ "നിയമപരമായ നിസ്സാരവൽക്കരണം" അല്ല, അത് അടിസ്ഥാനപരമായി ഉൽപ്പന്ന നയമാണ് - ഒരു മോഡൽ ഒരു ഉപകരണമോ, ആയുധമോ, അല്ലെങ്കിൽ വിശാലമായ ബാധ്യതയോ ആയി മാറണോ എന്ന് അത് തീരുമാനിക്കുന്നു. ( റോയിട്ടേഴ്സ് )
🪖 പെന്റഗണിന്റെ AI ഉപയോഗം നിയന്ത്രിക്കാൻ OpenAI-ക്ക് കഴിയില്ലെന്ന് സാം ആൾട്ട്മാൻ സമ്മതിക്കുന്നു ↗
പെന്റഗൺ വിന്യസിച്ചുകഴിഞ്ഞാൽ അതിന്റെ AI എങ്ങനെ ഉപയോഗിക്കുമെന്ന് ഓപ്പൺഎഐക്ക് നിയന്ത്രിക്കാൻ കഴിയില്ലെന്ന് ആൾട്ട്മാൻ ജീവനക്കാരോട് പറഞ്ഞതായി റിപ്പോർട്ടുണ്ട് - ആളുകൾ വലയം ചെയ്തിരുന്ന കൃത്യമായ ഭയത്തെ സൂചിപ്പിക്കുന്നതിനാൽ അത് ഒരു ഇടിമുഴക്കത്തോടെയാണ് നിലത്തുവീഴുന്നത്. ( ദി ഗാർഡിയൻ )
വിശാലമായ പശ്ചാത്തലം, "നിയമങ്ങൾ ഉപയോഗിച്ച് ഞങ്ങൾ സഹായിക്കും", "ഞങ്ങൾ സഹായിക്കും, പൂർണ്ണവിരാമം" എന്നിവ തമ്മിലുള്ള സംഘർഷം വർദ്ധിക്കുന്നതും സൈനിക ദത്തെടുക്കൽ തിടുക്കത്തിലോ അവസരവാദപരമായോ തോന്നുമ്പോൾ ആന്തരികവും പരസ്യവുമായ തിരിച്ചടിയുമാണ്. ഇവിടുത്തെ ധാർമ്മികത ഒരു വൃത്തിയുള്ള രേഖയല്ല, മറിച്ച് നനഞ്ഞ പെയിന്റ് ചോർച്ചയാണ് - എല്ലാവരും അതിൽ കാലുകുത്തി, പിന്നീട് അത് ആരുടെ ഷൂ ആണെന്ന് വാദിക്കുന്നു. ( ദി ഗാർഡിയൻ )
🧬 സാംഗർ ഇൻസ്റ്റിറ്റ്യൂട്ടുമായും ഗൂഗിൾ ഡീപ് മൈൻഡുമായും ജീനോമിക്സിൽ പുതിയ AI ഫെലോഷിപ്പ് ↗
വെൽകം സാംഗർ ഇൻസ്റ്റിറ്റ്യൂട്ട്, ജീനോമിക്സിൽ AI പ്രയോഗിക്കുന്നതിൽ ശ്രദ്ധ കേന്ദ്രീകരിച്ച് ഡീപ്പ് മൈൻഡ് ധനസഹായത്തോടെയുള്ള ഒരു അക്കാദമിക് ഫെലോഷിപ്പ് ആരംഭിക്കുന്നു - ഈ പ്രത്യേക മേഖലയിലെ ഒരു ഡീപ്പ് മൈൻഡ് ഫെലോയ്ക്ക് ഇതാദ്യമായാണ് ഒരു സ്ലോട്ടായി ഇത് സ്ഥാപിച്ചിരിക്കുന്നത്. ( sanger.ac.uk )
രസകരമായ കാര്യം (സത്യം പറഞ്ഞാൽ, അൽപ്പം ഉന്മേഷദായകവുമാണ്) AI എല്ലായിടത്തും ഇല്ലാത്ത, ഇതുവരെ പര്യവേക്ഷണം ചെയ്യപ്പെടാത്ത ജീനോമിക്സ് പ്രശ്നങ്ങൾക്ക് നൽകുന്ന ഊന്നലാണ് - കൂടാതെ DeepMind സഹപ്രവർത്തകരുടെ ഗവേഷണത്തിന് നേതൃത്വം നൽകുന്നില്ല എന്ന വ്യക്തമായ കുറിപ്പും. "നമ്മുടെ റോഡ്മാപ്പ് ഒപ്റ്റിമൈസ് ചെയ്യാൻ പോകുന്നതിനുപകരം" ആർക്കെങ്കിലും ഒരു റോക്കറ്റ് നൽകി "എന്തെങ്കിലും കണ്ടെത്തുക" എന്ന് പറയുന്നത് പോലെയാണിത്. ( sanger.ac.uk )
പതിവുചോദ്യങ്ങൾ
യുകെ സർക്കാർ പിന്തുണയുള്ള ഫണ്ടമെന്റൽ എഐ റിസർച്ച് ലാബ് എന്താണ്, അത് എന്തുചെയ്യും?
സർക്കാർ പിന്തുണയുള്ള ഫണ്ടമെന്റൽ എഐ റിസർച്ച് ലാബിനെ ഒരു "നീലാകാശ" ഗവേഷണ ശ്രമമായാണ് കാണുന്നത് - ഉയർന്ന അപകടസാധ്യതയുള്ള ഈ ജോലിക്ക് ഫലം ലഭിക്കാൻ സമയമെടുക്കും. വലിയ മോഡലുകളെ സ്കെയിലിംഗ് ചെയ്യുന്നതിൽ മാത്രം ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നതിനുപകരം, ഭ്രമാത്മകത, ഹ്രസ്വ മെമ്മറി, പ്രവചനാതീതമായ ന്യായവാദം തുടങ്ങിയ സ്ഥിരമായ പ്രശ്നങ്ങൾ ഏറ്റെടുക്കാനാണ് ഇത് ലക്ഷ്യമിടുന്നത്. കൂടുതൽ ജിപിയു ചേർക്കുന്നതിലൂടെ മാത്രമല്ല, അടിസ്ഥാനകാര്യങ്ങളിൽ നിന്നാണ് മുന്നേറ്റങ്ങൾ ഉണ്ടാകുന്നതെന്ന് വാദിക്കുന്നു.
യുകെ ഫണ്ടമെന്റൽ AI റിസർച്ച് ലാബ് ഗവേഷകരെ ഗുരുതരമായ കമ്പ്യൂട്ട് ആക്സസ് ചെയ്യാൻ എങ്ങനെ സഹായിക്കും?
യുകെ ഫണ്ടമെന്റൽ എഐ റിസർച്ച് ലാബിനോടൊപ്പം, എഐ റിസർച്ച് റിസോഴ്സ് വഴി ഗണ്യമായ കമ്പ്യൂട്ടിലേക്കുള്ള ആക്സസ് ഈ പദ്ധതി എടുത്തുകാണിക്കുന്നു. പ്രായോഗികമായി, ചെലവോ അടിസ്ഥാന സൗകര്യങ്ങളോ മൂലം പരിമിതപ്പെടുത്തുന്ന പരീക്ഷണങ്ങൾ ഗവേഷകർക്ക് നടത്താൻ കഴിയുമെന്നാണ് ഇതിനർത്ഥം. വിശ്വാസ്യത, കരുത്ത് തുടങ്ങിയ പ്രശ്നങ്ങൾ സൈദ്ധാന്തികമായി മാത്രമല്ല, മൂർത്തമാകുന്ന ഒരു സ്കെയിലിൽ ആശയങ്ങൾ പരീക്ഷിക്കാനും ഇത് ടീമുകളെ പ്രാപ്തമാക്കുന്നു.
എന്തുകൊണ്ടാണ് യുകെ ഭ്രമാത്മകത, ഹ്രസ്വ ഓർമ്മശക്തി, പ്രവചനാതീതമായ യുക്തി എന്നിവയ്ക്ക് പ്രാധാന്യം നൽകുന്നത്?
വിന്യാസത്തിൽ ഉയർന്നുവരുന്ന തരത്തിലുള്ള ബലഹീനതകളാണ് ആ ബലഹീനതകൾ, അവ വിശ്വാസത്തെ വേഗത്തിൽ ഇല്ലാതാക്കും. പ്രസ്താവിച്ച ശ്രദ്ധ ലക്ഷ്യം വെറും കഴിവ് മാത്രമല്ല, വിശ്വാസ്യതയുമാണ് - നിർമ്മിച്ച ഔട്ട്പുട്ടുകൾ കുറയ്ക്കുക, മോഡലുകൾ ദൈർഘ്യമേറിയ സന്ദർഭം കൈകാര്യം ചെയ്യുന്ന രീതി മെച്ചപ്പെടുത്തുക, ന്യായവാദം അസ്ഥിരമാക്കുക. അത്തരം ജോലികൾ പലപ്പോഴും മന്ദഗതിയിലുള്ളതും അപകടസാധ്യതയുള്ളതുമാണ്, അതുകൊണ്ടാണ് ഇത് അടിസ്ഥാന ഗവേഷണമായി രൂപപ്പെടുത്തുന്നത്.
ഓപ്പൺഎഐയിലോ ആന്ത്രോപിക്കിലോ നിക്ഷേപിക്കുന്നതിനെക്കുറിച്ചുള്ള എൻവിഡിയയുടെ സ്വരം മാറ്റം യഥാർത്ഥത്തിൽ എന്താണ് സൂചിപ്പിക്കുന്നത്?
ഐപിഒ ഡൈനാമിക്സും വലിയ ചെക്ക് വലുപ്പങ്ങളും ആ തന്ത്രത്തെ സങ്കീർണ്ണമാക്കുന്നതിനാൽ, എൻവിഡിയ അതേ രീതിയിൽ ഫ്രണ്ടിയർ ലാബുകളിൽ നിക്ഷേപം തുടരില്ല എന്നതിന്റെ സൂചനയായി റിപ്പോർട്ടിംഗ് അതിനെ രൂപപ്പെടുത്തുന്നു. AI ഹാർഡ്വെയറിലെ "തിരഞ്ഞെടുക്കൽ" നേതാവെന്ന നിലയിൽ പോലും, ഉടമസ്ഥാവകാശ ഓഹരികൾ എല്ലായ്പ്പോഴും മികച്ച കളിയല്ലെന്ന് അവർ സൂചിപ്പിക്കുന്നു. എക്സിക്യൂട്ടീവ് അഭിപ്രായങ്ങളിൽ സാധാരണയായി കാണപ്പെടുന്ന ജാഗ്രതയോടെയുള്ള സന്ദേശമയയ്ക്കൽ കൂടിയാണിത്.
"സേഫ്ഗാർഡ് ഭാഷ"യെക്കുറിച്ചുള്ള ആന്ത്രോപിക്കിന്റെ പെന്റഗൺ തർക്കം ഇത്ര വലിയ കാര്യമാകുന്നത് എന്തുകൊണ്ട്?
ലേഖനത്തിന്റെ പ്രധാന കാര്യം, കരാറിലെ പദങ്ങൾ ഉൽപ്പന്ന നയമായി മാറാം എന്നതാണ് - പ്രത്യേകിച്ചും അത് നിരീക്ഷണത്തെയും മറ്റ് സെൻസിറ്റീവ് ഉപയോഗങ്ങളെയും ബാധിക്കുമ്പോൾ. കമ്പനി സുരക്ഷാ മുൻകരുതലുകളിൽ ഉറച്ചുനിൽക്കാൻ ശ്രമിക്കുമ്പോൾ, നിക്ഷേപകർ സംഘർഷം ലഘൂകരിക്കാൻ ആഗ്രഹിക്കുന്നതായി റിപ്പോർട്ടുണ്ട്. പല AI വിന്യാസങ്ങളിലും, സിസ്റ്റം എന്തിനുവേണ്ടി ഉപയോഗിക്കാം, കമ്പനി ഫലപ്രദമായി എന്ത് അപകടസാധ്യതകൾ സ്വീകരിക്കുന്നു എന്നിവയെ ആ വ്യവസ്ഥകൾ രൂപപ്പെടുത്തുന്നു.
പെന്റഗൺ AI ഉപയോഗിക്കുന്ന രീതി നിയന്ത്രിക്കാൻ OpenAI-ക്ക് കഴിയില്ലെന്ന് സാം ആൾട്ട്മാൻ പറയുമ്പോൾ എന്താണ് അർത്ഥമാക്കുന്നത്?
ഇത് ഒരു പ്രായോഗിക പരിമിതിയെ വിവരിക്കുന്നു: ഒരു ഉപകരണം വിന്യസിച്ചുകഴിഞ്ഞാൽ, യഥാർത്ഥ ഡെവലപ്പർക്ക് താഴത്തെ ഉപയോഗം നിയന്ത്രിക്കാനുള്ള പരിമിതമായ കഴിവ് മാത്രമേ ഉണ്ടാകൂ. സൈനിക ദത്തെടുക്കലിനെക്കുറിച്ച് ആളുകൾ ഉയർത്തുന്ന കാതലായ ഭയത്തിലേക്ക് ഇത് വിരൽ ചൂണ്ടുന്നതിനാലാണ് ഇത് പ്രധാനമായും സംഭവിക്കുന്നത് - കരാർ ഘട്ടത്തിൽ നിയമങ്ങൾ നിലവിലുണ്ടാകാം, പക്ഷേ നടപ്പിലാക്കൽ ബുദ്ധിമുട്ടായിരിക്കും. "സഹായം, നിയന്ത്രണങ്ങളോടെ", "സഹായം, പരിഗണിക്കാതെ" എന്നിവ തമ്മിലുള്ള വിശാലമായ പിരിമുറുക്കത്തെയും ഇത് പ്രതിഫലിപ്പിക്കുന്നു