ചാറ്റ്ജിപിടി നിർമ്മാതാക്കളായ ഓപ്പൺഎഐ(OpenAI ) അടുത്തിടെ സോറ ആപ്പ്(sora app) പുറത്തിറക്കിയിരുന്നു. കമ്പനിയുടെ ആദ്യ തലമുറ മോഡലാണ് സോറ . കമ്പനി ഇപ്പോൾ ഇത് ഒരു സ്റ്റാൻഡ്-എലോൺ ആപ്പായി പുറത്തിറക്കിയിരിക്കിയിരിക്കുകയാണ്. ഇത് ഇൻസ്റ്റാഗ്രാമിനും ടിക് ടോക്കിനും എതിരാളിയായാണ് കണക്കാക്കുന്നത്. ലോഞ്ച് ചെയ്തതിന് തൊട്ടുപിന്നാലെ ആപ്പിൾ ആപ്പ് സ്റ്റോറിൽ സോറ ആപ്പ് മൂന്നാം സ്ഥാനത്തേക്ക് ഉയർന്നിട്ടുമുണ്ട്.
കമ്പനി അടുത്തിടെ സോറ 2 മോഡൽ പുറത്തിറക്കി. ഇത് ഇതുവരെ കമ്പനിയുടെ ഏറ്റവും ശക്തമായ വീഡിയോ ജനറേറ്ററാണ്. ചെറിയ വീഡിയോകൾക്കായി പ്രത്യേകം സോറ ആപ്പ് രൂപകൽപ്പന ചെയ്തിരിക്കുന്നത് ഓപ്പൺഎഐ ആണ്. ഉപയോക്താക്കൾക്ക് AI- ജനറേറ്റഡ് വീഡിയോകൾ പങ്കിടാൻ കഴിയും. അതായത് AI- ജനറേറ്റഡ് ഉള്ളടക്കം മാത്രമേ ഇവിടെ ലഭ്യമാകൂ. ഇതിനെ ഡീപ്ഫേക്ക് വീഡിയോകൾ എന്നും വിളിക്കാം. അതേസമയം പുറത്തിറങ്ങി ആദ്യ ദിവസങ്ങളില് തന്നെ സോറ കൃത്രിമബുദ്ധിക്ക് എത്ര എളുപ്പത്തില് ഹൈപ്പര്-റിയലിസ്റ്റിക്, എന്നാല് പൂര്ണ്ണമായും കെട്ടിച്ചമച്ച വീഡിയോകള് സൃഷ്ടിക്കാന് കഴിയുമെന്ന് ലോകത്തിന് കാണിച്ച് കൊടുത്തിരിക്കുകയാണ്. തിരഞ്ഞെടുപ്പ് തട്ടിപ്പ്, പ്രതിഷേധങ്ങള്, കവര്ച്ചകള്, തെരുവ് അക്രമങ്ങള് എന്നിവ കാണിക്കുന്ന ക്ലിപ്പുകള് സോറയിലൂടെ ഉപയോക്താക്കള് സൃഷ്ടിച്ചിട്ടുണ്ട്.എന്നാല് അവയൊന്നും യഥാര്ത്ഥത്തില് സംഭവിച്ചിട്ടില്ല. ഉപയോക്താക്കളുടെ മുഖങ്ങളും ശബ്ദങ്ങളും, അതുപോലെ സാങ്കല്പ്പിക കഥാപാത്രങ്ങള്, കമ്പനി ലോഗോകള്, മരിച്ചുപോയ സെലിബ്രിറ്റികള് എന്നിവയെ ആപ്പിന് സംയോജിപ്പിക്കാനും കഴിയും. ഇത് ആള്മാറാട്ടത്തെയും ദുരുപയോഗത്തെയും കുറിച്ചുള്ള ആശങ്കകള് ഉയര്ത്തുന്നു. എഐ സൃഷ്ടിച്ച അത്തരം ഉള്ളടക്കം തെറ്റായ വിവരങ്ങള്, പ്രചാരണം, തട്ടിപ്പുകള്, കെട്ടിച്ചമച്ച തെളിവുകള് എന്നിവയ്ക്ക് കാരണമാകും എന്നും അത് വലിയ പ്രത്യാഘാതങ്ങള് സൃഷ്ടിക്കുമെന്നും വിദഗ്ധര് മുന്നറിയിപ്പ് നല്കുന്നു. പരിചയസമ്പന്നരായ വിശകലന വിദഗ്ധര്ക്ക് പോലും ഇപ്പോള് യഥാര്ത്ഥ വീഡിയോയും വ്യാജ വീഡിയോയും വേര്തിരിച്ചറിയാന് പ്രയാസമാണ്. അതേസമയം സുരക്ഷാ മുന്കരുതലുകള് നടപ്പിലാക്കിയിട്ടുണ്ടെന്നാണ് ഓപ്പണ്എഐ പറയുന്നത്. ലോക നേതാക്കള്, ഗ്രാഫിക് അക്രമം, അല്ലെങ്കില് അനധികൃത സെലിബ്രിറ്റികള് എന്നിവ ഉള്പ്പെടുന്ന ഉള്ളടക്കം ആപ്പ് തടയുകയും ജനറേറ്റ് ചെയ്ത വീഡിയോകളില് വാട്ടര്മാര്ക്കുകള് ചേര്ക്കുകയും ചെയ്യുന്നു. എന്നിരുന്നാലും, ന്യൂയോര്ക്ക് ടൈംസിന്റെ പരിശോധനകളില് ഈ അവകാശവാദങ്ങളില് എല്ലാം പഴുതുകള് ഉണ്ടെന്ന് കണ്ടെത്തിയിട്ടുണ്ട്. വീടുകളില് അതിക്രമിച്ചു കയറുന്നതിന്റെ വീഡിയോകള്, മുന് പ്രസിഡന്റ് ബരാക് ഒബാമയുടെ ശബ്ദം ഉള്ക്കൊള്ളുന്ന വ്യാജ രാഷ്ട്രീയ റാലികള് എന്നിവ സോറ സൃഷ്ടിച്ചതായി ന്യൂയോര്ക്ക് ടൈംസ് കണ്ടെത്തി. ആപ്പിന് നിലവില് ഉപയോക്തൃ ഐഡന്റിറ്റി പരിശോധന ആവശ്യമില്ല എന്നതും തിരിച്ചടിയാണ്.
കുറച്ച് വർഷങ്ങൾക്ക് മുമ്പ് വരെ ഡീപ്ഫേക്ക് വീഡിയോകൾ കുറ്റകൃത്യമായി കണക്കാക്കപ്പെട്ടിരുന്നു. എന്നാൽ AI വീഡിയോ ജനറേറ്ററുകളുടെ വരവോടെ അവ സാധാരണമായി. ഇനി നിങ്ങൾക്ക് ആരുടെയും ഫോട്ടോയോ വീഡിയോയോ ഉപയോഗിച്ച് എന്തും സൃഷ്ടിക്കാൻ കഴിയും. അവ വളരെ യഥാർത്ഥമായി കാണപ്പെടുന്നു, പലപ്പോഴും ആളുകളെ വഞ്ചിക്കപ്പെടുന്നു.
ജനറേറ്റീവ് AI യുടെ ആവിർഭാവത്തിനുശേഷം, സോഷ്യൽ മീഡിയയിൽ AI-ജനറേറ്റഡ് വീഡിയോകൾ നിറഞ്ഞു. ഈ വീഡിയോകൾക്ക് ധാരാളം കാഴ്ചകൾ ലഭിക്കുകയും മികച്ച സ്വീകാര്യത ലഭിക്കുകയും ചെയ്യുന്നു. ഒരുപക്ഷേ അതുകൊണ്ടാണ് OpenAI അതിന്റെ AI-ജനറേറ്റഡ് വീഡിയോ പ്ലാറ്റ്ഫോമിനെ ഒരു സോഷ്യൽ മീഡിയ പ്ലാറ്റ്ഫോമാക്കി മാറ്റുന്നതിനെക്കുറിച്ച് പരിഗണിക്കുന്നത്. Sora ആപ്പ് സമാരംഭിച്ചുകൊണ്ട് കമ്പനി അത് തന്നെയാണ് ചെയ്തത്. സോറ ആപ്പ് ഉപയോഗിച്ച്, നിങ്ങൾക്ക് ആരുടെയും ഫോട്ടോയോ വീഡിയോയോ എടുത്ത് നിങ്ങൾക്ക് ഇഷ്ടമുള്ള രീതിയിൽ അത് പുനഃസൃഷ്ടിക്കാൻ കഴിയും. ഇത് യഥാർത്ഥ വസ്തുവിന്റെ അതേ യഥാർത്ഥമായി കാണപ്പെടുന്നു, കാരണം ഇത് റിയലിസ്റ്റിക് AI വീഡിയോകൾ സൃഷ്ടിക്കാൻ ഒരു ഓപ്പൺ AI വീഡിയോ ജനറേഷൻ മോഡലായ സോറ 2 ഉപയോഗിക്കുന്നു. അതായത് ആളുകളുടെ ഫോട്ടോകൾ ഇവിടെയും ദുരുപയോഗം ചെയ്യപ്പെടാം.
സോറ ആപ്പിൽ ലൈംഗിക ഉള്ളടക്കം സൃഷ്ടിക്കുന്നത് നിരോധിക്കുന്നത് പോലുള്ള സുരക്ഷാ നടപടികൾ നടപ്പിലാക്കിയതായി കമ്പനി അവകാശപ്പെടുന്നുണ്ടെങ്കിലും. അക്രമവുമായി ബന്ധപ്പെട്ട നിർദ്ദേശങ്ങളും തടയും. എന്നിരുന്നാലും, വ്യത്യസ്ത നിർദ്ദേശങ്ങൾ ഉപയോഗിച്ച് ആളുകൾ ഈ നിയന്ത്രണങ്ങൾ മറികടക്കുന്നു. മെറ്റാ അടുത്തിടെ വൈബ് എന്ന് പേരിട്ടിരിക്കുന്ന ഒരു AI-ഒൺലി ഫീഡ് പുറത്തിറക്കി. ഇവിടെ, ഉപയോക്താക്കൾക്ക് AI-ജനറേറ്റഡ് ഹ്രസ്വ വീഡിയോകൾ മാത്രമേ കാണാനാകൂ. ഓപ്പൺഎഐയുടെ പുതിയ സോറ ആപ്പും മെറ്റയുടെ വൈബിനോട് മത്സരിക്കും.
നിലവിൽ, സോറ ആപ്പ് യുഎസിൽ ക്ഷണിതാക്കൾക്ക് മാത്രമേ ഉപയോഗിക്കാൻ കഴിയൂ. അതായത് ഒരു ക്ഷണത്തിലൂടെ മാത്രമേ ഇത് ഉപയോഗിക്കാൻ കഴിയൂ. ആപ്പ് ഇതുവരെ ഇന്ത്യയിൽ ലോഞ്ച് ചെയ്തിട്ടില്ല. കമ്പനി കുറച്ച് സമയത്തേക്ക് യുഎസ് വിപണിയിൽ ഇത് പരീക്ഷിക്കാൻ സാധ്യതയുണ്ട്, അതിനുശേഷം മറ്റ് രാജ്യങ്ങളിലും ഇത് ലോഞ്ച് ചെയ്തേക്കാം
















