[ad_1]
AI બનાવટી ઝડપથી અમારી ઑનલાઇન સામે આવતી સૌથી મોટી સમસ્યાઓમાંની એક બની રહી છે. જનરેટિવ આર્ટિફિશિયલ ઇન્ટેલિજન્સ ટૂલ્સના ઉદય અને દુરુપયોગના પરિણામે ભ્રામક ચિત્રો, વિડિયો અને ઑડિયોનો ફેલાવો થઈ રહ્યો છે.
ટેલર સ્વિફ્ટથી લઈને ડોનાલ્ડ ટ્રમ્પ સુધીના દરેકને દર્શાવતી AI ડીપ ફેક્સ લગભગ દરરોજ ક્રોપ થઈ રહી છે, જે નથી તેમાંથી વાસ્તવિક શું છે તે કહેવું મુશ્કેલ બની રહ્યું છે. DALL-E, Midjourney અને OpenAI’s Sora જેવા વિડિયો અને ઈમેજ જનરેટર્સ કોઈપણ ટેકનિકલ કૌશલ્ય વિનાના લોકો માટે ડીપફેક્સ બનાવવાનું સરળ બનાવે છે — ફક્ત એક વિનંતી લખો અને સિસ્ટમ તેને બહાર કાઢે છે.
આ નકલી છબીઓ હાનિકારક લાગે છે. પરંતુ તેનો ઉપયોગ કૌભાંડો અને ઓળખની ચોરી અથવા પ્રચાર અને ચૂંટણીમાં છેડછાડ કરવા માટે થઈ શકે છે.
એઆઈ ડીપફેક્સ લોકશાહીને જોખમમાં મૂકે છે. પાછા લડવા માટે અહીં 4 રીતો છે
ડીપફેક્સ દ્વારા છેતરાઈ જવાથી કેવી રીતે બચવું તે અહીં છે:
ડીપફેકને કેવી રીતે શોધવું
ડીપફેક્સના શરૂઆતના દિવસોમાં, ટેક્નોલોજી સંપૂર્ણથી ઘણી દૂર હતી અને ઘણી વખત મેનીપ્યુલેશનના સંકેતો છોડી દેતી હતી. હકીકત-તપાસકર્તાઓએ સ્પષ્ટ ભૂલો સાથેની છબીઓ દર્શાવી છે, જેમ કે છ આંગળીઓવાળા હાથ અથવા અલગ-અલગ આકારના લેન્સવાળા ચશ્મા.
પરંતુ જેમ જેમ AI માં સુધારો થયો છે, તેમ તે ઘણું કઠણ બન્યું છે. કન્સલ્ટિંગ ફર્મ લેટેન્ટ સ્પેસ એડવાઇઝરીના સ્થાપક અને જનરેટિવ AIના અગ્રણી નિષ્ણાત હેનરી અજડેરે જણાવ્યું હતું કે, કેટલીક વ્યાપક રીતે વહેંચાયેલી સલાહ – જેમ કે ડીપફેક વીડિયોમાં લોકોમાં અકુદરતી ઝબકવાની પેટર્ન શોધવી – હવે તે પકડી શકતી નથી.
તેમ છતાં, ત્યાં જોવા માટે કેટલીક વસ્તુઓ છે, તેમણે જણાવ્યું હતું.
અજડેરે જણાવ્યું હતું કે ઘણા બધા AI ડીપફેક ફોટા, ખાસ કરીને લોકોના, તેમને ઇલેક્ટ્રોનિક ચમક આપે છે, “એક સૌંદર્યલક્ષી પ્રકારની સ્મૂથિંગ અસર” જે ત્વચાને “અવિશ્વસનીય રીતે પોલીશ્ડ દેખાતી” છોડી દે છે.
જોકે, તેમણે ચેતવણી આપી હતી કે સર્જનાત્મક પ્રોમ્પ્ટિંગ ક્યારેક આ અને AI મેનીપ્યુલેશનના અન્ય ઘણા ચિહ્નોને દૂર કરી શકે છે.
પડછાયાઓ અને લાઇટિંગની સુસંગતતા તપાસો. ઘણીવાર વિષય સ્પષ્ટ ધ્યાન કેન્દ્રિત કરે છે અને ખાતરીપૂર્વક જીવંત દેખાય છે પરંતુ પૃષ્ઠભૂમિમાંના ઘટકો એટલા વાસ્તવિક અથવા પોલિશ્ડ ન હોઈ શકે.
ચહેરાઓ જુઓ
ફેસ-સ્વેપિંગ એ સૌથી સામાન્ય ડીપફેક પદ્ધતિઓમાંની એક છે. નિષ્ણાતો ચહેરાના કિનારીઓને નજીકથી જોવાની સલાહ આપે છે. શું ચહેરાની ત્વચાનો સ્વર બાકીના માથા કે શરીર સાથે મેળ ખાય છે? ચહેરાની કિનારીઓ તીક્ષ્ણ છે કે ઝાંખી છે?
જો તમને શંકા હોય કે કોઈ વ્યક્તિ બોલતી હોય તેનો વિડિયો ડોક્ટર કરવામાં આવ્યો છે, તો તેનું મોં જુઓ. શું તેમના હોઠની હિલચાલ ઑડિયો સાથે સંપૂર્ણ રીતે મેળ ખાય છે?
અજડેર દાંત જોવાનું સૂચન કરે છે. શું તેઓ સ્પષ્ટ છે, અથવા તેઓ અસ્પષ્ટ છે અને કોઈક રીતે તેઓ વાસ્તવિક જીવનમાં કેવી દેખાય છે તેની સાથે સુસંગત નથી?
સાયબર સિક્યુરિટી કંપની નોર્ટન કહે છે કે વ્યક્તિગત દાંત પેદા કરવા માટે એલ્ગોરિધમ્સ હજી પૂરતા અત્યાધુનિક ન હોઈ શકે, તેથી વ્યક્તિગત દાંત માટે રૂપરેખાનો અભાવ એક સંકેત હોઈ શકે છે.
મોટા ચિત્ર વિશે વિચારો
ક્યારેક સંદર્ભ મહત્વપૂર્ણ છે. તમે જે જોઈ રહ્યાં છો તે બુદ્ધિગમ્ય છે કે કેમ તે ધ્યાનમાં લેવા માટે એક બીટ લો.
Poynter જર્નાલિઝમ વેબસાઈટ સલાહ આપે છે કે જો તમે કોઈ સાર્વજનિક વ્યક્તિ “અતિશયોક્તિયુક્ત, અવાસ્તવિક અથવા પાત્રમાં ન હોય તેવું” એવું કંઈક કરતા જોશો તો તે ડીપ ફેક હોઈ શકે છે.
ઉદાહરણ તરીકે, શું પોપ ખરેખર લક્ઝરી પફર જેકેટ પહેરતા હશે, જેમ કે કુખ્યાત નકલી ફોટો દ્વારા દર્શાવવામાં આવ્યું છે? જો તેણે કર્યું હોય, તો શું કાયદેસર સ્ત્રોતો દ્વારા પ્રકાશિત વધારાના ફોટા અથવા વિડિઓઝ હશે નહીં?
નકલી શોધવા માટે AI નો ઉપયોગ કરવો
AI સામે લડવા માટે AI નો ઉપયોગ કરવાનો બીજો અભિગમ છે.
માઈક્રોસોફ્ટે એક ઓથેન્ટિકેટર ટૂલ વિકસાવ્યું છે જે ફોટા અથવા વિડિયોનું વિશ્લેષણ કરી શકે છે કે કેમ તે અંગે આત્મવિશ્વાસનો સ્કોર આપવામાં આવે છે. Chipmaker Intelનું FakeCatcher એ ઇમેજના પિક્સેલનું પૃથ્થકરણ કરવા માટે એલ્ગોરિધમ્સનો ઉપયોગ કરે છે કે તે વાસ્તવિક છે કે નકલી.
જો તમે કોઈ ફાઇલ અપલોડ કરો છો અથવા શંકાસ્પદ સામગ્રીની લિંક પેસ્ટ કરો છો તો બનાવટીને સુંઘવાનું વચન આપતા ઓનલાઈન સાધનો છે. પરંતુ કેટલાક, જેમ કે Microsoft ના પ્રમાણકર્તા, ફક્ત પસંદ કરેલા ભાગીદારો માટે જ ઉપલબ્ધ છે અને જાહેર જનતા માટે નહીં. તે એટલા માટે કારણ કે સંશોધકો ખરાબ કલાકારોને ટિપ આપવા માંગતા નથી અને તેમને ડીપફેક આર્મ્સ રેસમાં મોટી ધાર આપવા માંગતા નથી.
ડિટેક્શન ટૂલ્સની ખુલ્લી ઍક્સેસ લોકોને એવી છાપ પણ આપી શકે છે કે તેઓ “ઈશ્વર જેવી તકનીકો છે જે આપણા માટે નિર્ણાયક વિચારને આઉટસોર્સ કરી શકે છે” જ્યારે તેના બદલે, આપણે તેમની મર્યાદાઓ વિશે જાગૃત રહેવાની જરૂર છે, અજડેરે જણાવ્યું હતું.
ફોક્સ ન્યૂઝ એપ મેળવવા માટે અહીં ક્લિક કરો
નકલી શોધવા માટેના અવરોધો
આ બધું કહેવામાં આવે છે, આર્ટિફિશિયલ ઇન્ટેલિજન્સ બેકનેક સ્પીડ સાથે આગળ વધી રહ્યું છે અને AI મોડલ્સને ઓછી ખામીઓ સાથે વધુને વધુ ઉચ્ચ-ગુણવત્તાવાળી સામગ્રી ઉત્પન્ન કરવા માટે ઇન્ટરનેટ ડેટા પર તાલીમ આપવામાં આવી રહી છે.
તેનો અર્થ એ કે આ સલાહ હવેથી એક વર્ષ પછી પણ માન્ય રહેશે તેની કોઈ ગેરેંટી નથી.
નિષ્ણાતો કહે છે કે ડિજિટલ શેરલોક બનવા માટે સામાન્ય લોકો પર બોજ નાખવો તે ખતરનાક પણ હોઈ શકે છે કારણ કે તે તેમને આત્મવિશ્વાસની ખોટી ભાવના આપી શકે છે કારણ કે પ્રશિક્ષિત આંખો માટે પણ, ડીપફેક્સ શોધવાનું વધુને વધુ મુશ્કેલ બની રહ્યું છે.
[ad_2]