Saturday, July 27, 2024

AI-જનરેટેડ ડીપફેક કેવી રીતે શોધવું

[ad_1]

AI બનાવટી ઝડપથી અમારી ઑનલાઇન સામે આવતી સૌથી મોટી સમસ્યાઓમાંની એક બની રહી છે. જનરેટિવ આર્ટિફિશિયલ ઇન્ટેલિજન્સ ટૂલ્સના ઉદય અને દુરુપયોગના પરિણામે ભ્રામક ચિત્રો, વિડિયો અને ઑડિયોનો ફેલાવો થઈ રહ્યો છે.

ટેલર સ્વિફ્ટથી લઈને ડોનાલ્ડ ટ્રમ્પ સુધીના દરેકને દર્શાવતી AI ડીપ ફેક્સ લગભગ દરરોજ ક્રોપ થઈ રહી છે, જે નથી તેમાંથી વાસ્તવિક શું છે તે કહેવું મુશ્કેલ બની રહ્યું છે. DALL-E, Midjourney અને OpenAI’s Sora જેવા વિડિયો અને ઈમેજ જનરેટર્સ કોઈપણ ટેકનિકલ કૌશલ્ય વિનાના લોકો માટે ડીપફેક્સ બનાવવાનું સરળ બનાવે છે — ફક્ત એક વિનંતી લખો અને સિસ્ટમ તેને બહાર કાઢે છે.

આ નકલી છબીઓ હાનિકારક લાગે છે. પરંતુ તેનો ઉપયોગ કૌભાંડો અને ઓળખની ચોરી અથવા પ્રચાર અને ચૂંટણીમાં છેડછાડ કરવા માટે થઈ શકે છે.

એઆઈ ડીપફેક્સ લોકશાહીને જોખમમાં મૂકે છે. પાછા લડવા માટે અહીં 4 રીતો છે

ડીપફેક્સ દ્વારા છેતરાઈ જવાથી કેવી રીતે બચવું તે અહીં છે:

ડીપફેકને કેવી રીતે શોધવું

ડીપફેક્સના શરૂઆતના દિવસોમાં, ટેક્નોલોજી સંપૂર્ણથી ઘણી દૂર હતી અને ઘણી વખત મેનીપ્યુલેશનના સંકેતો છોડી દેતી હતી. હકીકત-તપાસકર્તાઓએ સ્પષ્ટ ભૂલો સાથેની છબીઓ દર્શાવી છે, જેમ કે છ આંગળીઓવાળા હાથ અથવા અલગ-અલગ આકારના લેન્સવાળા ચશ્મા.

પરંતુ જેમ જેમ AI માં સુધારો થયો છે, તેમ તે ઘણું કઠણ બન્યું છે. કન્સલ્ટિંગ ફર્મ લેટેન્ટ સ્પેસ એડવાઇઝરીના સ્થાપક અને જનરેટિવ AIના અગ્રણી નિષ્ણાત હેનરી અજડેરે જણાવ્યું હતું કે, કેટલીક વ્યાપક રીતે વહેંચાયેલી સલાહ – જેમ કે ડીપફેક વીડિયોમાં લોકોમાં અકુદરતી ઝબકવાની પેટર્ન શોધવી – હવે તે પકડી શકતી નથી.

યુક્રેનના રાષ્ટ્રપતિ વોલોડીમિર ઝેલેન્સ્કીનો નકલી વિડિયો તેના સૈનિકોને તેમના શસ્ત્રો નીચે મૂકવા માટે કહે છે, જમણે, તેમની વાસ્તવિક છબીઓની તુલનામાં, ડાબે, વોશિંગ્ટન, ડીસી AI સંચાલિત, META ખાતે સુરક્ષા નીતિના વડાના નિવેદનની પાછળ બતાવવામાં આવે છે. જેમ જેમ ટેક્નોલોજી આગળ વધી રહી છે તેમ તેમ વાસ્તવિક છબીઓ સિવાય ડીપફેક્સને કહેવું વધુ મુશ્કેલ બની રહ્યું છે. (ગેટી ઈમેજીસ દ્વારા ઓલિવિયર ડૌલીરી/AFP)

તેમ છતાં, ત્યાં જોવા માટે કેટલીક વસ્તુઓ છે, તેમણે જણાવ્યું હતું.

અજડેરે જણાવ્યું હતું કે ઘણા બધા AI ડીપફેક ફોટા, ખાસ કરીને લોકોના, તેમને ઇલેક્ટ્રોનિક ચમક આપે છે, “એક સૌંદર્યલક્ષી પ્રકારની સ્મૂથિંગ અસર” જે ત્વચાને “અવિશ્વસનીય રીતે પોલીશ્ડ દેખાતી” છોડી દે છે.

જોકે, તેમણે ચેતવણી આપી હતી કે સર્જનાત્મક પ્રોમ્પ્ટિંગ ક્યારેક આ અને AI મેનીપ્યુલેશનના અન્ય ઘણા ચિહ્નોને દૂર કરી શકે છે.

પડછાયાઓ અને લાઇટિંગની સુસંગતતા તપાસો. ઘણીવાર વિષય સ્પષ્ટ ધ્યાન કેન્દ્રિત કરે છે અને ખાતરીપૂર્વક જીવંત દેખાય છે પરંતુ પૃષ્ઠભૂમિમાંના ઘટકો એટલા વાસ્તવિક અથવા પોલિશ્ડ ન હોઈ શકે.

ચહેરાઓ જુઓ

ફેસ-સ્વેપિંગ એ સૌથી સામાન્ય ડીપફેક પદ્ધતિઓમાંની એક છે. નિષ્ણાતો ચહેરાના કિનારીઓને નજીકથી જોવાની સલાહ આપે છે. શું ચહેરાની ત્વચાનો સ્વર બાકીના માથા કે શરીર સાથે મેળ ખાય છે? ચહેરાની કિનારીઓ તીક્ષ્ણ છે કે ઝાંખી છે?

જો તમને શંકા હોય કે કોઈ વ્યક્તિ બોલતી હોય તેનો વિડિયો ડોક્ટર કરવામાં આવ્યો છે, તો તેનું મોં જુઓ. શું તેમના હોઠની હિલચાલ ઑડિયો સાથે સંપૂર્ણ રીતે મેળ ખાય છે?

અજડેર દાંત જોવાનું સૂચન કરે છે. શું તેઓ સ્પષ્ટ છે, અથવા તેઓ અસ્પષ્ટ છે અને કોઈક રીતે તેઓ વાસ્તવિક જીવનમાં કેવી દેખાય છે તેની સાથે સુસંગત નથી?

સાયબર સિક્યુરિટી કંપની નોર્ટન કહે છે કે વ્યક્તિગત દાંત પેદા કરવા માટે એલ્ગોરિધમ્સ હજી પૂરતા અત્યાધુનિક ન હોઈ શકે, તેથી વ્યક્તિગત દાંત માટે રૂપરેખાનો અભાવ એક સંકેત હોઈ શકે છે.

મોટા ચિત્ર વિશે વિચારો

ક્યારેક સંદર્ભ મહત્વપૂર્ણ છે. તમે જે જોઈ રહ્યાં છો તે બુદ્ધિગમ્ય છે કે કેમ તે ધ્યાનમાં લેવા માટે એક બીટ લો.

Poynter જર્નાલિઝમ વેબસાઈટ સલાહ આપે છે કે જો તમે કોઈ સાર્વજનિક વ્યક્તિ “અતિશયોક્તિયુક્ત, અવાસ્તવિક અથવા પાત્રમાં ન હોય તેવું” એવું કંઈક કરતા જોશો તો તે ડીપ ફેક હોઈ શકે છે.

ઉદાહરણ તરીકે, શું પોપ ખરેખર લક્ઝરી પફર જેકેટ પહેરતા હશે, જેમ કે કુખ્યાત નકલી ફોટો દ્વારા દર્શાવવામાં આવ્યું છે? જો તેણે કર્યું હોય, તો શું કાયદેસર સ્ત્રોતો દ્વારા પ્રકાશિત વધારાના ફોટા અથવા વિડિઓઝ હશે નહીં?

નકલી શોધવા માટે AI નો ઉપયોગ કરવો

AI સામે લડવા માટે AI નો ઉપયોગ કરવાનો બીજો અભિગમ છે.

માઈક્રોસોફ્ટે એક ઓથેન્ટિકેટર ટૂલ વિકસાવ્યું છે જે ફોટા અથવા વિડિયોનું વિશ્લેષણ કરી શકે છે કે કેમ તે અંગે આત્મવિશ્વાસનો સ્કોર આપવામાં આવે છે. Chipmaker Intelનું FakeCatcher એ ઇમેજના પિક્સેલનું પૃથ્થકરણ કરવા માટે એલ્ગોરિધમ્સનો ઉપયોગ કરે છે કે તે વાસ્તવિક છે કે નકલી.

જો તમે કોઈ ફાઇલ અપલોડ કરો છો અથવા શંકાસ્પદ સામગ્રીની લિંક પેસ્ટ કરો છો તો બનાવટીને સુંઘવાનું વચન આપતા ઓનલાઈન સાધનો છે. પરંતુ કેટલાક, જેમ કે Microsoft ના પ્રમાણકર્તા, ફક્ત પસંદ કરેલા ભાગીદારો માટે જ ઉપલબ્ધ છે અને જાહેર જનતા માટે નહીં. તે એટલા માટે કારણ કે સંશોધકો ખરાબ કલાકારોને ટિપ આપવા માંગતા નથી અને તેમને ડીપફેક આર્મ્સ રેસમાં મોટી ધાર આપવા માંગતા નથી.

ડિટેક્શન ટૂલ્સની ખુલ્લી ઍક્સેસ લોકોને એવી છાપ પણ આપી શકે છે કે તેઓ “ઈશ્વર જેવી તકનીકો છે જે આપણા માટે નિર્ણાયક વિચારને આઉટસોર્સ કરી શકે છે” જ્યારે તેના બદલે, આપણે તેમની મર્યાદાઓ વિશે જાગૃત રહેવાની જરૂર છે, અજડેરે જણાવ્યું હતું.

ફોક્સ ન્યૂઝ એપ મેળવવા માટે અહીં ક્લિક કરો

નકલી શોધવા માટેના અવરોધો

આ બધું કહેવામાં આવે છે, આર્ટિફિશિયલ ઇન્ટેલિજન્સ બેકનેક સ્પીડ સાથે આગળ વધી રહ્યું છે અને AI મોડલ્સને ઓછી ખામીઓ સાથે વધુને વધુ ઉચ્ચ-ગુણવત્તાવાળી સામગ્રી ઉત્પન્ન કરવા માટે ઇન્ટરનેટ ડેટા પર તાલીમ આપવામાં આવી રહી છે.

તેનો અર્થ એ કે આ સલાહ હવેથી એક વર્ષ પછી પણ માન્ય રહેશે તેની કોઈ ગેરેંટી નથી.

નિષ્ણાતો કહે છે કે ડિજિટલ શેરલોક બનવા માટે સામાન્ય લોકો પર બોજ નાખવો તે ખતરનાક પણ હોઈ શકે છે કારણ કે તે તેમને આત્મવિશ્વાસની ખોટી ભાવના આપી શકે છે કારણ કે પ્રશિક્ષિત આંખો માટે પણ, ડીપફેક્સ શોધવાનું વધુને વધુ મુશ્કેલ બની રહ્યું છે.

[ad_2]

Source link

Similar Articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Advertismentspot_img

Instagram

Most Popular