Fri May 08 2026

Logo

ઈટલીનાં PM જ્યોર્જિયા મેલોની બન્યા ડીપફીકનો શિકાર, સોશિયલ મીડિયા પર ખળભળાટ

California   2 days ago
Author: Mumbaui Samachar Team
Article Image

કેલિફોર્નિયાઃ AIના યુગમાં તસવીરનો ખોટો ઉપયોગ ખૂબ જ વધી રહ્યો છે. AIની મદદથી એડિટ કરીને તસવીર સાથે ચેડા થઈ રહ્યા છે. સામાન્ય માણસ જ નહીં, દુનિયાભરની VVIP હસ્તીઓ સાથે પણ આવું થઈ રહ્યું છે. હવે ઈટલીના વડા પ્રધાન જ્યોર્જિયા મેલોનીની અશ્લીલ ડીપફેક તસવીર વાયરલ થઈ રહી છે.

ઈટલીના વડા પ્રધાન જ્યોર્જિયા મેલોનીએ એક્સ પર અને ફેસબુક પર પોતાનો ફોટો શેર કરીને લખ્યું હતું કે છેલ્લા કેટલાક દિવસોથી મારી નકલી તસવીર સોશિયલ મીડિયા પર ફરી રહી છે. AIની મદદથી આને તૈયાર કરીને કેટલાક લોકો આને હકીકત માની રહ્યા છે. 

વખાણ કર્યા પણ એલર્ટ પણ આપ્યું

જે પણ લોકોએ આ તસવીર બનાવી છે એને મારી તસવીર સારી બનાવી છે પણ આવા લોકો જુઠ્ઠાણું ફેલાવવા અને તમારા પર ખોટી રીતે હુમલો કરવા કંઈ પણ કરી શકે છે. સોશિયલ મીડિયા પર મેલોનીની તસવીરે એક અલગ ચર્ચા શરૂ કરી દીધી છે. વડા પ્રધાન પદે બેઠેલી વ્યક્તિની આવી તસવીર વાયરલ થઈ રહી હોય તો સામાન્ય લોકોની તસવીરનો કેવો ઉપયોગ થતો હશે એ પણ વિચારવા જેવું છે. 

ડીપફેક શબ્દ બે અંગ્રેજી શબ્દોથી બનેલો છે. ડીપ લર્નિંગ અને ફેક એમ બે શબ્દોથી તૈયાર થયેલો શબ્દ ડીપફેક છે. AI પર આધારિત આ એક એવી ટેકનિક છે, જે હકીકતને આબેહુબ તસવીર બનાવી દે છે. માત્ર તસવીર જ નહીં ઓડિયો તથા વીડિયો પણ બનાવી દે છે. ડીપફેક બે રીતે બને છે. જનરેટીવ એડવર્સરિયલ નેટવર્ક અને ડીપ ઓટોએનકોડર. જનરેટિવમાં પહેલા એક નકલી તસવીર બને છે પછી ડિસ્ક્રિમિનેટર પર રાખીને ટેસ્ટ કરવામાં આવે છે કે, તે અસલી છે કે નહીં. જ્યારે જનરેટર દર વખતે ડિસ્ક્રિમિનેટરને છેત્તરવામાં સફળ થઈ જાય છે. 

આ રીતે કામ કરે છે AI

અંતે તસવીર કે વીડિયો એટલો હકીકતથી નજીક હોય એવું લાગે છે કે, પહેલી નજરમાં પરખાતું નથી. જ્યારે ડીપ એનકોડરમાં પહેલા AIને કોઈપણ વ્યક્તિની હજારો તસવીર પર કામ કરવા માટે તાલીમ આપવામાં આવે છે.પછી બીજી કોઈ વ્યક્તિના ચહેરાના હાવભાવ સાથે આ તસવીરને કોઈ પણ રીતે ફીટ કરી દેવામાં આવે છે. આનાથી થાય છે એવું કે, જે તે ચહેરામાં માઈનર ચેન્જીસ થાય છે અને વ્યક્તિને એ તસવીર પોતાની લાગે છે. AIની દુનિયામાં ડીપફેક એક મોટો બિઝનેસ છે. 

ગ્લોબલ ડીપફેક ટેક્નોલોજી માર્કેટમાં 9.19 કરોડ ડૉલરનો આ ધંધો કેટલીય જાણીતી હસ્તી પણ શિકાર બની ચૂક્યા છે. થાય છે એવું કે, આનાથી ફેક કેસ વધે છે અને આનાથી બચવા માટેનો રસ્તો વ્યક્તિની પોતાની જ એલર્ટનેસ છે. ઈટલીના વડા પ્રધાને ખુદ એવી સલાહ આપી છે કે, કોઈ પણ ઈન્ટરનેટ પરથી આવેલી તસવીરને તરત સાચી ન માનો. વ્યક્તિની તસવીર હોય તો પહેલા એને ક્રોસ ચેક કરો. 

નિયમો જાણો અને સતર્ક રહો

ડીપવેયર સ્કેનર જેવા ડીપફેક ડિટેક્શન ટુલ્સનો ઉપયોગ કરીને હકીકત જાણી લેવી જોઈએ. ગૂગલનું એબાઉટ ધીસ ઈમેજ ટુલ્સનો ઉપયોગ કરવો જોઈએ, જે સત્તાવાર માહિતી કે તસવીર સુધી તે લઈ જાય છે. આ ટુલ્સ જે તે ડિજિટલ ઈમેજ કે વીડિયોના ઓરિજિલ સોર્સ કે ઈતિહાસ બતાવે છે. ભારત અને ઈટલીમાં કાયદો છે કે એઆઈથી તૈયાર થયેલી વસ્તુઓ પાછળ લખવું પડશે કે, આ વસ્તુ એઆઈથી બની છે. 

વોટરમાર્ક પણ જરૂરી છે. આનાથી ટુલ્સના લોગો કે ચિહ્નો પરથી પણ એની ઓળખ થાય છે. બને ત્યાં સુધી સોશિયલ મીડિયા પર તૈયાર થયા એઆઈ ટુલ્સમાં પોતાની તસવીર શેર કે અપલોડ કરવાનું ટાળો. 
ઈટલીમાં ડીપફેકથી થતા નુકસાન સામે પાંચ વર્ષની જેલની સજા છે. ભારતમાં IT નિયમ અંતર્ગત AIથી બનાવેલી સામગ્રી પર AI લખવું ફરજિયાત કરી દેવામાં આવ્યું છે. જો કોન્ટેટ અયોગ્ય કે ગેરકાયદેસર નીકળે તો 3 કલાકમાં એને દૂર કરવાનો નિયમ છે.