જબલપુરના બરગી ડેમમાં થયેલા ક્રૂઝ અકસ્માત બાદ સોશિયલ મીડિયા પર એક માતા અને બાળકની હૃદયદ્રાવક તસવીર વાયરલ થઈ હતી. દાવો કરવામાં આવ્યો હતો કે આ અકસ્માત બાદ રેસ્ક્યૂ દરમિયાન મળેલી વાસ્તવિક તસવીર છે. પરંતુ પીટીઆઈ ફેક્ટ ચેક અને જબલપુર જિલ્લા પ્રશાસનની તપાસમાં આ તસવીર એઆઈ દ્વારા જનરેટ કરવામાં આવેલી હોવાનું સાબિત થયું છે. આ તસવીરમાં હાથની બનાવટ અને ત્વચાના ટેક્સચર જેવી ઘણી વિસંગતતાઓ જોવા મળી હતી, જે સ્પષ્ટ કરે છે કે આ કોઈ વાસ્તવિક ફોટો નથી પણ કમ્પ્યુટર દ્વારા બનાવેલી ગેરમાર્ગે દોરતી ઇમેજ છે.
पीटीआई फैक्ट चेक: सोशल मीडिया पर शेयर की जा रही मां-बेटे की इस एडिटेड तस्वीर का बरगी क्रूज हादसे से नहीं है कोई संबंध
पढ़ें: https://t.co/u92yzqCUI8
Follow #PTIFactCheck on WhatsApp Channel https://t.co/yFNHsOCaQU pic.twitter.com/rK46j7a606
— PTI Fact Check (@ptifactcheck) May 1, 2026
સોશિયલ મીડિયા પર વાયરલ થઈ રહેલી આ તસવીર એટલી ભાવુક હતી કે લોકોએ તેની સત્યતા તપાસ્યા વિના જ હજારોની સંખ્યામાં શેર કરવાનું શરૂ કરી દીધું હતું. આ તસવીરને ૩૦ એપ્રિલના રોજ જબલપુરમાં થયેલા ગમખ્વાર બરગી ડેમ ક્રૂઝ અકસ્માત સાથે જોડવામાં આવી હતી. આ અકસ્માતમાં ૯ લોકોના મોત થયા હતા અને ૨૨ લોકોને બચાવી લેવાયા હતા. આ દુર્ઘટના બાદ તરત જ આ નકલી તસવીર વહેતી થઈ હતી, જેમાં દાવો કરાયો હતો કે એક માતાએ અંતિમ ક્ષણ સુધી પોતાના બાળકને બચાવવાનો પ્રયાસ કર્યો હતો. જોકે, જબલપુર કલેક્ટરના સત્તાવાર એકાઉન્ટ પરથી સ્પષ્ટ કરવામાં આવ્યું છે કે આ ફોટો એઆઈ જનરેટેડ છે અથવા અન્ય કોઈ અજ્ઞાત સ્ત્રોતમાંથી લેવામાં આવ્યો છે.
पीटीआई फैक्ट चेक: सोशल मीडिया पर शेयर की जा रही मां-बेटे की इस एडिटेड तस्वीर का बरगी क्रूज हादसे से नहीं है कोई संबंध
पढ़ें: https://t.co/u92yzqCUI8
Follow #PTIFactCheck on WhatsApp Channel https://t.co/yFNHsOCaQU pic.twitter.com/rK46j7a606
— PTI Fact Check (@ptifactcheck) May 1, 2026
આ તસવીરની ઊંડી તપાસ કરવા માટે પીટીઆઈ ફેક્ટ ચેક દ્વારા વિવિધ એઆઈ ડિટેક્શન ટૂલ્સનો ઉપયોગ કરવામાં આવ્યો હતો. ‘હાઈવ મોડરેશન’ નામના ટૂલમાં આ તસવીર 96 ટકા સુધી એઆઈ દ્વારા બનાવેલી હોવાનું જણાયું હતું. આ ઉપરાંત, ‘સાઇટઇન્જિન’ અને ગૂગલ જેમિની જેવા ટૂલ્સના એનાલિસિસમાં પણ આ તસવીરમાં ઘણી અકુદરતી બાબતો સામે આવી હતી. એઆઈ દ્વારા બનેલી તસવીરોમાં ઘણીવાર માનવીય હાથની બનાવટમાં ભૂલો થતી હોય છે, જેમ કે આંગળીઓની સંખ્યામાં ફેરફાર અથવા વિચિત્ર વળાંક. આ વાયરલ ફોટામાં પણ માતાના હાથની બનાવટ, પાણીના મોજાની અકુદરતી હિલચાલ અને ચહેરાની ત્વચાનું અતિશય મુલાયમ ટેક્સચર એઆઈની ઓળખ છતી કરે છે.
આધુનિક ટેકનોલોજીના જમાનામાં આવી ફેક તસવીરો બનાવવી ખૂબ જ સરળ બની ગઈ છે. આ માટે કોઈ વાસ્તવિક ફોટોગ્રાફીની જરૂર નથી પડતી. ગૂગલ જેમિની, મિડજર્ની, ડેલ-ઈ અને ચેટજીપીટી જેવા એડવાન્સ એઆઈ મોડલ્સ માત્ર ટેક્સ્ટ કમાન્ડ (Prompt) ના આધારે આવી હૂબહૂ તસવીરો તૈયાર કરી આપે છે. ઉદાહરણ તરીકે, જો કોઈ યુઝર એઆઈ ટૂલમાં લખે કે “પાણીમાં લાઈફ જેકેટ પહેરેલી માતા અને બાળક”, તો આ સોફ્ટવેર લાખો ઇમેજ ડેટા સેટનો ઉપયોગ કરીને એક નવી જ તસવીર બનાવી દે છે. આ તસવીરો જોવામાં એટલી અસલી લાગે છે કે સામાન્ય યુઝર છેતરાઈ જાય છે. ઘણીવાર એડિટિંગ સોફ્ટવેરની મદદથી જૂની તસવીરોમાં ફેરફાર કરીને પણ લોકોમાં ભ્રમ પેદા કરવામાં આવે છે.
આ કિસ્સાએ સાબિત કર્યું છે કે ડિજિટલ યુગમાં સોશિયલ મીડિયા પર આવતી દરેક માહિતી સાચી હોતી નથી. પ્રશાસને નાગરિકોને અપીલ કરી છે કે આવી અસ્પષ્ટ અને વણચકાસાયેલી તસવીરો શેર કરવાથી બચવું જોઈએ, કારણ કે તેનાથી સમાજમાં ગેરસમજ અને ભય ફેલાય છે. કોઈપણ ગંભીર ઘટના બાદ વાયરલ થતી સામગ્રીની સત્યતા તપાસવા માટે સત્તાવાર સરકારી ચેનલો અથવા વિશ્વસનીય ન્યૂઝ એજન્સીઓનો સંપર્ક કરવો હિતાવહ છે. એઆઈ ટેકનોલોજીના દુરુપયોગ સામે સતર્ક રહેવું એ જ અત્યારના સમયની સૌથી મોટી જરૂરિયાત છે.




