جمعرات 11 دسمبر 2025 - 10:00
ڈیپ فیک (Deep Fake) کے بارے میں ایک انتباہ!

حوزہ / ڈیپ فیک ٹیکنالوجی جو مصنوعی ذہانت (AI) کی بنیاد پر کام کرتی ہے ایسی تصاویر اور ویڈیوز تیار کر سکتی ہے جو مکمل طور پر جعلی ہونے کے باوجود حقیقت سے انتہائی مشابہہ دکھائی دیتی ہیں اور یوں سچ اور جھوٹ کے درمیان حدّ فاصل کو مٹا دیتی ہے۔ ماہرین خبردار کر رہے ہیں کہ یہ نئی ٹیکنالوجی تیزی سے معلوماتی تحفظ، سیاست، عوامی رائے اور میڈیا پر اعتماد کے لیے ایک بڑا خطرہ بن رہی ہے۔

حوزہ نیوز ایجنسی کی رپورٹ کے مطابق، ڈیپ فیک لفظ ڈیپ (Deep) یعنی عمیق اور فیک (Fake) یعنی جعلی کے ملاپ سے بنا ہے اور یہ ٹیکنالوجی انسانی چہروں اور حرکات کو بالکل حقیقت نما طور پر تخلیق کرنے کی صلاحیت رکھتی ہے۔

یہ ٹیکنالوجی کیوں خطرناک ہے؟

حقیقت کی جعل سازی: بہت جلد آپ یہ تشخیص نہیں کر پائیں گے کہ کوئی ویڈیو حقیقی ہے یا جعلی۔

سیاسی غلط استعمال: سیاسی اور سماجی شخصیات کی ساکھ خراب کرنے کے لیے اس کا استعمال کیا جا سکتا ہے۔

بلیک میلنگ اور دھونس: افراد کی جعلی اور رسوا کن تصاویر بنا کر انہیں بدنام یا بلیک میل کیا جا سکتا ہے۔

جعلی خبروں کا پھیلاؤ: میڈیا اور سوشل میڈیا جعلی ویڈیوز اور تصاویر سے بھر سکتے ہیں۔

ایک نیا دور شروع ہو چکا ہے، ایسا دور جہاں اپنی آنکھوں پر بھی بھروسہ کرنا بھی مشکل ہو جائے گا کیونکہ اب حقیقت ڈیپ فیک کے محاصرے میں ہے۔

لہٰذا:

ہر ویڈیو پر فوراً اعتماد نہ کریں!

معتبر ذرائع کی جانچ کریں!

ڈیپ فیک پہچاننے والے ٹولز استعمال کریں!

اپنی میڈیا لٹریسی میں اضافہ کریں!

لیبلز

آپ کا تبصرہ

You are replying to: .
captcha