مصنوعی ذہانت اور ڈیپ فیک

ہیں کواکب کچھ نظر آتے ہیں کچھ

ابو ظفر عادل اعظمی
مئی 2024

ابو ظفر عادل اعظمی

آپ تصور کیجئے کہ آپ ایک ایسا ویڈیو دیکھتے ہیں جس میں برسوں پہلے وفات پاچکے آپ کے کوئی قریبی رشتہ دار آپ کی چند دن پہلے کسی کامیابی پر مبارک باد دے رہے ہیں اور خوشی کا اظہار کرتے ہیں۔ یا پھر آپ سابق وزیر اعظم راجیو گاندھی کا ایک ویڈیو دیکھتے ہیں جس میں وہ حالیہ الیکشن کے حوالے سے راہل گاندھی اور کانگریس پارٹی کو ہدایت دے رہے ہیں اور ان کی بہتر انتخابی مہم پر خوشی کا اظہار کررہے ہیں۔ظاہر ہے کہ راجیو گاندھی کی موت آج سے 33 سال پہلے ہوئی ہے۔ اس طرح کے ویڈیو سے آپ یقینا حیران ہو جائیں گے۔ آپ ان کو کئی بار دیکھیں گے اور یہ دیکھنے کی کوشش کریں گے کہ ویڈیو کی آواز اور مواد سب اصلی ہے یا نہیں۔ پھر آپ اس نتیجے پر پہنچتے ہیں کہ آواز تو بالکل اصلی لگ رہی ہے اور دیگر تفصیلات میں بھی کوئی قابل اعتراض چیز نہیں ہے۔
اس طرح کے ویڈیو اور مواد پر آپ کی حیرت لازمی ہے لیکن جدید ٹکنالوجی نے اب اس درجہ ترقی کرلی ہے کہ کسی بھی شخص کی آواز کے نمونہ سے ہو بہو ویسی ہی آواز پر مبنی ویڈیو یا آڈیو کی شکل میں کوئی مواد تیار کرنا اب نہ صرف ممکن ہے بلکہ دن بہ دن آسان ہوتا جارہا ہے۔ اس ٹکنالوجی کو مصنوعی ذہانت (Artificial Intelligence) کہتے ہیں۔
مصنوعی ذہانت کمپیوٹر سائنس کا ایک دلچسپ شعبہ ہے جس نے حالیہ برسوں میں کافی مقبولیت حاصل کی ہے۔ اس کے ذریعہ مشینوں میں ایسے کام انجام دینے کی صلاحیت پیدا کی جاتی ہے جن کے لیے عام طور پر انسانی ذہانت کی ضرورت ہوتی ہے۔ آپ ایک ایسی دنیا کا تصور کریں جہاں کمپیوٹر انسانوں کی طرح سوچ سکتے ہیں، سیکھ سکتے ہیں اور فیصلے کر سکتے ہیں۔ یہی مصنوعی ذہانت کا جوہر ہے۔ اس سے مشینوں کو انسانی دماغ کے علمی افعال کی نقل کرنا سکھایا جاتا ہے۔ مشینوں کومختلف اعدادوشمار کا تجزیہ کرنے، طرز زندگی کو پہچاننے اور پیچیدہ مسائل کو حل کرنے کے قابل بنایا جاتا ہے۔
ہماری روزمرہ کی زندگی میں مصنوعی ذہانت کی مدد سے بہت سارے کام ہو رہے ہیں لیکن ہم میں سے بہت سے لوگ شاید اس سے واقف نہیں ہیں۔مثال کے طور پر ہم گوگل پر جس طرح کی چیزیں تلاش کرتے ہیں گوگل اس سے متعلق مختلف کمپنیوں کی مصنوعات اشتہار کی شکل میں ہمیں دکھانے لگتا ہے۔ اسی طرح گوگل اسسٹنٹ کے ذریعہ انٹرنیٹ پر اپنی ضرورت اور پسند کا مواد تلاش کرنا مصنوعی ذہانت کی ایک سادہ اور آسان مثال ہوسکتی ہے۔
اب اس کا استعمال بیماریوں کی تشخیص، موثر علاج، لمبے چوڑے مالیاتی اعدادوشمارکا تجزیہ کرنے، سرمایہ کاری کے رجحان اور بہتر سرمایہ کاری کے لئے مناسب فیصلہ لینے، مارکیٹ کے ڈیٹا کا تجزیہ کرنے اورنقل وحمل کے میدان میں خود کارگاڑیوں سے لے کر متعدد میدانوں میں کیاجارہاہے۔ ا س کے علاوہ اس کا استعمال کرکے ذاتی نوعیت اور ضرورت کا مواد تیار کیاجاسکتا ہے۔
چند سال قبل چیٹ جی پی ٹی نام کی ویب سائٹ کو متعارف کیا گیا ۔اس ویب سائٹ کا کمال ہے کہ آپ دنیا کی کسی بھی زبان میں کسی بھی موضوع پر کوئی معلومات تلاش کرسکتے ہیں اور وہ اس کو آپ کے پسندیدہ انداز میں لکھ کر دے سکتی ہے۔ مثال کے طور پر آپ کسی یونیورسٹی میں داخلہ کے خواہش مند ہیں
تو آپ اپنا سوال اس میں لکھ دیجئے اور سیکنڈوں میں آپ کا جواب تیار ہے۔ آپ اس سے یہ بھی پوچھ سکتے ہیں کہ مذکورہ کورس ملک و بیرون ملک کی اور کن کن یونیورسٹیوں میں پڑھایا جاتا ہے اور رینکنگ کے حساب سے کون سی یونیورسٹی بہتر ہے۔ یہی معلومات آپ ان یونیورسٹیوں کی ویب سائٹ سے بھی لے سکتے ہیں لیکن اس کے لیے آپ کو یونیورسٹی کی ویب سائٹ کے مختلف حصوں کو کھنگالنا ہوگا اور دوسری یونیورسٹی کی ویب سائیٹوں کو بھی دیکھنا ہوگا۔ہوسکتا ہے کہ ان ویب سائیٹوں میں دی گئی معلومات کی زبان آپ کو مشکل لگے جس کے لئے آپ کو ڈکشنری کا سہارہ لینا پڑے۔ لیکن چیٹ جی پی ٹی کی مدد سے یہ ساری مشکلات یکلخت ختم ہوگئیں ۔ اگر آپ کو فراہم کردہ مواد کی زبان مشکل ہے تو آپ وہی مواد آسان زبان میں فراہم کرنے کی درخواست کرسکتے ہیں۔آپ اس کی مدد سے کسی کو ذاتی نوعیت کی درخواست یا خط بھی لکھ سکتے ہیں۔ بس آپ کو یہ بتانا ہوگا کہ اس درخواست یا خط میں آپ کیا مواد چاہتے ہیں۔
تاہم بے شمار فوائد کے ساتھ یہ ٹکنالوجی اپنے ساتھ مسائل کا ایک انبار بھی لے آئی ہے۔ اس کی وجہ سے بے روزگاری میں بے تحاشہ اضافہ ہوا۔ اس ٹکنالوجی کی مدد سے مختلف کمپنیوں نے اپنے مخصوص کام کےلیے مصنوعی ذہانت پر مشتمل نت نئے ٹولس بنالیے ہیں جس سے درجنوں ملازمین کا کام ایک ملازم کر سکتا ہے ۔ بلکہ اس کا کام بھی محض ہورہے کام کی نگرانی تک محدود ہوگیا ہے۔ ایک اندازے کے مطابق پوری دنیا میں اگلے تین سالوں میں اس ٹکنالوجی کی وجہ سے تقریبا 30 فیصد ملازمین اپنی ملازمت سے ہاتھ دھو بیٹھیں گے۔
واضح رہے کہ یہ ٹکنالوجی اس ڈاٹا پر کام کرتی ہے جو اس کی دسترس میں ہے۔وہ انہیں معلومات کی بنیاد پر کسی صارف کے لئے معلومات کو اس کی پسند اور ضرورت کی شکل میں تیار کرکے دیتی ہے۔ ماہرین کو اندیشہ ہے کہ سماج کے مختلف طبقات کے درمیان پائے جانے والے عدم مساوات، تعصب اور نفرت پر مبنی مواد ہی اگر اس کو فراہم کردیا گیا تو اس سے نتائج بھی ویسے ہی برآمد ہوں گے۔
اس سے ایک اور بڑا مسئلہ پیدا ہورہا ہے جسے ڈیپ فیک کے نام سے جانا جاتا ہے۔ اس کا مطلب مصنوعی ذہانت کا استعمال کرتے ہوئے انتہائی حقیقت پسندانہ لیکن مکمل طور پر من گھڑت تصاویر، آڈیو یا ویڈیو موادتیار کرنا ہے ۔ اس طرح کی تصاویر، آواز یا ویڈیو میں اصلی اورنقلی کی فرق کرنا عام آدمی کے لیے بہت مشکل ہے۔
مضمون کے آغاز میں آپ کے کسی رشتہ دار یا سابق وزیر اعظم راجیوگاندھی کی مثال اسی ضمن میں دی گئی ہے۔ تصور کیجئے کہ الیکشن کے دوران یا کسی اہم مسئلہ پر جب سماج کے دو گروہوں کے درمیان نفرت اور تشدد پھیلنے کا اندیشہ ہو ، کسی سیاست داں کے نام سے اس ٹکنالوجی کی مدد سے تیار کیا گیا فرضی ویڈیو کتنے مسائل پیدا کرسکتا ہے۔اس کا استعمال فحش اور عریاں تصاویر اور ویڈیو صنعت میں بھی ہورہا ہے اور اس سے بھولے بھالے لوگوں کو بلیک میل کیے جانے کی خبریں بھی موصول ہورہی ہیں۔
ہندوستان میں انتخابی سرگرمیوں میں اس کا استعمال کئی سال پہلے سے جاری ہے اور اس الیکشن میں بھی زوروں پر ہے۔ شروع میں جب اس کے ماہرین کی تعداد کم تھی تو پارٹیاں اور ان کے امیدوار اس کے ماہرین سے ویڈیوز بنواتے تھے لیکن اب بڑی پارٹیوں کے پاس خود ہی اس طرح کی ٹیم موجود ہے۔ مثال کے طور پر سال 2020 میں دہلی کے ریاستی انتخابات میں بی جے پی لیڈر منوج تیواری نے اس ٹکنالوجی کی مدد سے ایسی ویڈیو بنوائی تھیں جن میں وہ انگریزی اور ہریانوی زبان میں ووٹروں سے پارٹی کو ووٹ دینے کی اپیل کررہے ہیں۔ حالاں کہ ان کی زبان ہندی اور بھوجپوری ہے۔ یہ اس طرح ممکن ہوا کہ ریکارڈ کیے جانے والے پیغام کو پہلے متعلقہ زبان میں لکھا گیا اور پھر منوج تیواری کی آواز اور ویڈیو کا نمونہ لے کر اس زبان میں ان کی آواز کی ہو بہو نقل کی گئی۔ یعنی وہ اگر انگریزی یا ہریانوی بولتے تو بالکل ایسے ہی بولتے۔
اس الیکشن میں پہلے مرحلہ کی پولنگ سے چند روز قبل راہل گاندھی کی کانگریس پارٹی اور ہندوستان چھوڑنے کا عہد کرنے والی ایک ویڈیو انٹرنیٹ پر گردش کررہی تھی۔ اس ویڈیو کی آواز بالکل اصلی لگ رہی تھی لیکن بعد میں پتہ چلا کہ وہ فرضی تھی اور ڈیپ فیک ٹکنالوجی کی مدد سے تیار کی گئی تھی۔ اسی طرح ایک ویڈیو گردش میں آئی جس میں فلم اداکار عامر خان اور رنویر سنگھ کانگریس کی حمایت میں اپیل کررہے تھے لیکن بعد میں پتہ چلا کہ وہ ویڈیو بھی فرضی تھا۔ظاہر ہے کہ دونوں ویڈیو لاکھوں لوگوں نے دیکھا لیکن عین ممکن ہے کہ جب ماہرین نے تفتیش کرکے اس کے فرضی ہونے کی نشاندہی کی ہو تو جن لوگوں نے پہلے یہ ویڈیو دیکھا تھا ان میں سے بہت کم لوگوں تک یہ بات پہنچ پائی ہو۔ یعنی اس کا اثر جو ہونا تھا وہ ہوچکاتھا۔
سال 2018 میں تمل ناڈو میں ڈی ایم کے پارٹی نے اپنے فوت شدہ لیڈر کروناندھی کا ایک ایسا ہی ویڈیو بنوایا تھا۔ گوکہ اس کا مقصد صرف ان کی یاد تازہ کرنا بتایا جاتا ہے ۔ اس ویڈیو میں بھی کروناندھی کی برسوں پرانی ویڈیو سے آواز اور تصویر کا نمونہ لیا گیا اور بنائی جانے والی ویڈیو کا مواد ڈی ایم کے نے فراہم کیا۔ یہ ویڈیو بھی انٹرنیٹ پر خوب چلا۔
مزید تشویش کا پہلو یہ ہے کہ اس کا استعمال نفرت پھیلانے، اغوا، فریب دہی اور لوٹ جیسے خطرناک جرائم میں بھی ہورہا ہے۔ اپنے ملک میں بھی ایسے متعدد معاملات سامنے آئے ہیں جس میں لوگوں کو واٹساپ پر فون آتا ہے۔ فون کرنے والا خود کو پولیس افسر بتاکر کسی معاملے میں تفتیش کرنے کے لیے کہتا ہے۔ پولیس کا نام سن کر متعلقہ فرد ڈر جاتا ہے اور پھر مانگی گئی ہر تفصیل دے دیتا ہے۔ اس طرح اس کے اکاؤنٹ سے ہزاروں،لاکھوں روپئے نکال لیے جاتے ہیں۔ واٹساپ میں اکثر اوقات پولیس کی وردی میں ہی فوٹو لگا ہوتا ہے۔ ایسے بھی معاملات سامنے آئے ہیں جب فرضی پولیس افسر نے اسکائپ نامی سافٹ ویر پر ویڈیو کے ذریعہ تفتیش شروع کی اوراس کی مدد کے لیے اس کے دوسرے ساتھی بھی فرضی طور پر پولیس وردی میں موجود تھے۔
گزشتہ سال امریکہ کا ایک واقعہ کافی مشہور ہوا جس میں ایک ماں کو ایک نامعلوم فون آیا۔ فون پر دوسری طرف سےاس کی 15سالہ بیٹی کی رونے اور چیخنے کی آواز آئی۔ماں کو لگا کہ بیٹی کہیں گر گئی ہے اور زخمی ہے۔ اس نے پوچھا کہ کیا ہوا۔تب ایک مرد کی آواز آئی اور اس نے بتا یا کہ اس نے اس کی بیٹی کو اغوا کرلیا ہے اور 50 ہزار ڈالر کے عوض اس کو چھوڑ سکتا ہے ورنہ وہ ا س کو جان سے مار دےگا۔ اس نے اپنی بیٹی کے نمبر پر فون کرنے کی کوشش کی لیکن فون نہیں لگا۔ ابھی وہ صدمے میں دوستوں اور رشتہ داروں کو مدد اور پیسے کے لئے فون کرہی رہی تھی کی اس کی بیٹی گھر آگئی۔ماں کا بیان ہے کہ فون پر آواز ہو بہو اس کی بیٹی ہی کی تھی لیکن بیٹی نے ایسی کسی بھی ناگہانی سےانکار کیا۔ یہ معاملہ پولیس تک گیا اور پتہ چلا کہ کسی نے فراڈ کی غرض سے ڈیپ فیک ٹکنالوجی کے ذریعہ آواز کے نمونے کی مدد سے یہ سب کیا تھا۔
یہ چند مثالیں یہ بتانے کے لیے کافی ہیں کہ معاملہ کتنا نازک اوراہم ہے۔ لہذا اس حوالے سے سب سے اہم بات بیداری کی ہے۔ انٹرنیٹ پر موجود ہرمواد ضروری نہیں کہ صحیح ہو ۔ اس لیے بنا سمجھے سوچے اس کو پھیلانا اور اس پر یقین کرنا صحیح نہیں ہے۔ خاص طو ر پر جب کوئی سنسنی خیز دعویٰ کیا گیا ہو یا کسی کی کردار کشی کی گئی ہو۔سوشل میڈیا پر ذاتی نوعیت کے تفصیل شئیر کرنے سے بھی مسائل پیدا ہوسکتے ہیں۔ اپنی رازداری اور پرائیویسی کا خیال خود رکھنا ضروری ہے۔ اکثر دیکھا گیا ہے کہ فراڈ کرنے والے افراد سوشل میڈیا سے اپنی ضرورت کی تفصیل لیتے ہیں اور پھر لوگوں کو اپنا شکار بناتے ہیں۔ حکومتی سطح پر ابھی تک اس کے لیے کوئی خاص قد م نہیں اٹھا یا گیا ہے اور کئی بار ایسا دیکھا گیا ہے کہ فرضی خبریں مختلف پارٹیوں کے لوگ پھیلاتے رہتے ہیں جس میں برسراقتدار پارٹی کے افراد بھی پیش پیش رہتے ہیں۔قانون نافذ کرنے والے اداروں کی ذمہ داری بھی اس حوالے سے انتہائی اہم ہے۔

qr code

Please scan this UPI QR Code. After making the payment, kindly share the screenshot with this number (+91 98118 28444) so we can send you the receipt. Thank you for your donation.