’فیس بک بھارت میں مسلم مخالف، نفرت آمیز مواد کو شفافیت سے نہیں ہٹاتی‘

’فیس بک بھارت میں مسلم مخالف، نفرت آمیز مواد کو شفافیت سے نہیں ہٹاتی‘

فیس بک کی کچھ لیک ہونے والی دستاویزات میں یہ انکشاف سامنے آیا ہے کہ سوشل میڈیا کی معروف ویب سائٹ بھارت میں نفرت انگیز تقاریر، غلط معلومات اور اشتعال انگیز پوسٹس، خاص طور پر مسلم مخالف مواد کو شفافیت سے نہیں روکتی۔
یہاں تک کہ انٹرنیٹ کمپنی کے اپنے ملازمین کو اس کے محرکات اور مفادات پر شبہ ہے۔
ڈان اخبار میں شائع امریکی خبر رساں ادارے ’اے پی‘ کی رپورٹ کے مطابق رواں برس مارچ میں کی گئی تحقیق، کمپنی کے میموز پر مبنی ہے جو 2019 کے ہیں۔
کمپنی کے یہ داخلی دستاویزات فیس بک کی، دنیا کی سب سے بڑی جمہوریت اور کمپنی کی سب سے بڑی مارکیٹ میں اس کے پلیٹ فارم پر گستاخانہ مواد کو ختم کرنے کی مسلسل جدوجہد کو اجاگر کرتی ہے۔
خیال رہے کہ بھارت میں فرقہ ورانہ اور مذہبی کشیدگی کی ایک تاریخ موجود ہے جو سوشل میڈیا پر بھی نفرت انگیز پوسٹس اور تشدد کو بڑھاوا دیتی ہے۔
دستاویزات یہ بھی ظاہر کرتی ہیں کہ کمپنی کئی سالوں سے ان مسائل سے آگاہ ہے، جس پر سوالات بھی اٹھائے گئے ہیں کہ کمپنی نے ان مسائل کے حل کے کام کیا بھی ہے یا نہیں۔
کئی ناقدین اور ڈیجیٹل ماہرین کا کہنا ہے کہ فیس بک کا ادارہ اس حوالے سے کچھ بھی کرنے میں ناکام رہا، خاص طور پر جہاں معاملہ بھارتی وزیر اعظم نریندر مودی کی سیاسی جماعت بھارتیہ جنتا پارٹی (بی جے پی) کے ارکان کا ہو۔
دنیا بھر میں فیس بک، سیاست کا اہم حصہ بن چکی ہے اور بھارت کی صورت حال اس حوالے سے مختلف نہیں۔
یہ تاثر عام ہے کہ نریندر مودی نے اس پلیٹ فارم کو انتخابات کے دوران اپنی پارٹی کو فائدہ پہنچانے کے لیے استعمال کیا۔
گزشتہ برس وال اسٹریٹ جرنل کی ایک رپورٹ میں شبہ ظاہر کیا گیا تھا کہ فیس بک کی جانب سے دانستہ طور پر بھارت میں اپنے پلیٹ فارم سے نفرت آمیز مواد کو نہیں ہٹایا جاتا تاکہ بی جے پی اس سے ناراض نہ ہو۔
مودی اور فیس بک کے چیئرمین و چیف ایگزیکٹو افسر (سی ای او) مارک زکربرگ نے خوش مزاجی کو آویزاں کیا ہے، وہ 2015 میں فیس بک ہیڈکوارٹرز میں دونوں کے گلے لگنے کی تصویر کی یادگار ہے۔
لیک ہونے والی دستاویزات میں بھارت میں نفرت انگیز تقاریر اور غلط معلومات کے بارے میں اندرونی کمپنیوں کی رپورٹس کا ایک ذخیرہ شامل ہے جس سے یہ ظاہر ہوتا ہے کہ بعض اوقات نفرت آمیز مواد فیس بک کے اپنے ایلگورتھمز کے باعث زیادہ لوگوں تک پہنچتا تھا۔
ان میں کمپنی کے عملے کے ان مسائل سے درست طریقے سے نہ نمٹنے پر اور پلیٹ فارم پر وائرل ہونے والے ایسے مواد سے متعلق ان کی عدم اطمینان کا اظہار بھی شامل ہے۔
دستاویزات کے مطابق فیس بک نے بھارت کو دنیا کے سب سے زیادہ خطرے والے ممالک میں سے ایک کے طور پر دیکھا اور ہندی اور بنگالی دونوں زبانوں کو نفرت انگیز تقاریر کی خلاف ورزی پر آٹومیشن کی ترجیحات کے طور پر شناخت کیا۔
تاہم اس کے باوجود فیس بک کے پاس کافی مقامی زبان کے ماڈریٹرز یا مواد کی نشاندہی نہیں کی گئی ہیں تاکہ گمراہ کن معلومات کو روکا جاسکے جو بعض اوقات حقیقی دنیا میں تشدد کا باعث بنتی ہیں۔
ایک بیان میں فیس بک نے کہا کہ اس نے ہندی اور بنگالی سمیت مختلف زبانوں میں نفرت انگیز تقاریر کو تلاش کرنے کے لیے ٹیکنالوجی میں نمایاں سرمایہ کاری کی ہے جس سے 2021 میں نفرت انگیز تقاریر کی تعداد کم ہو کر نصف رہ گئی ہے۔
کمپنی کے ترجمان نے کہا کہ ’عالمی سطح پر مسلمانوں سمیت پسماندہ گروہوں کے خلاف نفرت انگیز تقریر بڑھ رہی ہے لہٰذا ہم پالیسی کے نفاذ کو بہتر بنا رہے ہیں اور اپنی پالیسیوں کو اپ ڈیٹ کرنے کے لیے پرعزم ہیں کیونکہ نفرت انگیز تقریر آن لائن سامنے آتی ہے‘۔
یہ رپورٹ سیکیورٹیز اینڈ ایکسچینج کمیشن کو دیے گئے انکشافات پر مبنی ہے اور کانگریس کو سابقہ فیس بک ملازم و وسل بلور فرانسس ہوگن کے قانونی وکیل کی طرف سے اصلاح شدہ صورت میں فراہم کی گئی تھی۔
یہ ورژن نیوز آرگنائزیشنز کے کنسورشیم نے حاصل کیے تھے۔
اس سے قبل فروری 2019 میں اور بھارت کے عام انتخابات سے قبل جب گمراہ کن معلومات کے خدشات میں اضافہ ہو رہا تھا تو فیس بک کا ایک ملازم یہ سمجھنا چاہتا تھا کہ بھارت میں ایک نیا صارف اپنی نیوز فیڈ پر کیا دیکھتا ہے اگر وہ صرف پلیٹ فارم کے ذریعے تجویز کردہ صفحات اور گروپس کو فالو کرتا ہے۔
اس ضمن میں اس ملازم نے ایک ٹیسٹ یوزر اکاؤنٹ بنایا تھا اور اسے تین ہفتوں تک لائیو رکھا تھا، اس دوران ایک غیر معمولی واقعے نے بھارت کو ہلا کر رکھ دیا تھا کہ مقبوضہ کشمیر میں ایک حملے میں 40 سے زائد بھارتی فوجی ہلاک ہوگئے تھے جس سے پاکستان کے ساتھ کشیدگی بڑھ گئی تھی۔
نوٹ، جس کا عنوان ہے ’انڈین ٹیسٹ یوزرز ڈیسنٹ انٹو اے سی آف پولرائزنگ، نیشنلسٹک میسجز’ میں ملازم، جس کا نام حذف کیا گیا ہے، نے کہا تھا کہ وہ نیوز فیڈ میں آنے والے مواد سے حیران تھے۔
کمپنی کے ملازم نے اس مواد کو قوم پرست، گمراہ کن معلومات اور تشدد و اشتعال کو پولرائز کرنے کے بند کے طور پر بیان کیا۔
اسی طرح فیس بک کی طرف سے تجویز کردہ بظاہر بے ضرر گروپس تیزی سے کسی اور چیز میں تبدیل ہوجاتے ہیں جہاں نفرت انگیز تقریر، غیر تصدیق شدہ افواہیں اور وائرل مواد تیزی سے پھیل رہا ہے۔


آپ کی رائے

Leave a Reply

Your email address will not be published. Required fields are marked *

مزید دیکهیں