غزہ میں قتل عام ؛ مائیکروسافٹ پر سہولتکاری کا الزام
ناقدین کے مطابق یہ ایک خطرناک مثال قائم کرتا ہے، جس کے تحت مستقبل میں ٹیکنالوجی کمپنیاں خودکار جنگی نظاموں کی شراکت دار بن سکتی ہیں

حال ہی میں سامنے آنے والی تحقیقات میں سنگین دعوے کیے گئے ہیں کہ مائیکروسافٹ کے کلاؤڈ اور مصنوعی ذہانت کے نظام نے غزہ میں اسرائیلی فوج کے ہدفی حملوں میں مرکزی کردار ادا کیا، جسے ناقدین غزہ میں قتل عام کی معاونت قرار دے رہے ہیں۔
اے آئی کے ذریعے غزہ میں قتل عام میں سہولتکاری کا الزام:
رپورٹس کے مطابق اسرائیلی انٹیلیجنس نے مائیکروسافٹ کے Azure کلاؤڈ پلیٹ فارم کا استعمال کرتے ہوئے ڈرونز، چیک پوسٹس اور فون انٹرسیپٹس سے حاصل ہونے والی وسیع نگرانی کا ڈیٹا پراسیس کیا، خصوصاً غزہ جنگ کے شدید مراحل کے دوران۔
یہ ڈیٹا، جس کی مقدار تقریباً 13.6 پیٹا بائٹس بتائی گئی ہے، مبینہ طور پر “Lavender” نامی AI نظام میں ڈالا جاتا تھا، جو آواز، پیغامات اور تصویری مواد کی بنیاد پر غزہ کے افراد کو 1 سے 100 تک کا ’’خطرے کا اسکور‘‘ دیتا تھا۔
میڈیا رپورٹس کے مطابق Lavender نے مبینہ طور پر 37,000 فلسطینیوں—جن میں سے زیادہ تر کم سطح کے مشتبہ حماس ارکان تھے—کو ممکنہ فضائی حملوں کے اہداف کے طور پر شناخت کیا۔
ایک اور نظام، جسے “?Where’s Daddy” کہا جاتا ہے، لازمی طور پر ان ہی شناخت شدہ افراد کو ٹریک کرتا تھا اور جب وہ گھر پر موجود ہوتے تو حملے کے لیے سگنل جاری کرتا تھا، جس سے ممکنہ طور پر شہری ہلاکتوں میں اضافہ ہوتا تھا۔
ٹیکنالوجی ماہرین اور انسانی حقوق کے کارکنوں نے خبردار کیا ہے کہ ان نظاموں میں مؤثر انسانی نگرانی کا فقدان بڑے پیمانے پر غلط ہدفی حملوں اور شہری جانی نقصان کا باعث بن سکتا ہے۔
عالمی اور قانونی خدشات
اقوام متحدہ نے ان رپورٹس پر گہری تشویش کا اظہار کرتے ہوئے کہا ہے کہ فی الحال اس بات کی آزادانہ تصدیق کا کوئی طریقہ موجود نہیں کہ واقعی اے آئی کے ذریعے خودکار اہداف کی لسٹس تیار کی گئی تھیں۔
قانونی ماہرین کا کہنا ہے کہ اگر یہ الزامات درست ثابت ہوتے ہیں تو ایسے خودکار ہدفی نظام بین الاقوامی انسانی قانون کی سنگین خلاف ورزیوں کے مترادف ہوسکتے ہیں، خصوصاً جب شہری تحفظ کو خاطر میں نہ لایا جائے۔
غزہ میں قتل عام کا الزام؛ مائیکروسافٹ کا مؤقف
غزہ میں قتل عام میں کردار سامنے آنے والی رپورٹس کے جواب میں مائیکروسافٹ نے اپنی پوزیشن کا دفاع کرتے ہوئے کہا ہے کہ انہیں کوئی ایسا ثبوت نہیں ملا کہ Azure یا اے آئی خدمات کو غزہ میں شہریوں کو نقصان پہنچانے کے لیے استعمال کیا گیا ہو۔
کمپنی کے مطابق اس نے اندرونی طور پر بھی جائزہ لیا اور ایک بیرونی فرم کو بھی شامل کیا، جس نے نتیجہ اخذ کیا کہ اسرائیلی وزارت دفاع کے ساتھ اس کے معاہدے کمپنی کی شرائطِ استعمال اور AI ضابطہ اخلاق کے مطابق تھے۔
مائیکروسافٹ کے AI ضابطہ اخلاق میں انسانی نگرانی، رسائی کنٹرول اور قانونی تقاضوں کی پاسداری کو لازمی قرار دیا گیا ہے۔
تاہم، بعد ازاں مائیکروسافٹ نے ایک سخت قدم اٹھاتے ہوئے یونٹ 8200 کے لیے Azure اور AI خدمات معطل کر دیں، یہ مؤقف اپناتے ہوئے کہ ان کا استعمال شہری نگرانی سے متعلق کمپنی پالیسیوں کی خلاف ورزی تھا۔
کمپنی کے اندر بے چینی
اس تنازع نے مائیکروسافٹ کے ملازمین میں بھی بے چینی پیدا کی۔ سیکڑوں ملازمین نے “No Azure for Apartheid” مہم کے تحت کمپنی پر دباؤ ڈالا کہ وہ اسرائیلی فوج کے ساتھ اپنے معاہدے ختم کرے۔
کئی عوامی تقریبات میں ملازمین نے مائیکروسافٹ کی پریزنٹیشنز میں مداخلت کر کے کمپنی کی ذمہ داری اور شفافیت کا مطالبہ کیا۔
وسیع تر اثرات
اگرغزہ میں قتل عام میں مائیکروسافٹ کی سہولتکاری کے الزامات درست ثابت ہوتے ہیں تو Lavender اور Where’s Daddy جیسے AI نظام ایک خطرناک رجحان کی نشاندہی کرتے ہیں: یعنی تجارتی کلاؤڈ اور AI ٹیکنالوجی کا مہلک فوجی کارروائیوں میں استعمال۔
ناقدین کے مطابق یہ ایک خطرناک مثال قائم کرتا ہے، جس کے تحت مستقبل میں ٹیکنالوجی کمپنیاں خودکار جنگی نظاموں کی شراکت دار بن سکتی ہیں، جو اخلاقی، قانونی اور عالمی سطح پر بے شمار مسائل کو جنم دے گی۔
دوسری جانب مائیکروسافٹ کا کہنا ہے کہ اس نے ہمیشہ قانونی اور اخلاقی دائرے میں رہ کر کام کیا ہے اور جہاں کہیں غلط استعمال کا اندیشہ محسوس ہوا، وہاں کارروائی کی۔
آگے کیا؟
- آزادانہ تصدیق: بین الاقوامی ادارے، این جی اوز اور تحقیقاتی صحافی ممکنہ طور پر اس معاملے کی شفاف جانچ کے لیے مزید دباؤ ڈالیں گے۔
- ضابطہ سازی: جنگی علاقوں میں AI اور کلاؤڈ سروسز کے استعمال کے حوالے سے نئی پالیسی اور قوانین بنائے جانے کا امکان بڑھ گیا ہے۔
- کارپوریٹ جوابدہی: ٹیک کمپنیاں ملازمین، سرمایہ کاروں اور سول سوسائٹی کے بڑھتے ہوئے دباؤ کا سامنا کریں گی تاکہ وہ اپنی خدمات کے عسکری استعمال پر سخت کنٹرولز نافذ کریں۔
۔



