الذكاء الاصطناعي حليف أميركا الخفي في الحرب


نموذج الذكاء الاصطناعي نفسه الذي يساعد المستخدمين على كتابة رسائل تسويقية أو إعداد وصفات طعام سريعة، تم استخدامه أيضاً في الهجوم الأميركي على إيران.
لجأت القيادة المركزية الأميركية لنموذج “كلود” التابع لشركة “أنثروبيك” في “تقييمات استخباراتية، وتحديد الأهداف، ومحاكاة سيناريوهات المعارك” خلال الضربات على البلاد، وفقاً لتقرير نشرته صحيفة “وول ستريت جورنال”.
وقبل ساعات من ذلك، كان الرئيس الأميركي دونالد ترمب أمر الوكالات الفدرالية بالتوقف عن استخدام “كلود” بعد خلاف مع الشركة المطورة له. لكن الأداة كانت متغلغلة بعمق في أنظمة البنتاغون إلى درجة أن فك ارتباطها سيستغرق أشهراً لصالح منافس أكثر امتثالًا. كما استُخدمت أيضاً في العملية التي جرت في يناير وأسفرت عن القبض على نيكولاس مادورو.
لكن ماذا تعني عملياً عبارتا “التقييمات الاستخباراتية” و”تحديد الأهداف”؟ هل كان “كلود” يحدّد مواقع يُقترح ضربها أو يقدّر عدد الضحايا المحتملين؟
لم يُفصح أحد عن ذلك، والأكثر إثارةً للقلق أنه لا توجد جهة مُلزمة بالإفصاح عنه.
الذكاء الاصطناعي في الحروب
لطالما استُخدم الذكاء الاصطناعي في الحروب لأغراض مثل تحليل صور الأقمار الصناعية، واكتشاف التهديدات السيبرانية، وتوجيه أنظمة الدفاع الصاروخي. إلا أن استخدام روبوتات المحادثة- وهي التقنية نفسها التي يستخدمها مليارات الأشخاص في مهام يومية مثل كتابة الرسائل الإلكترونية- بدأ الآن يدخل إلى ساحة المعركة.
في نوفمبر الماضي، دخلت “أنثروبيك” في شراكة مع شركة “بالانتير تكنولوجيز” (Palantir Technologies)، وهي شركة لتحليل البيانات تعمل على نطاق واسع مع البنتاغون، لتحويل نموذج اللغة الكبير “كلود” إلى محرك الاستدلال داخل نظام دعم القرار العسكري.
ثم في يناير، قدّمت “أنثروبيك” عرضاً بقيمة 100 مليون دولار إلى البنتاغون لتطوير تقنية أسراب الطائرات المسيرة ذاتية التشغيل التي يتم التحكم بها صوتياً، وفق ما أفادت “بلومبرغ نيوز”. وكانت فكرة الشركة تقوم على استخدام “كلود” لترجمة نية القائد العسكري إلى تعليمات رقمية تنسّق عمل أسطول من الطائرات المسيّرة.
رُفض العرض، لكن المناقصة كانت تتطلب أكثر بكثير من مجرد تلخيص تقارير استخباراتية كما قد يُتوقع من روبوت محادثة. فقد كان العقد يهدف إلى تطوير قدرات تتعلق بـ”الوعي المرتبط بالأهداف ومشاركتها”، إضافة إلى إدارة العمليات من “الإطلاق حتى الإنهاء” لأسراب من الطائرات المسيّرة قد تكون فتاكة.
اللافت أن كل ذلك يحدث في فراغ تنظيمي، وباستخدام تكنولوجيا معروفة بارتكاب الأخطاء. فظاهرة “الهلوسة” لدى نماذج اللغة الكبيرة هي نتيجة لطريقة تدريبها، حيث تُكافأ على محاولة تقديم إجابة بدل الاعتراف بعدم اليقين. ويرى بعض العلماء أن مشكلة اختلاق المعلومات في الذكاء الاصطناعي قد لا تُحل بالكامل أبداً.
أنظمة ذكاء اصطناعي غير موثوقة
لن تكون هذه المرة الأولى التي تُستخدم فيها أنظمة ذكاء اصطناعي غير موثوقة في الحروب. فقد استُخدمت قاعدة بيانات مدعومة بالذكاء الاصطناعي تُدعى “لافندر” للمساعدة في تحديد الأهداف العسكرية المرتبطة بحركة حماس في غزة. ولم تكن هذه القاعدة نموذج لغة كبير، لكنها حلّلت كميات هائلة من بيانات المراقبة، مثل العلاقات الاجتماعية وسجل المواقع، لإعطاء كل شخص درجة من 1 إلى 100. وعندما تتجاوز درجة شخص ما حداً معيناً، تُصنّفه “لافندر” هدفاً عسكرياً.
لكن المشكلة أن النظام كان يخطئ بنسبة 10%، وفقاً لتحقيق نشره الموقع الإسرائيلي-الفلسطيني “+972”. وتقول ماريا روزاريا تاديو، أستاذة أخلاقيات التكنولوجيا الرقمية وتقنيات الدفاع في معهد الإنترنت بجامعة أكسفورد، إن “نحو 3600 شخص استُهدفوا بالخطأ”.
وتضيف إلكه شفارتس، أستاذة النظرية السياسية في جامعة “كوين ماري” في لندن ومؤلفة كتاب “Death Machines: The Ethics of Violent Technologies”: “هناك نقاط ضعف هائلة في هذه الأنظمة ودرجة كبيرة جداً من عدم الموثوقية.. عندما يتعلق الأمر بشيء ديناميكي وحساس وإنساني مثل الحرب”.
تسريع الحرب وتقليل الرقابة البشرية
تشير شفارتس إلى أن الذكاء الاصطناعي يُستخدم غالباً في الحروب لتسريع العمليات، وهو ما قد يؤدي إلى نتائج غير مرغوبة. فالقرارات تُتخذ بسرعة أكبر وعلى نطاق أوسع ومع قدر أقل من التدقيق البشري. وتقول إن استخدام الذكاء الاصطناعي في المجال العسكري أصبح أكثر غموضاً خلال العقد ونصف العقد الماضيين.
كما أن السرية جزء أساسي من طريقة عمل مختبرات الذكاء الاصطناعي حتى قبل تطبيقاتها العسكرية. فهذه الشركات ترفض الإفصاح عن البيانات التي تُدرَّب عليها نماذجها أو عن كيفية توصل أنظمتها إلى استنتاجاتها.
بالطبع، غالباً ما تُحاط العمليات العسكرية بالسرية لحماية المقاتلين ومنع الأعداء من كشف الخطط. لكن الدفاع يخضع أيضاً لـ”القانون الدولي الإنساني” ومعايير لاختبار الأسلحة، والتي ينبغي نظرياً أن تشمل استخدام الذكاء الاصطناعي. ومع ذلك، فإن هذه المعايير إما مفقودة أو غير كافية إلى حد كبير.
وتشير تاديو إلى أن المادة 36 من اتفاقية جنيف تشترط اختبار أنظمة الأسلحة الجديدة قبل نشرها. لكن نظام الذكاء الاصطناعي الذي يتعلم من بيئته يصبح نظاماً جديداً في كل مرة يتم تحديثه، ما يجعل تطبيق هذه القاعدة شبه مستحيل.
غياب الشفافية حول استخدام التكنولوجيا في الحروب
في عالم مثالي، قد تكشف حكومات مثل حكومة أميركا عن كيفية استخدام هذه الأنظمة في ساحة المعركة. وهناك سابقة لذلك. فقد بدأت الولايات المتحدة استخدام الطائرات المسيرة المسلحة بعد هجمات 11 سبتمبر 2001، ثم وسعت استخدامها في عهد الرئيس باراك أوباما، مع رفض الاعتراف بوجود البرنامج أصلًا.
استغرق الأمر نحو 15 عاماً من الوثائق المسرّبة والضغط الإعلامي والدعاوى القضائية التي رفعها “الاتحاد الأميركي للحريات المدنية” (ACLU) قبل أن ينشر البيت الأبيض في 2016 أعداد الضحايا الناتجة عن ضربات الطائرات المسيرة. ورغم أن الأرقام اعتُبرت أقل من الواقع، فإنها سمحت لأول مرة للرأي العام والكونغرس ووسائل الإعلام بمساءلة الحكومة.
سيكون ضبط استخدام الذكاء الاصطناعي أصعب بكثير، إذ سيتطلب ضغطاً عاماً وتشريعياً أكبر لإجبار إدارة ترمب المتشددة على إنشاء إطار مماثل للإبلاغ.
ولا يتمثل الهدف في الكشف الدقيق عن كيفية استخدام “كلود” في عملية مثل “عملية الغضب الملحمي”، بل في نشر الخطوط العامة لاستخدامه، وفقاً لشفارتس. والأهم من ذلك، الكشف عندما يحدث خطأ ما.
الخلاف بين “أنثروبيك” والبنتاغون
النقاش العام الحالي عن الخلاف بين “أنثروبيك” والبنتاغون حول ما هو قانوني أو أخلاقي للذكاء الاصطناعي فيما يتعلق بالمراقبة الجماعية للأميركيين أو تطوير أسلحة ذاتية التشغيل بالكامل يغفل سؤالًا أكبر: غياب الشفافية بشأن كيفية استخدام هذه التكنولوجيا بالفعل في الحروب.
مع وجود أنظمة جديدة وغير مجرَّبة عرضة للأخطاء، تصبح هذه الشفافية ضرورية. وتقول تاديو: “لم نقرر بعد كمجتمع ما إذا كنا مرتاحين لفكرة أن آلة قد تقرر ما إذا كان يجب قتل إنسان أم لا”.
الدفع نحو هذه الشفافية أمر بالغ الأهمية قبل أن يصبح استخدام الذكاء الاصطناعي في الحروب أمراً روتينياً إلى درجة أن أحداً لن يفكر في طرح الأسئلة بعد الآن. وإلا فقد نجد أنفسنا ننتظر خطأً كارثياً، ولا نفرض الشفافية إلا بعد وقوع الضرر.


