فورين بوليسي: كيف سيحدث الذكاء الاصطناعي ثورة في الحرب

الذكاء الاصطناعي في المجال العسكري
يبيّن “مايكل هيرش” في هذا المقال الذي نشره موقع “فورين بوليسي – Foreign Policy”، أن ثورة الذكاء الاصطناعي وتطبيقاته، أطلقت سباق تسلح جديد في التكنولوجيا، ليس له قواعد ويحظى بقليل من حواجز الحماية، تمنع من استخدام هذا المجال بطريقة تضرّ بالبشرية (طبعاً حواجز حماية أمام الصين وروسيا وغيرهم من أعداء أمريكا، بينما لا داعي لوجود حواجز حماية أمام الولايات المتحدة الأمريكية لأنها تملك حواجز ذاتية، والشاهد على ذلك قنبلتي هيروشيما وناكازاكي وغيرهما الكثير من المجازر!).

النص المترجم:

عندما يتعلق الأمر بالذكاء الاصطناعي المتقدم، ركز الكثير من النقاش على ما إذا كان العمال ذوي الياقات البيضاء يواجهون الآن نوعًا من التهديد على مستوى الانقراض الذي واجهته الطبقة العاملة ذات مرة مع الروبوتات. وعلى الرغم من أنه من المحتمل فجأة أن يكون الذكاء الاصطناعي قادرًا على تكرار جزء كبير مما يفعله المحامون والمحاسبون والمعلمون والمبرمجون و- نعم- الصحفيون، فإن هذا ليس حتى المكان الذي من المحتمل أن تحدث فيه الثورة الأكثر أهمية.

يعد أحدث الذكاء الاصطناعي – المعروف باسم المحولات التوليدية المدربة مسبقًا (GPT) – بإحداث تغيير كامل في الجغرافيا السياسية للحرب والردع. ستفعل ذلك بطرق ليست بالضرورة مريحة، والتي قد تتحول حتى إلى وجودية.

من ناحية، يمكن لهذه التكنولوجيا أن تجعل الحرب أقل فتكًا وربما تعزز الردع. من خلال توسيع دور الطائرات بدون طيار الموجهة للذكاء الاصطناعي بشكل كبير في القوات الجوية والبحرية والجيوش، يمكن إنقاذ الأرواح البشرية. بالفعل، يقوم البنتاغون بتجربة روبوتات الذكاء الاصطناعي التي يمكنها قيادة طائرة مقاتلة معدلة من طرازF-16، وتقوم روسيا باختبار المركبات ذاتية القيادة الشبيهة بالدبابات. تسارع الصين إلى طرح أنظمة خاصة بها تعمل بالذكاء الاصطناعي، كما ستنطلق فعالية الطائرات المسلحة بدون طيار في السنوات القادمة. واحدة من أكبر الجهود المبذولة لتطوير الذكاء الاصطناعي، وإن كانت لا تزال ناشئة، هي برنامج سري للقوات الجوية الأمريكية، الجيل القادم من الهيمنة الجوية (NGAD)، والذي بموجبه تعمل حوالي 1000 طائرة بدون طيار، تسمى الطائرات المقاتلة التعاونية، جنبًا إلى جنب مع 200 طائرة يقودها طيّار.

قال دوغلاس شو، كبير المستشارين في مبادرة التهديد النووي: “يمكنني بسهولة أن أتخيل مستقبلًا يفوق فيه عدد الطائرات بدون طيار عدد الأفراد في القوات المسلحة إلى حد كبير”. وفقًا للجنرال المتقاعد بالقوات الجوية الأمريكية تشارلز والد، “سيكون ذلك مضاعفًا للقوة. واحدة من أكبر المشاكل في الوقت الحالي هي التوظيف”.

من ناحية أخرى، يمكن للبرامج التي تعتمد على الذكاء الاصطناعي أن تقود القوى الكبرى إلى تقليص فترة اتخاذ القرار إلى دقائق بدلاً من ساعات أو أيام. قد يعتمدون كثيرًا على التقييمات الاستراتيجية والتكتيكية للذكاء الاصطناعي، حتى عندما يتعلق الأمر بالحرب النووية. قال هربرت لين من جامعة ستانفورد، إن الخطر يكمن في أن صانعي القرار يمكن أن يعتمدوا تدريجياً على الذكاء الاصطناعي الجديد كجزء من القيادة والسيطرة على الأسلحة، لأنها تعمل بسرعات أكبر بكثير مما يستطيع الناس القيام به.

في كتاب نُشر هذا العام، الذكاء الاصطناعي والقنبلة، تخيل جيمس جونسون من جامعة أبردين حربًا نووية عرضية في بحر الصين الشرقي في عام 2025، عجلتها المعلومات الاستخبارية المدعومة بالذكاء الاصطناعي على الجانبين الأمريكي والصيني، وبواسطة الروبوتات المزودة بتقنية الذكاء الاصطناعي وعمليات التزييف العميق وعمليات العلامات الكاذبة”.

قال لين، خبير الأمن السيبراني الذي يعمل في مجلس العلوم والأمن في نشرة الذرة الذرية العلماء. نظرًا لميل الذكاء الاصطناعي إلى المبالغة، قال لين، “عندما يبدأ الناس في الاعتقاد بأن الآلات تفكر، فمن المرجح أن تفعل أشياء مجنونة”.

في تقرير نُشر في أوائل شباط / فبراير، قالت رابطة الحد من الأسلحة إن الذكاء الاصطناعي وغيره من التقنيات الجديدة، مثل الصواريخ التي تفوق سرعة الصوت، يمكن أن تؤدي إلى “عدم وضوح التمييز بين الهجوم التقليدي والنووي”. وذكر التقرير أن التدافع على “استغلال التقنيات الناشئة للاستخدام العسكري قد تسارعت بوتيرة أسرع بكثير من الجهود المبذولة لتقييم المخاطر التي تشكلها ووضع قيود على استخدامها. من الضروري، إذن، إبطاء وتيرة تسليح هذه التقنيات، وموازنة المخاطر بعناية عند القيام بذلك، واعتماد قيود ذات مغزى على استخدامها العسكري”.

قال المسؤولون الأمريكيون إنهم يفعلون ذلك، لكنهم ربما يبحرون في منحدر زلق. في كانون الثاني (يناير) الماضي، قامت وزارة الدفاع بتحديث توجيهاتها بشأن أنظمة الأسلحة التي تنطوي على استخدام الذكاء الاصطناعي، قائلة إنه يجب استخدام بعض الأحكام البشرية على الأقل في تطوير ونشر أنظمة الأسلحة المستقلة. ومع ذلك، في الوقت نفسه، يقوم البنتاغون بتجربة الذكاء الاصطناعي لدمج عملية صنع القرار من جميع فروع الخدمة وأوامر القتال المتعددة. ومع قيام إدارة بايدن بقمع صادرات التكنولوجيا الفائقة إلى الصين، وخاصة أشباه الموصلات المتقدمة، من أجل الحفاظ على الريادة الأمريكية الحالية في الذكاء الاصطناعي، فمن المرجح أن يقوم البنتاغون بتسريع هذه الجهود.

قال والد، “أعتقد أن الذكاء الاصطناعي سيساعد في تحديد الأولويات المستهدفة. قد يكون هذا مفيدًا في الاستراتيجية ضد الصين، التي تمتلك ميزة ميدانية على الولايات المتحدة في تجسير المسافات الشاسعة في المحيط الهادئ، التي يمكن أن تتداخل مع استجابة منسقة لهجوم على تايوان”.

في خطاب ألقاه عام 2019، قال اللفتنانت جنرال جاك شاناهان، المدير السابق لمركز الذكاء الاصطناعي المشترك في البنتاغون، إنه بينما كانت وزارة الدفاع تسعى بشغف إلى “تكامل قدرات الذكاء الاصطناعي”، فإن هذا بالتأكيد لن يشمل القيادة والسيطرة النووية. وأضاف شاناهان أنه يمكن أن يتخيل دورًا للذكاء الاصطناعي في تحديد كيفية استخدام القوة المميتة – بمجرد اتخاذ قرار بشري. قال: “لن أذهب مباشرة إلى “أنظمة الأسلحة الفتاكة المستقلة”، لكنني أريد أن أقول إننا سنستخدم الذكاء الاصطناعي في أنظمة أسلحتنا … لمنحنا ميزة تنافسية. إنه لإنقاذ الأرواح والمساعدة في ردع الحرب من الحدوث في المقام الأول”.

السؤال هو ما إذا كان الصينيون والروس، إلى جانب أطراف ثالثة أخرى، سوف يتبعون نفس القواعد التي تتبعها واشنطن.

قال والد: “لا أعتقد أن الولايات المتحدة سوف تمضي في طريق السماح للأشياء … حيث لا يكون لديك سيطرة بشرية، لكنني لست متأكدًا من أن شخصًا آخر قد لا يفعل ذلك. في الأيدي الخطأ مع الخطأ، أعتقد أن الشاغل الأكبر سيكون السماح لهذه الآلة أو الكيان بمجال عرض أكثر من اللازم”.

مصدر قلق آخر، هو أن تكنولوجيا الذكاء الاصطناعي المتقدمة يمكن أن تسمح للجهات المارقة مثل الإرهابيين، باكتساب المعرفة في بناء القنابل القذرة أو غيرها من الأجهزة الفتاكة. ويتم مشاركة الذكاء الاصطناعي الآن من قبل جهات فاعلة أكثر بكثير مما كانت عليه خلال الحرب الباردة، مما يعني أنه يمكن استخدامه للكشف عن مواقع الأسلحة النووية، مما يقلل من التأثير الرادع لإبقاء مواقعها سرية. قال شو، “سيغير الذكاء الاصطناعي ديناميكية إخفاء الأشياء والعثور عليها”، مشيرًا إلى أن الكثير من البيانات اليوم مملوكة لشركات خاصة قد تكون عرضة للتجسس المدفوع بالذكاء الاصطناعي والتحقيق في أنظمة الأسلحة.

ما يبدو واضحًا هو أن سباق تسلح جديد للذكاء الاصطناعي جاري، وربما لا يوجد الكثير مما يمكن فعله لإيقافه. في رسالة مفتوحة في أواخر آذار / مارس، دعا أكثر من 2000 من قادة وباحث التكنولوجيا – بما في ذلك Elon Musk و Steve Wozniak المعامل في جميع أنحاء العالم إلى التوقف مؤقتًا في تدريب أحدث نماذج الذكاء الرقمي بسبب المخاوف المتتالية من أنها قد تؤدي إلى كارثة للجنس البشري.

إن تحذيرهم من تهديد وجودي للمجتمع قد يكون مبالغًا فيه إلى حد ما؛ انتقد بعض خبراء الذكاء الاصطناعي الرسالة باعتبارها “تثير الخوف” بسبب الوهم بأن هذه النماذج يمكن أن تكون واعية على الإطلاق، كما هو الحال في أفلام الخيال العلمي مثل The Terminator قال لين: “إنها ليستSkynet “، في إشارة إلى شرير الذكاء الاصطناعي الذي دمر الحضارة الإنسانية في فيلم 1984 الشهير. “لكن يمكن أن يؤدي إلى خطأ بشري على أساس الإفراط في الاعتماد. إنها ذخيرة موجهة بدقة ضد الذكاء البشري والعقلانية البشرية”.

علاوة على ذلك، فإن فكرة أن الحكومات ستفرض عقوبات على التأخير من أجل السلامة هي فكرة غير مرجحة إلى أقصى حد. هذا ليس فقط لأن أكبر شركات التكنولوجيا في العالم منخرطة في منافسة شرسة، لا سيما في وادي السيليكون، ولكن أيضًا لأن التكنولوجيا الجديدة يتم طرحها في بيئة دولية أصبحت فيها الولايات المتحدة والصين وروسيا متورطة الآن في صراع قاتم من أجل الهيمنة.

قال اللفتنانت جنرال متقاعد من القوات الجوية ديفيد ديبتولا: “من المهم أن نتذكر أن العدو يحصل على تصويت”. “حتى لو أوقفنا أبحاث الحكم الذاتي وغيرها من عمليات تطوير الذكاء الاصطناعي العسكرية، فإن الصينيين والروس بدرجة أقل سيواصلون بالتأكيد أبحاثهم الخاصة في مجال الذكاء الاصطناعي. أظهر كلا البلدين القليل من الاهتمام في متابعة اتفاقيات الحد من الأسلحة في المستقبل”.

لم تكن الرسالة المفتوحة سوى أحدث دليل على ما لا يمكن تسميته سوى حالة من الذعر على نطاق واسع منذ ظهور ChatGPT على الساحة أواخر الخريف الماضي، وسارعت شركات التكنولوجيا الكبرى لتقديم أنظمة الذكاء الاصطناعي الخاصة بها مع ما يسمى بالذكاء البشري التنافسي. وقالت الرسالة إن القضايا المطروحة كانت أساسية للحضارة الإنسانية: “هل يجب أن ندع الآلات تغمر قنواتنا الإعلامية بالدعاية والكذب؟ هل يجب أن نخرج جميع الوظائف آليًا، بما في ذلك الوظائف التي تفي بالغرض؟ هل يجب أن نطور عقولًا غير بشرية قد تفوق في النهاية عددًا، وتتفوق على الذكاء، وتتقادم، وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟”.

ولكن كان الخط الرئيسي هو هذا: إذا كانت الشركات التي تمول مختبرات الذكاء الاصطناعي لا توافق على مثل هذا التوقف المؤقت، فعندئذ “يجب على الحكومات أن تتدخل وتضع قرارًا بوقف العمل”.

منذ عام 2017، على الرغم من ذلك، أعلن الرئيس الروسي فلاديمير بوتين أن “الشخص الذي يصبح قائدًا في هذا المجال [الذكاء الاصطناعي] سيكون حاكم العالم”، وأن الحروب المستقبلية سيتم تحديدها “عندما يتم تدمير طائرات بدون طيار لطرف واحد بواسطة طائرات بدون طيار من شخص آخر”.

قال شو، إن أكبر مشكلة في مبادرة التهديد النووي هي أننا “لا نجري محادثة حقًا حول ما هو التالي”.

يتفق العديد مع ذلك من الآخرين. تجري DARPA – وكالة مشاريع الأبحاث الدفاعية المتقدمة التابعة للبنتاغون – برنامجًا بحثيًا واسع النطاق يسمى AI Forward. قال المتحدث باسم DARPA “مات توريك” مؤخراً، إن أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT قد أثارت قضايا جديدة خطيرة حول “مستوى الموثوقية الذي نحتاجه على الأرجح … لاتخاذ القرار في الحياة أو الموت”.

 

المقالة تعبر عن رأي كاتبها ولا تعبر بالضرورة عن رأي القناة

بإمكانكم إرسال مقالاتكم و تحليلاتكم لغرض نشرها بموقع الغدير عبر البريد الالكتروني

[email protected]

شاهد أيضاً

غارات صهيونية على الضاحية الجنوبية لبيروت

افادت مصادر لبنانية ، اليوم الجمعة، بأن الطيران الحربي الصهيوني شن غارات على الضاحية الجنوبية …

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *