تواجه منظمة أنثروبيك الحكومة الأمريكية بشأن استخدام الذكاء الاصطناعي للمراقبة والأسلحة ذاتية التشغيل

يحدد بيان علني صادر عن الرئيس التنفيذي لشركة أنثروبيك، داريو أمودي، خطين أحمرين: معارضة المراقبة واسعة النطاق للمواطنين الأمريكيين ورفض السماح باستخدام نماذج الشركة لتشغيل الأسلحة ذاتية التشغيل دون سيطرة بشرية.

أعلنت شركة أنثروبيك الحرب على حكومة الولايات المتحدة.
أعلنت شركة أنثروبيك الحرب على حكومة الولايات المتحدة.

من الصعب التنبؤ بالتصريحات التي ستُخلّد في كتب التاريخ، لكن تصريح أنثروبيك الأخير لديه فرصة كبيرة للظهور في سجلات التاريخ، عندما يكتبه في المستقبل أسيادنا الآليون - أو خدمنا. إنه تصريح يُعارض الحكومة الأمريكية بشكل مباشر، ويكشف لنا في الوقت نفسه كيف ترغب الحكومة في استخدام الذكاء الاصطناعي بطرق قد تُلحق الضرر بمواطنيها، وتقوّض الديمقراطية، وتُعرّض مستقبل البشرية للخطر.

لكن لفهم هذه القصة، أحتاج أن أروي لكم قصة أخرى أولاً. 

بدأ كل شيء في فنزويلا

في وقت سابق من هذا العام، وبعد ثلاثة أيام من بداية العام الجديد، استيقظ الفنزويليون ليجدوا أن زعيمهم قد اختُطف. شنت الحكومة الأمريكية هجومًا جويًا واسع النطاق، شمل 150 طائرة ومروحية ومجموعة متنوعة من الطائرات المسيّرة، على البلاد خلال الليل. كانت بعض هذه الطائرات تحمل جنودًا أمريكيين مُسلحين بأحدث الأسلحة المعروفة. اقتحم الجنود المجمع السكني الخاص بالزعيم الفنزويلي نيكولاس مادورو، واختطفوه هو وزوجته إلى الولايات المتحدة، حيث يُحاكمان حاليًا بتهمة تهريب المخدرات.

أشاد الرأي العام الأمريكي إلى حد كبير بقوات الأمن الأمريكية، وإن لم يكن ذلك بشكل كامل. في شركة أنثروبيك، بدأت تُطرح تساؤلات جدية حول دور تقنية الشركة في هذه العملية تحديدًا، واستخدامها من قبل الجيش الأمريكي عمومًا. تمتلك أنثروبيك عقدًا بقيمة مئتي مليون دولار مع وزارة الحرب، لكنها بنت سمعتها بالكامل على التزامها بتعزيز "سلامة الذكاء الاصطناعي". أو بعبارة أخرى: تسعى الشركة لضمان أن يخدم الذكاء الاصطناعي مصلحة البشرية.

بحسب التقارير الصحفية، استخدمت وزارة الحرب الأمريكية الذكاء الاصطناعي لشركة أنثروبيك لتنفيذ غزو فنزويلا. كيف تحديداً؟ لا نعلم، لكن الافتراض الأرجح هو أن الذكاء الاصطناعي لشركة أنثروبيك ساعد في تحليل معلومات استخباراتية متقدمة قادمة من فنزويلا، وفي تشغيل طائرات ذاتية القيادة في ساحة المعركة. 

لم يكن دعاة حماية الإنسان، الذين يسعون لضمان عدم استخدام الذكاء الاصطناعي ضد البشر، راضين عن هذا الأمر. فهم لا يعارضون الحرب من حيث المبدأ - فهم ليسوا من النوع الذي يصورهم البعض على أنهم "هيبيون" - لكنهم أيضاً غير مستعدين لجعل الأسلحة ذاتية التشغيل بالكامل دون وجود عوامل أمان كافية. ويمكن تفهم موقفهم في هذه النقطة، لأن الذكاء الاصطناعي لا يزال بعيداً عن الكمال، وليس من السهل التنبؤ بكيفية تصرف هذه الروبوتات في ساحة المعركة. فخطأ واحد من جانب الذكاء الاصطناعي قد يكلف أرواح أبرياء من كلا الجانبين.

أعربت شركة أنثروبيك عن معارضتها في رسالة بريد إلكتروني غير رسمية إلى وزارة الحرب. أثارت القضية ضجة إعلامية واسعة، وبعد ذلك بوقت قصير، زار داريو عمودي، الرئيس التنفيذي لشركة أنثروبيك، البنتاغون لتسوية الأمور. باختصار، استقبلته وزارة الحرب هناك وأبلغته بوضوح تام أن على أنثروبيك التزام الصمت والامتثال التام لأوامرها. وإذا لم تمتثل، فسيتم تصنيف الشركة على أنها "تهديد لسلسلة التوريد"، وستجبرها الحكومة على العمل لصالحها بموجب "قانون الإنتاج الدفاعي".

لم يتردد الرئيس ترامب طويلاً قبل أن يُصدر سلسلة من تصريحاته على وسائل التواصل الاجتماعي. اتهم شركة أنثروبيك بأنها "صاخبة" و"شركة يسارية متطرفة خارجة عن السيطرة". باختصار، استخدم كل عباراته المعتادة لوصف من لا يُحبهم. ثم أعلن أنه إذا لم تتعاون الشركة، فسيستخدم "كامل صلاحيات الرئاسة لإجبارها على الامتثال، مع ما يترتب على ذلك من عواقب مدنية وجنائية وخيمة".

البيان الأنثروبي

لم يتأخر رد عمودي، في بيان علني أصدره في 26 فبراير. وهو بيان، كما كتبت في بداية المقال، قد يدخل التاريخ كنقطة رفضت فيها شركة واحدة على الأقل من شركات الذكاء الاصطناعي العمل جنباً إلى جنب مع الحكومة وضد المواطنين.

كتب عمودي في البيان نفسه: "أؤمن إيمانًا راسخًا بضرورة استخدام الذكاء الاصطناعي لحماية الولايات المتحدة وغيرها من الديمقراطيات، وهزيمة أعدائنا المستبدين". وأشار إلى أن شركة أنثروبيك كانت أول شركة رائدة في مجال الذكاء الاصطناعي تسمح للحكومة باستخدام خدماتها على الشبكات السرية، والأولى التي صممت نماذج خصيصًا لتلبية احتياجات الأمن الأمريكي. في الوقت نفسه، رفضت الشركة السماح لعملاء تابعين للحكومة الصينية باستخدام منتجاتها. 

الأمور تسير على ما يرام حتى الآن، لكن أمودي أوضح أن لدى منظمة أنثروبيك خطوطاً حمراء أيضاً. ويبدو أن الحكومة الأمريكية قد تجاوزت تلك الخطوط.

قال عمودي: "في عدد محدود من الحالات، نعتقد أن الذكاء الاصطناعي قد يقوض القيم الديمقراطية بدلاً من حمايتها. لم تُدرج حالتان من هذا القبيل في عقودنا مع وزارة الحرب، ونعتقد أنه لا ينبغي إدراجهما الآن".

الخط الأحمر الأول – المراقبة الواسعة النطاق للمواطنين

الخط الأحمر الأول هو المراقبة واسعة النطاق للمواطنين الأمريكيين. أوضح عمودي أنه بموجب القانون الحالي، يمكن للحكومة الحصول على معلومات شاملة ومفصلة حول أنشطة المواطنين الأمريكيين في العالم الرقمي (مثل تصفح الإنترنت) وفي العالم الواقعي. يمكن للذكاء الاصطناعي لشركة أنثروبيك مساعدة الحكومة في جمع كل هذه المعلومات المتناثرة و"البريئة"، واستخدامها لإنشاء ملف تعريف شامل لكل شخص. ويمكنه القيام بذلك تلقائيًا وعلى نطاق واسع. في الواقع، يحصل كل مواطن أمريكي على ضابط استخبارات خاص يراقبه كل يوم، طوال اليوم. وأحيانًا حتى في الليل.

"... إن مثل هذه المراقبة واسعة النطاق قانونية حاليًا،" صرح عمودى، "فقط لأن القانون لم يجد الوقت الكافي لمواكبة القدرات المتنامية بسرعة للذكاء الاصطناعي."

موقف أمودي مفهوم. فنحن نعلم جميعًا أن "السلطة تُفسد، والسلطة المطلقة تُفسد مطلقًا". ولذلك، ثمة سبب وجيه لتقييد سلطة الحكومة في الديمقراطية وتقسيمها بين ثلاث سلطات. فالحكومة التي تعرف كل شيء عن مواطنيها، والمتحررة من أي قيود أخلاقية، تستطيع قمع معارضيها بشتى الطرق. بإمكانها فضح عاداتهم السيئة في تصفح الإنترنت، والبحث عن مخالفات بسيطة ارتكبها كل واحد منا (باستثنائك بالطبع) في الماضي، وتعقبهم لنشر صور تشهيرية، وما إلى ذلك. وفي حالات أكثر تطرفًا، قد تتعقب المعارضين ببساطة وترسل أشخاصًا مقنعين للغاية لإجبارهم على الانتحار طواعية. وهذا ما يحدث في روسيا منذ سنوات عديدة، كما هو الحال في جميع الدول الشمولية.

لذا أتفهم تماماً حذر عمودى في هذه النقطة. وهذه مجرد البداية.

الخط الأحمر الثاني – الروبوتات المستقلة غير الخاضعة للسيطرة

أما الخط الأحمر الثاني المذكور في الوثيقة فهو استخدام الذكاء الاصطناعي للتحكم الكامل بالأسلحة. وكان عمودي يشير هنا إلى الأسلحة ذاتية التشغيل بالكامل، تلك التي تستطيع اختيار من تطلق عليه النار، بل وحتى الضغط على الزناد، دون تدخل بشري. 

هنا الصورة أكثر تعقيداً، وهذا ما يُقرّ به عمودي. فهو لا ينكر أهمية الأسلحة ذاتية التشغيل، لكنه يقول إننا لم نصل بعد إلى مرحلة تكون فيها هذه الأسلحة آمنة بما يكفي لاستخدامها.

بدأ حديثه قائلاً: "الأسلحة شبه ذاتية التشغيل، كتلك المستخدمة في أوكرانيا اليوم، ضرورية للدفاع عن الديمقراطية. حتى الأسلحة ذاتية التشغيل بالكامل قد تكون حاسمة لدفاعنا الوطني. لكن اليوم، أنظمة الذكاء الاصطناعي المتقدمة ببساطة ليست موثوقة بما يكفي للأسلحة ذاتية التشغيل بالكامل. لن نُقدم عن علم منتجًا قد يُعرّض المقاتلين الأمريكيين ومواطنيهم للخطر. ... [الأسلحة ذاتية التشغيل بالكامل] يجب إطلاقها مع وضع قيود مناسبة، وهي غير موجودة اليوم."

بالطبع، يثور التساؤل حول كيفية معرفة شركة أنثروبيك ما إذا كانت الأسلحة ذاتية التشغيل الأكثر تطوراً موثوقة بما يكفي للاستخدام. ومن يحدد مستوى "الموثوقية الكافية" هذا؟ كل ما يمكن قوله هو أن شركة أنثروبيك - التي عملت عن كثب مع وزارة الحرب - تعتقد أن هذه الأسلحة ليست آمنة بما يكفي في الوقت الراهن. 

وهكذا رسم عمودي خطاً فاصلاً وقال: "هذا كل شيء". 

أما الحكومة؟ فلم تكلف نفسها عناء وضع خطوط فاصلة، بل أحرقت كل جسر.

كتب ترامب على حساباته في مواقع التواصل الاجتماعي: "لسنا بحاجة إلى شركة أنثروبيك، ولا نريدها، ولن نتعامل معها مجدداً!". وقد أمر وزير الحرب الشركات التي تعمل مع البنتاغون، مثل لوكهيد مارتن وبوينغ، بدراسة مدى اعتمادها على أنثروبيك، والنية واضحة. فالحكومة الأمريكية تعتزم قطع علاقتها تماماً مع أنثروبيك، وستُلزم جميع الشركات التي تعمل معها بقطع علاقتها بها أيضاً.

الآثار المترتبة على المستقبل

ما هو المعنى الحقيقي لهذه الحرب؟ لا أحد متأكد بعد. تحاول منظمة أنثروبيك حاليًا تحدي الحكومة الأمريكية ذات النفوذ المطلق. في أوقات أكثر هدوءًا، ربما كانت ستنجح. لكن في هذه الأوقات العصيبة، حيث العالم في حالة حرب أو يستعد لها، وترامب يكتسب المزيد من السلطة في الولايات المتحدة، يبقى من غير الواضح ما إذا كان سيرتكب خطأً في توجيه الإهانة. إما أن يفعل أو لا، والأمر المؤكد هو - ربما.

في سيناريو متفائل، ستقود شركة أنثروبيك موجة من شركات الذكاء الاصطناعي التي ستؤكد على قيم الديمقراطية والتدابير الاحترازية، وترفض منح الحكومات سلطات مفرطة. وهذا ليس بالأمر غير المنطقي. فقد أعلن سام ألتمان، الرئيس التنفيذي ومؤسس شركة أوبن إيه آي، دعمه الكامل للخطوط الحمراء التي حددتها أنثروبيك. ومثل هذا التصريح له دلالة كبيرة، في هذه الأيام التي تُحسم فيها المصائر بالكلمات. وقد أصدر مئات الموظفين في جوجل وأوبن إيه آي رسالةً يدعون فيها شركاتهم إلى تبني نهج مماثل. من يدري؟ ربما تنضم شركات ذكاء اصطناعي أخرى إلى هذه الحركة التي سترفض مساعدة أي حكومة ديمقراطية على مراقبة مواطنيها بشكل مكثف، أو إطلاق روبوتات ذاتية التشغيل في ساحات المعارك قبل اختبارها بدقة.

لكن لسوء الحظ، من المحتمل ألا يكون الأمر كذلك.

في السيناريو الأرجح، ستتلقى شركة أنثروبيك ضربة قاسية بسبب تمسكها بمبادئها. يُعدّ العقد مع وزارة الدفاع مجرد صفعة بسيطة لها، بقيمة تقارب مئتي مليون دولار. أما الضربة الحقيقية فستكون عندما تضطر جميع الشركات المتعاونة مع الدوائر الحكومية إلى التوقف عن شراء خدمات أنثروبيك. وقد تصل الخسائر التراكمية بسهولة إلى مليارات الدولارات.

وحتى لو لم تتراجع شركة أنثروبيك عن موقفها في هذه النقطة، فإن شركات الذكاء الاصطناعي الأخرى ستتعاون مع الحكومة. في الواقع، هذا ما سيحدث على الأرجح، إذ سبق أن صرّح إيلون ماسك، مالك شركة xAI المطورة لبرنامج "غروك"، بأن أنثروبيك "تكره الحضارة الغربية". وهو بالطبع على استعداد للتعاون مع وزارة الحرب الأمريكية. سيفعل ما يطلبونه.

لا يعني هذا أن نهاية الديمقراطية وشيكة، أو أن نهاية العالم تقترب. لكنه، في الواقع، يُشير بالتأكيد إلى مستقبل أكثر صعوبة للديمقراطيات الليبرالية. لم يكن من المفترض أن تتمتع الحكومات الديمقراطية بكل هذه السلطة على مواطنيها. لا بد من وجود من يكبح جماحها، وليس من الواضح ما إذا كانت شركة أنثروبيك ستنجح في ذلك. نعم، هناك أيضًا ما يدعو للخوف من سكاى نت، أو الذكاء الاصطناعي القادر على تدمير العالم. فعندما يُمنح الذكاء الاصطناعي سيطرة كاملة على الأسلحة المتطورة، من الطائرات إلى الصواريخ الباليستية، يزداد احتمال وقوع خطأ كارثي بشكل كبير.

لكن دعونا، على الأقل في الوقت الراهن، نشجع منظمة "أنثروبيك" على موقفها الحازم، وتمسكها بمبادئها مهما كلف الأمر، حتى لو أدى ذلك إلى قطع جميع علاقاتها مع الحكومة الأمريكية. هذه إحدى اللحظات التاريخية التي يُفضّل فيها مجتمعٌ ما المبادئ على الربح، وإذا أثبت هذا المجتمع إمكانية ذلك، فربما يحذو بقية العالم حذوه.

المزيد عن الموضوع على موقع العلوم: