أربع طرق يمكن من خلالها إساءة استخدام الذكاء الاصطناعي في انتخابات عام 2024

من التزييف العميق إلى التدخل الخارجي - سيعمل الذكاء الاصطناعي على تسهيل وتبسيط العمليات التي تم تنفيذها حتى قبل وجودها

بقلم باربرا تريش، أستاذ السياسة بكلية غرينيل 

الانتخابات الأمريكية في ظل الذكاء الاصطناعي
الانتخابات الأمريكية في ظل الذكاء الاصطناعي. الرسم التوضيحي: موقع Depositphotos.com

يشعر الجمهور الأمريكي بالقلق من الذكاء الاصطناعي وانتخابات عام 2024. 

ووجد استطلاع أجراه مركز بيو للأبحاث في سبتمبر 2024 أن أكثر من نصف الأمريكيين يشعرون بالقلق من استخدام الذكاء الاصطناعي، وهي تقنية تحاكي عمليات التفكير لدى البشر، لإنشاء معلومات مضللة وملفقة خلال الحملة الانتخابية. 

بحثي الأكاديمي حول الذكاء الاصطناعي قد يخفف بعض المخاوف. وعلى الرغم من أن هذه التكنولوجيا المبتكرة يمكنها بالتأكيد التأثير على الناخبين أو نشر الأكاذيب على نطاق واسع، إلا أن استخدامات الذكاء الاصطناعي في الدورة الانتخابية الحالية ليست جديدة على الإطلاق في معظم الحالات. 

لقد حددت أربعة أدوار يلعبها الذكاء الاصطناعي أو يمكن أن يلعبها في حملة عام 2024، وكلها نسخ محدثة من الأنشطة الانتخابية التقليدية. 

1. معلومات للناخبين 

أدى إطلاق ChatGPT في عام 2022 إلى جلب وعود الذكاء الاصطناعي ومخاطره إلى الوعي العام. هذه التكنولوجيا "منتجة" لأنها تولد ردودًا على النص بناءً على طلبات المستخدم: يمكنها كتابة الشعر والإجابة على الأسئلة التاريخية - وتقديم معلومات حول انتخابات 2024. 

فبدلاً من البحث في جوجل عن المعلومات المتعلقة بكيفية التصويت، قد يطرح الناس أسئلة باستخدام الذكاء الاصطناعي الذي يولد الأسئلة. على سبيل المثال، "ما مدى تغير التضخم منذ عام 2020؟" أو "من يترشح لعضوية مجلس الشيوخ الأمريكي عن ولاية تكساس؟" 

ترفض بعض منصات الذكاء الاصطناعي، مثل برنامج Gemini chatbot التابع لشركة Google، الإجابة على الأسئلة المتعلقة بالمرشحين والتصويت. بعضها، مثل أداة Llama للذكاء الاصطناعي على فيسبوك، تجيب وتجيب بدقة. 

يمكن للذكاء الاصطناعي أيضًا إنشاء معلومات خاطئة. في الحالات القصوى، يمكن للذكاء الاصطناعي أن "يتخيل" أو "يهلوس"، مما يؤدي إلى نتائج خاطئة تمامًا. 

أشار تقرير CBS News الصادر في يونيو 2024 إلى أن ChatGPT قدم ردودًا غير صحيحة أو غير كاملة على الاستفسارات في بعض الولايات الرئيسية، ولم يشير باستمرار إلى CanIVote.org، وهو موقع محترم للحصول على معلومات التصويت. 

كما هو الحال مع الإنترنت، يحتاج الأشخاص إلى التحقق من نتائج بحث الذكاء الاصطناعي. الرجاء ملاحظة ما يلي: يقوم Google's Gemini بإرجاع الإجابات تلقائيًا لعمليات بحث Google في أعلى صفحة النتائج. قد تصادفك إحدى أدوات الذكاء الاصطناعي عندما تعتقد أنك تبحث في الويب. 

2. رمح عميق 

التزييف العميق عبارة عن صور أو ملفات صوت وفيديو يتم إنتاجها بواسطة الذكاء الاصطناعي الإبداعي المصمم لإعادة إنتاج الواقع. في الواقع، هذه إصدارات مقنعة بشكل خاص لما يسمى الآن "المزيفة الرخيصة" - الصور التي يتم تحريرها باستخدام الأدوات الأساسية مثل Photoshop وبرامج تحرير الفيديو. 

أصبحت إمكانية التزييف العميق للاحتيال على الناخبين واضحة عندما انتحل مسوق عبر الهاتف مزيف يعمل بالذكاء الاصطناعي شخصية جو بايدن قبل الانتخابات التمهيدية في نيو هامبشاير في يناير 2024 وطلب من الديمقراطيين الاحتفاظ بأصواتهم لشهر نوفمبر. 

وقضت لجنة الاتصالات الفيدرالية لاحقًا بأن الرسائل الهاتفية التي ينتجها الذكاء الاصطناعي تخضع لنفس القواعد التي تخضع لها جميع الرسائل الهاتفية. ولا يمكن الاتصال بها تلقائيًا أو إرسالها إلى الهواتف المحمولة أو الخطوط الأرضية دون موافقة مسبقة. 

كما فرضت الوكالة أيضًا غرامة قدرها 6 ملايين دولار على المستشار الذي أنشأ مكالمة بايدن المزيفة – ليس بتهمة تزوير الناخبين ولكن لتقديم معلومات غير صحيحة.

في حين أنه يمكن استخدام الوسائط الاصطناعية لنشر المعلومات المضللة، فإن التزييف العميق أصبح الآن جزءًا من مجموعة الأدوات الإبداعية للمعلنين السياسيين. 

كان أحد الاستخدامات المبكرة للتزييف العميق الذي يهدف إلى الإقناع بدلاً من الخداع الصريح هو إعلان الذكاء الاصطناعي في سباق رئاسة البلدية لعام 2022 في شريفيبورت، لويزيانا، والذي صور العمدة الحالي على أنه طالب يتم استدعاؤه إلى مكتب المدير. 

تضمن الإعلان بيانًا موجزًا ​​بأنه مزيف للغاية، وهو تحذير لم تكن مطلوبة من قبل الحكومة الفيدرالية ولكن كان من السهل تفويته. 

ويشير مشروع الذكاء الاصطناعي للانتخابات التابع لمجلة Wired، والذي تتبع استخدامات الذكاء الاصطناعي في حملة عام 2024، إلى أن التزييف العميق لم يغمر الإعلانات التي شاهدها الناخبون. لكن تم استخدامها من قبل المرشحين من جميع أنحاء الخريطة السياسية وتثقيفنا السياسي لأغراض عديدة - بما في ذلك الاحتيال. 

يلمح الرئيس السابق دونالد ترامب إلى التزييف العميق للديمقراطيين عندما يشكك في حجم الحشد في فعاليات نائبة الرئيس كامالا هاريس. ومن خلال تقديم مثل هذه الادعاءات، يحاول ترامب كسب "عائد الكذاب" - الفرصة لزرع فكرة أن المحتوى الحقيقي مزيف. 

والتوقيع على خصم سياسي بهذه الطريقة ليس جديدا. ظل ترامب يدعي أن الحقيقة هي في الأساس "أخبار مزيفة" منذ مؤامرة "مسقط رأس أوباما" عام 2008 على الأقل، والتي ساعد فيها في نشر شائعات بأن شهادة ميلاد المرشح الرئاسي باراك أوباما كانت مزورة. 

3. الإلهاء الاستراتيجي 

يشعر البعض بالقلق من إمكانية استخدام الذكاء الاصطناعي من قبل منكري الانتخابات في هذه الجولة لإلهاء مسؤولي الانتخابات عن طريق إغراقهم بطلبات السجلات العامة المزيفة. 

على سبيل المثال، قدمت مجموعة True the Vote مئات الآلاف من الطعون للناخبين على مدى العقد الماضي باستخدام متطوعين فقط وتطبيق على شبكة الإنترنت. تخيل قدرتهم إذا تم تجهيزهم بالذكاء الاصطناعي لأتمتة عملهم؟ 

مثل هذه النداءات السريعة والواسعة النطاق لقوائم الناخبين يمكن أن تصرف مديري الانتخابات عن المهام الحاسمة الأخرى، وبالتالي حرمان الناخبين الشرعيين من حقوقهم والتدخل في الانتخابات. 

حاليا، لا يوجد دليل على حدوث ذلك. 

4. التدخل الخارجي في الانتخابات 

لقد أكد التدخل الروسي الذي تم الكشف عنه بالفعل في انتخابات عام 2016 أن تهديد التدخل الأجنبي في السياسة الأمريكية، سواء من قبل روسيا أو دولة أخرى تسعى إلى إضعاف الديمقراطية الغربية، لا يزال يشكل مصدر قلق ملحا. 

وفي يوليو/تموز 2024، صادرت وزارة العدل الأمريكية اسمي نطاق وحققت في ما يقرب من 1,000 حساب يستخدمها الروس فيما وصفته بـ "مزارع الروبوتات على وسائل التواصل الاجتماعي"، على غرار تلك التي استخدمتها روسيا للتأثير على آراء مئات الملايين من الأشخاص. يمكن لمستخدمي فيسبوك في حملة 2020 أن يمنحوا الأشياء دفعة حقيقية. 

هناك أدلة على أن الصين تستخدم الذكاء الاصطناعي في الانتخابات الحالية لنشر معلومات ضارة عن الولايات المتحدة. قامت إحدى المنشورات على وسائل التواصل الاجتماعي بنسخ خطاب بايدن بشكل غير صحيح للإشارة إلى أنه تناول مسائل جنسية.

قد يساعد الذكاء الاصطناعي المتدخلين في الانتخابات على القيام بعملهم القذر، لكن التكنولوجيا الجديدة ليست ضرورية للتدخل الأجنبي في السياسة الأمريكية.

في عام 1940، كانت المملكة المتحدة -حليفة الولايات المتحدة- تركز بشدة على محاولة إدخال الولايات المتحدة في الحرب العالمية الثانية، لدرجة أن ضباط المخابرات البريطانية عملوا على مساعدة مرشحي الكونجرس الذين دعموا التدخل وتشويه صورة الانفصاليين.

وكان أحد الأهداف هو النائب الجمهوري المنعزل هاملتون فيش. وتداول البريطانيون صورة فيش مع زعيم جماعة أمريكية مؤيدة للنازية في سياق خاطئ، محاولين تصويره على أنه مؤيد للعناصر النازية في الولايات المتحدة وخارجها.

هل يمكن التحكم بالذكاء الاصطناعي؟ 

وفي حين أن الاعتراف بأن التكنولوجيا الجديدة ليست ضرورية لإحداث الضرر أمر مهم، فإن الجهات الفاعلة السيئة يمكن أن تستغل الكفاءات المضمنة في الذكاء الاصطناعي لتشكل تحديا خطيرا لعملية ونزاهة الانتخابات.

تواجه الجهود الفيدرالية لتنظيم استخدام الذكاء الاصطناعي في السياسة نفس العقبات التي تواجهها معظم المقترحات لتنظيم الحملات السياسية. وكانت البلدان أكثر نشاطا: 19 منها تحظر أو تحد من التزييف العميق في الحملات السياسية.

تشارك بعض المنصات في التنظيم الذاتي السهل. على سبيل المثال، يجيب برنامج Gemini من جوجل على الأسئلة المتعلقة بالمعلومات الأساسية حول الانتخابات بالقول: "حالياً لا أستطيع المساعدة في الإجابات المتعلقة بالانتخابات والشخصيات السياسية".

قد يستخدم محترفو الحملة أيضًا التنظيم الذاتي. في مؤتمر تكنولوجيا الحملات في مايو 2024، أعرب العديد من المتحدثين عن قلقهم بشأن رد فعل الناخبين العنيف إذا اكتشفوا أن الحملة تستخدم تكنولوجيا الذكاء الاصطناعي. وبهذا المعنى، قد يكون الاهتمام العام بالذكاء الاصطناعي مفيدًا، كإطار وقائي معين.

لكن الجانب الآخر من هذا القلق العام - ما يسميه نيت بريسيلي من جامعة ستانفورد "ذعر الذكاء الاصطناعي" - يمكن أن يؤدي إلى مزيد من تآكل الثقة في الانتخابات.

المزيد عن الموضوع على موقع العلوم:

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.