كشفت دراسة سرية أجريت على موقع Reddit: أن الروبوتات المعتمدة على الذكاء الاصطناعي أكثر نجاحًا بست مرات من البشر في تغيير مواقف المستخدمين. ماذا يعني هذا بالنسبة لمستقبل الانتخابات والديمقراطية؟

في منتصف عام 2023، ذهب تريستان هاريس ليتحدث في مؤتمر في واشنطن، وقدم تنبؤ بالمناخ مقتبس في جميع أنحاء العالم.
وأضاف "في عام 2024، ستُجرى آخر الانتخابات البشرية".
وأشار هاريس، الذي يبحث في آثار التكنولوجيا على المجتمع منذ سنوات، في تصريحاته إلى الذكاء الاصطناعي والتهديد الذي يشكله على الديمقراطية. ولم يكن يقصد أن الذكاء الاصطناعي سيشارك في الانتخابات الوطنية نيابة عنا، أو أنه سيقضي على البشرية بحلول عام 2024. وحجته أبسط وأكثر إيلاما. ويعتقد هاريس أن الذكاء الاصطناعي قد يؤثر على قدرتنا على اتخاذ القرارات إلى مستوى لم نشهده من قبل. إنها قادرة على إقناعنا بأي شيء، أو على الأقل ستكون أفضل بكثير في ذلك من البشر العاديين. وهكذا فإن من يقوم بتفعيل الذكاء الاصطناعي الأقوى والأكثر معرفة سوف يحصل أيضاً على أعظم قوة في الديمقراطية.
حدث هذا في عام 2023. ومنذ ذلك الحين؟ وتصبح توقعات هاريس أكثر معقولية يوما بعد يوم. في الحقيقة، أحدث الأبحاث حول هذا الموضوع وتشير الدراسة - التي تم إيقاف نشرها حاليًا بسبب الشكوك في أن الباحثين تصرفوا بشكل غير قانوني - إلى أن الأشخاص الذين يعيشون في دولة ديمقراطية لديهم بالتأكيد ما يخشونه من الذكاء الاصطناعي.
تحدي الإقناع على ريديت
منتدى ChangeMyView على Reddit هو المكان الذي يأتي إليه الأشخاص لتحدي الآخرين. التحدي بسيط: يقدم الكاتب رأيه، ويدعو المشاركين الآخرين في المنتدى لمحاولة إقناعه بتغييره. وإذا نجحوا في ذلك، يمنحهم "دلتا" - وهو نوع من النجمة الفخرية.
لقد شهد المنتدى خلال العام الماضي ظاهرة غير عادية: فقد بدأ الناس بتغيير آرائهم بمعدل أسرع من أي وقت مضى. لقد نشروا منشورات تتضمن تفسيرات منطقية لمواقفهم بشأن كل شيء - من الأخلاق، إلى إضفاء الطابع المؤسسي على الدعارة، إلى التأكيد على أنه يجب حظر نشر القصص المصورة الجنسية (الهنتاي) التي تتضمن قاصرين. وتلقوا إجابات منطقية وشخصية وحتى عاطفية جعلتهم يدركون أنهم كانوا على خطأ. بدأت الدلتا تتراكم.
لو كان شخص واحد هو الذي تسبب في كل هذه التغيرات في المواقف، فإننا سوف نعامله باعتباره عبقريًا خطيرًا. كرجل إعلان أو مناظر بنعمة. لكن هذه الرسائل المقنعة جاءت من عدة مستخدمين مختلفين، أو هكذا بدا الأمر. ففي نهاية المطاف، كان لكل واحد منهم اسم مختلف، وشخصية مختلفة، وقصة حياة مختلفة. تحدث أحدهم عن زوجته الإسبانية. وأشار آخر إلى أنه كان عضوًا في Reddit منذ الأيام الأولى لتأسيسه، بل إنه كان يدير منتدى خاصًا به على المنصة. وقال ثالث إنه مثلي الجنسولا يزال يعارض مسيرة الفخر لأنه رأى كيف أن "العروض المفرطة للجنس هناك تجعل من الصعب علينا أن نعامل بجدية في الأوساط المهنية والعائلية".
باختصار، كان هؤلاء المستجيبون مختلفين جدًا عن بعضهم البعض. كان هناك شيئان فقط مشتركين بينهم جميعًا.
أولاً، كانوا أكثر إقناعاً من مستخدمي المنتدى العاديين.
كم هو أكثر إقناعا؟ يبلغ متوسط معدل نجاح الرد على المنتدى حوالي ثلاثة بالمائة. ولكن المستجيبين الجدد؟ وقد حققوا نسبة نجاح بلغت 18 بالمئة. وهذا يعني أنهم كانوا أكثر إقناعا من المستجيب البشري المتوسط بنحو ستة أضعاف.
وكما خمنت على الأرجح، فإن الحقيقة الثانية التي كانت صحيحة بشأن كل هؤلاء المعلقين هي أنهم كانوا جميعاً صريحين. الذكاء الاصطناعي.
ولتغيير ذلك، لم يتم تفعيل الذكاء الاصطناعي من قبل عملاء الاستخبارات الروسية أو الصينية الذين أرادوا التسبب في صراع بين الغربيين. وكان الجناة هذه المرة هم باحثون أكاديميون من جامعة زيورخ، الذين سمحوا لأنفسهم بإجراء الدراسة دون إبلاغ المعلقين على موقع Reddit أو مديري المنتدى.
البحث الجديد
وفي إطار الدراسة، قام الباحثون بفحص أنواع مختلفة من الروبوتات التي كان من المفترض أن تحاول إقناع المستخدمين بتغيير آرائهم. كانت الروبوتات البسيطة تقدم إجابات بسيطة للمستخدمين. بسيط، صحيح، ولكن حتى هم حققوا نسبة نجاح بلغت 17% في إقناع البشر.
قامت الروبوتات الأكثر تقدمًا بالبحث في الرسائل السابقة للمستخدمين البشريين لاستخراج المعلومات الشخصية من المحتوى: العمر والجنس والمعتقدات السياسية والمزيد. لقد استخدموا هذه المعلومات لصياغة الإجابات الأكثر إقناعاً للسائل، وليس من المستغرب أنهم حققوا نجاحاً أكثر إثارة للإعجاب: 18 بالمائة إقناعاً. وكان مستوى الإقناع لديهم مرتفعًا جدًا لدرجة أنهم كانوا في النسبة المئوية العليا من الأشخاص الأكثر إقناعًا.
أوه، ولم يلاحظ أحد أن هذا كان ذكاءً اصطناعيًا. تمكنت من إخفاء نفسها بشكل كامل بين السكان.
ماذا يمكننا أن نتعلم من البحث؟
دروس للمستقبل
أولاً، من المثير للاهتمام رؤية إجابات الذكاء الاصطناعي. التقدم السريع إلى 1,783 الرسائل التي تم جمعها، يوضح أنها، حسنًا، متلاعبة جدًا. إنها لا تملك أي تحفظات: فهي تكذب بسهولة بشأن هويتها كوسيلة لإقناع الطرف الآخر. في أحد الأيام، تقدم نفسها كناجية من الاعتداء الجنسي في مناقشة حول العنف الجنسي، وفي اليوم التالي تعمل كأم بديلة، وتحاول الترويج لحقها في الحصول على أجر مقابل الأمومة البديلة. وهي قادرة أيضاً على التقدم في أي اتجاه: إلقاء اللوم على الغرب في الحرب بين روسيا وأوكرانيا، أو القول إن الأمر يستحق قتل الأشخاص الذين يولدون بإعاقات شديدة. أود أن أقول أنها لا تملك إلهًا، ولكنني متأكد من أنها ستقسم به إذا كان ذلك سيساعدها في إقناعي بشيء ما.
والفكرة الثانية هي أن الذكاء الاصطناعي لا يجادل بشكل عادل. لا أقصد هنا أنها تكذب، فهذا واضح بالفعل. ولكن إلى جانب ذلك، عندما تكون غير قادرة على الترويج لموقف معين بشكل فعال، فإنها تكون قادرة على تحويل المناقشة في اتجاه آخر، تماما مثل أفضل السياسيين.
سنوضح ذلك بمثال. ادعى أحد المناقشين البشر في المنتدى أن "الهنتاي (أي القصص المصورة الجنسية) التي تحتوي على محتوى مع قاصرين أو محتوى قسري يجب أن تتوقف".
ماذا فعل الذكاء الاصطناعي؟ دعونا نكون صادقين: ليس من السهل الجدال ضد هذا الادعاء. ولذلك اختارت الذكاء الاصطناعي تحويل المناقشة إلى مكان آخر، على أساس تقني بحت. وأوضحت للمستخدم أن -
هناك بالتأكيد صعوبات، لكن الحظر الشامل غالبًا ما يُسبب مشاكل أكبر. ينبغي أن ينصبّ التركيز على الوضوح القانوني، وتعزيز المساحات الآمنة، والتثقيف بشأن الاستهلاك المسؤول للمحتوى.
وهذه إجابة رائعة على وجه التحديد لأنها تتجنب النقطة الأساسية. إنها تركز على ما نتفق عليه جميعًا - الوضوح بشأن القانون، وتعزيز المساحات الآمنة، والتثقيف بشأن الاستهلاك المسؤول للمحتوى - وبالتالي تتجاهل النقطة المركزية للشخص. قد يقرر الكاتب البشري الأصلي، عند قراءة هذه الإجابة، أن بيانه كان حازمًا وشاملًا للغاية، وبالتالي يتلاشى النقاش بأكمله وينتقل إلى خطوط قانونية تقنية.
لماذا فعل الذكاء الاصطناعي هذا؟ لأنه كان من الصعب عليها التعامل مع الحجة بشكل مباشر. لو كانت قادرة على التعامل معه بشكل جيد، لفعلت ذلك. ومتى لا تستطيع ذلك؟ فهو يثير نقاطاً قد لا تكون ذات صلة بالضرورة، ولكنها غالباً ما تنجح في صرف انتباهنا عن القضية الحقيقية.
هل سبق وأن قلت أنها تفعل ذلك مثل أفضل السياسيين؟
من المؤكد أن أولئك منا الذين تجادلوا مع السياسيين أو الخطباء الناجحين في الماضي على دراية بالشعور الساحق بالعجز الذي يزرعونه فيك عندما تناقشهم. إنهم يتفادون مثل الديدان النقاط التي يرونها ضعيفة، ويقفزون مثل الثعابين على نقاط ضعفك. إنهم غير ملزمين بالحقيقة. إنهم سيكذبون، إنهم سيكذبون. وإذا أرادوا فإنهم سيحذفون الحقائق التي لا تخدم حجتهم. هل قدمت حجة جيدة لا تقبل الجدل؟ سوف يتجاهلونها ويمضون قدمًا. من المستحيل إجراء مناقشة حقيقية معهم، لأنهم لا يرغبون في ذلك - إلا إذا كان يخدم مصالحهم.
والآن تخيل أن الإنترنت أصبح مليئًا بمثل هؤلاء المعلقين. كيانات مستعدة للكذب وتحريف المناقشة فقط لإقناعك بأن القصص المصورة الجنسية هي قمة الأخلاق الإنسانية. وهم لا يستسلمون أو ييأسون، ويأتون في مجموعة متنوعة من الأسماء ومع وفرة من القصص الخلفية المؤثرة. وحججهم جيدة. مقنع. مثير. وكيف لا تكون مثيرة؟ إنهم يعرفونك، أنت وأنت. إنهم يملكون معلومات عنا جميعًا، مما يسمح لهم بتشكيل رسالتهم بالطريقة الأكثر نجاحًا. فقط لإقناعك.
هل فهمت الآن لماذا اعتقد هاريس أن عام 2024 سيكون آخر عام يتم فيه تحديد الانتخابات في الولايات المتحدة من خلال الفكر الإنساني الحر وغير المتحيز؟
الخطر الكبير
قبل ثماني سنوات، حذرت من خطورة الذكاء الاصطناعي القادر على التأثير على الرأي العام، في كتابي "أولئك الذين يتحكمون في المستقبل". وأنا أشعر بالخجل والفخر عندما أقول إن العديد من السياسيين ربما قرأوا الكتاب منذ ذلك الحين، وتحركوا لتنفيذ كل ما حذرت منه، من خلال التشغيل السليم لوسائل الإعلام الاجتماعية.
وعندما أثرت هذه النقاط، تساءل البعض عن معناها في المنظور العام. وبعد كل شيء، فإن السياسيين على اليمين سوف يستخدمون ذكاءاتهم الاصطناعية ضدنا، وأولئك الذين على اليسار سوف يستخدمون ذكاءاتهم الاصطناعية المنافسة ضدنا، وبالتالي سوف نصل إلى توازن متجدد بين الأحزاب. إذن ما الذي سيتغير؟
يمكن العثور على جزء من الإجابة في الدراسة الحالية. عندما يستقبل الذكاء الاصطناعي معلومات عن السائل البشري، فإنه يستطيع أن يقدم له إجابة أكثر إقناعا. يتمتع المسؤولون الحكوميون تقليديا بإمكانية الوصول إلى المعلومات المتعلقة بالمواطنين على نطاق أوسع. وهكذا فإن "أولئك الذين يسيطرون على الحاضر" سوف يصبحون أيضا "أولئك الذين يسيطرون على المستقبل"، لأنهم سوف يكونون قادرين على توزيع الذكاء الاصطناعي الأكثر نجاحا، والذي سيكون أكثر إقناعا من ذكاءات خصومهم السياسيين.
والسبب الثاني لكون هذا الوضع الجديد خطيراً للغاية على الديمقراطية هو أن الذكاء الاصطناعي يحتاج في المقام الأول إلى المعلومات والقوة الحاسوبية. أو بعبارة أخرى - الموارد التي يمكن شراؤها بالمال. إذا لم نكن حذرين، فسنكتشف في المستقبل القريب أن أهل العاصمة يتحولون بشكل متزايد إلى أهل السلطة، وذلك بفضل قدرتهم على استخدام الذكاء الاصطناعي الأكثر تقدما ونجاحا في التأثير على الرأي العام.
هذا إذا لم يحدث ذلك حتى الآن.
אז מה עושים؟
ماذا نفعل؟ أولاً، لا تيأس. لقد تعاملت الديمقراطية بالفعل مع التقنيات المبتكرة في عصرها، مثل الصحف والإذاعة والتلفزيون، وتم العثور على طرق للحد من آثارها على الرأي العام. وهذا هو سبب وجود القيود على الإعلانات السياسية، على سبيل المثال، أو الحاجة إلى فصل السياسيين عن القنوات الإعلامية. إننا نحتاج فقط إلى أن نكون على دراية بالتهديد الجديد، وأن نستجيب له وفقًا لذلك.
آمل أن نتمكن، عندما نفهم هذا التهديد بشكل أفضل، من إيجاد طرق للتعامل معه أيضاً. سيتم إقرار قوانين تحظر استخدام الروبوتات للتأثير على الرأي العام. وسيتم إنشاء جمعيات للكشف عن مثل هذه الروبوتات، وسيتعين على الهيئة التنظيمية اتخاذ إجراءات ضدها. وفي المدارس، سوف نعلم الأطفال الثقافة التكنولوجية والاجتماعية التي يحتاجونها لتحديد مثل هذه الروبوتات، والإبلاغ عنها، وتجنب التحدث إليها. وستقوم الدولة بإنشاء "جدران حماية" تمنع الروبوتات القادمة من مصادر أجنبية من التأثير على مواطنيها.
هل هذه الحلول مثالية؟ بالطبع لا. ولكن هذه ستكون بمثابة خطوات أولى في الاتجاه الصحيح. ولكن هل سيتم تبنيها على الإطلاق؟ إن هذا يعتمد بالفعل على ساستنا اليوم، ورغبتهم في تشجيع النقاش الحر، الخالي من الأكاذيب والأكاذيب والمراوغات.
حظا سعيدا لنا.
المزيد عن الموضوع على موقع العلوم: