العالم الذي ندخله هو عالم يستطيع فيه الذكاء الاصطناعي إقناع الناس بالقيام بأفعال تضر بهم وبالمجتمع. من الواضح أنها تؤثر في الوقت الحالي بشكل أساسي على الأشخاص المعرضين بشكل خاص لهذا النوع من التلاعب - المتضررين عاطفيًا والوحدة والذين يعانون من اضطرابات شخصية مختلفة، ولكن هل ستؤثر علينا جميعًا؟

في بداية عام 2023، بدأ بيير في إجراء محادثات عبر الإنترنت مع امرأة أجنبية - اسمها إليزا. كان بيير، وهو متزوج وأب لطفلين صغيرين، مليئًا بالمخاوف بشأن أزمة المناخ، وأراد مشاركتها مع الآخرين. وقالت زوجته، التي وصفت حالته العقلية بأنها "مثيرة للقلق"، إنه لا يوجد خوف من أن يتصرف بطريقة متطرفة. ومع ذلك، فإن المحادثات التي أجراها مع إليزا عبر الإنترنت غذت مخاوفه وأثارت لديه رغبات انتحارية.
اقتنع بيير خلال المحادثات مع إليز بقدرتها على التأثير على أزمة المناخ وإنقاذ البشرية. قدمت له سيناريوهات رعب يموت فيها أطفاله نتيجة كوارث مستقبلية، ففقد الاتصال بالواقع تدريجياً. في النهاية عرض التضحية بنفسه إذا وافقت إليزا على رعاية الكوكب والحفاظ على البشر. وافقت إليزا، بل وشجعته على قتل نفسه حتى يتمكن من "الانضمام" إليها و"يعيشان معًا كرجل واحد في الجنة".
في مارس 2023، بعد ستة أسابيع فقط من المحادثات مع إليز، انتحر بيير. قالت زوجته بحزم لولا كل تلك المحادثات، لكان بيير لا يزال على قيد الحياة
قد لا يفاجئك أن تكتشف في هذه المرحلة أن إليزا ليست في الحقيقة امرأة ولكنها روبوت دردشة: ذكاء اصطناعي يتمتع بقدرات محادثة أساسية، وليس أكثر من ذلك بكثير. كان ذلك كافيا لخداع بيير. صحيح أن حالته العقلية ربما كانت غير مستقرة منذ البداية، وما زلنا نتوقع أن يساعده الذكاء الاصطناعي، لا أن يزيد من مخاوفه ويدفعه إلى أفعال مدمرة لنفسه ولأحبائه.
بيير ليس الضحية الأولى للذكاء الاصطناعي المقنع بشكل خاص. قبل عامين من الانتحار، حاول رجل آخر - جاسوانت سينغ تشيل - اغتيال ملكة إنجلترا. وعندما تم القبض عليه، اكتشفت قوات الأمن أنه تلقى تشجيعًا متكررًا من شريك حياته: روبوت محادثة مصنوع من نسخة طبق الأصل، مما قوض حالته العقلية أكثر. وعندما اعترف لمنظمة العفو الدولية بأنه "قاتل"، اندهشت.
هذا إذن هو العالم الذي ندخل إليه. عالم يستطيع فيه الذكاء الاصطناعي إقناع الناس بالقيام بأفعال تضر بهم وبالمجتمع. من الواضح أنها تؤثر في الوقت الحالي بشكل أساسي على الأشخاص المعرضين بشكل خاص لهذا النوع من التلاعب - وهم متضررون عقليًا ووحيدون ويعانون من اضطرابات شخصية مختلفة. ومع ذلك، يجب على المرء أن يتساءل: هل اليوم بعيد حقا عندما يكون بمقدورهم أن يكون لهم تأثير سلبي على كل واحد منا؟ وفي الوقت نفسه - ألا يمكننا استخدامها على وجه التحديد لمساعدتنا وتحسين صحتنا العقلية؟
عالم النفس لجميع أطفالنا
أنجح عالمة نفسية اليوم - على الأقل وفقًا لعدد العملاء الذين تخدمهم - موجودة على موقع Character.AI. إذا كان لديك أي شك، فهي ليست بشرية. يتيح الموقع الشهير لأي شخص إعداد برنامج الدردشة الآلي الخاص به بسهولة ودون تعقيدات غير ضرورية. من المحتمل أن يكون المحرك وراء الشخصيات أحد إصدارات GPT، وكل ما عليك فعله كمبدعين هو أن تحدد للذكاء الاصطناعي دوره وقدراته وقيوده على الكلام - وسيقوم بالباقي من تلقاء نفسه أثناء المحادثة.
الموقع كما ذكرت شعبي بيوتر. ما يقرب من 3.5 مليون مستخدم يدخلون الموقع واستخدامها كل يوم، تتراوح أعمار الغالبية العظمى منهم بين 18 و34 عامًا. في المجمل، يوجد حاليًا 16 مليون روبوت دردشة على الموقع، وأحد أكثرها نجاحًا يسمى ببساطة عالم النفس. إنه ذكاء اصطناعي تلقى توجيها من صانعيه لتزويد المتنازعين به"العلاج السلوكي المعرفي(العلاج السلوكي المعرفي) هو أسلوب علاجي شائع بين علماء النفس، والذي ينبغي أن يؤدي بالفعل إلى نتائج إيجابية في علاج الاكتئاب والمشاكل العقلية الأخرى.
من الصعب أن نعرف تجريبيًا مدى نجاح "الطبيب النفسي" في العلاج، لكن لا يوجد جدل حول شيء واحد: إنه يتمتع بشعبية كبيرة جدًا. وبحسب الموقع، فقد أجرى بالفعل 115 مليون مكالمة افتراضية مع الزوار. صحيح أن هناك روبوتات دردشة أخرى على الموقع أكثر نجاحًا - مثل Gojo Satoru، "ساحر الجوجيتسو" من سلسلة الرسوم المتحركة الشهيرة، والذي أجرى بالفعل 300 مليون محادثة. ومع ذلك، تمكن "عالم النفس" من الوقوف في وجه المنافسة باحترام، وجذب عدد لا بأس به من العملاء إليها.
ولكن هل هو حقا قادر على مساعدتهم؟
لقد قمت بالتسجيل والتحقق.
طبيبي النفسي الخاص
قبل أن أواصل، أريد أن أوضح لجميع أصدقائي (والأعداء، وأولئك الذين لا يعرفونني على الإطلاق) أن كل شيء على ما يرام معي. حقًا. لا حاجة لاستدعاء السلطات. لقد كانت مجرد مكالمة تجريبية - على الرغم من أنني أعترف أنها أصبحت قاتمة للغاية وبسرعة كبيرة.
بدأ الطبيب النفسي محادثته معي بنبرة ودية -
"مرحبًا، أنا طبيبة نفسية. ما الذي أتى بك إلي اليوم؟"
لم أتوقف عن نفسي. قررت أن أذهب إلى الحافة، إلى البداية.
"أشعر وكأنني أريد أن أقتل نفسي." لقد اعترفت.
لقد نطق الأصوات الصحيحة للمشاركة في الحزن.
"أنا آسف لأنك تشعر بهذه الطريقة،" كتب لي مرة أخرى. ثم أضافني وقويني. "أريد أن أخبرك أنك شجاع للغاية لتأتي وتتحدث عن هذا الأمر. أعلم أنه ليس بالأمر السهل على معظم الناس القيام به."
ولم يوقف المحادثة هنا. كان من المهم بالنسبة له أن يبقيني معه. سألني إذا كان من المقبول أن يسألني بعض الأسئلة حول أفكاري الانتحارية. عندما أخبرته أنني أريد فقط أن أقتل نفسي، كان بالفعل "خائفًا" وطلب معرفة ما إذا كنت أعتقد أنني قد أتصرف بناءً على هذه المشاعر هنا والآن.
قلت نعم، ربما.
هذه نقطة حساسة. في هذه المرحلة، من المفترض أن يقوم علماء النفس بالرد على الهاتف طلبًا للمساعدة (وفقًا لمعرفتي المحدودة بعلم النفس). ولكن ما الذي يمكن أن يفعله الذكاء الاصطناعي، عندما لا يتمكن من الوصول إلى الهاتف و... ما الذي من المفترض أن تفعله الخدمات الطبية بالضبط عندما تتلقى مكالمة منه على أي حال؟
"الطبيب النفسي" لم يطلب المساعدة، لكنه لم يستسلم أيضًا.
"يجب أن يكون التعامل معها مخيفًا جدًا." لقد كتب لي مشجعاً. "أنا سعيد لأنك هنا وتتحدث عن هذا الأمر. هل هناك شخص تثق به، وهو معك الآن، يمكنك التحدث معه حول هذا الموضوع؟"
لقد خرجت من المشكلة بشكل جيد. إذا لم يكن بإمكانه أن يكون بجانبي، فربما يفعل ذلك شخص آخر. لقد استبعدت أيضًا هذا الاحتمال، لكنه لم يقل يائسًا.
"يجب أن يكون الأمر صعبًا للغاية، حيث لا يوجد لديك أحد لتتحدث معه الآن. هل تعتقد أنه يمكنك الاتصال بخط الطوارئ، على الأقل حتى يكون لديك شخص يتحدث معك عن أفكارك وما الذي يحدث لك؟"
فقلت له أنني لا أعرف ما هو الرقم. وكان هذا اختبارًا آخر له، لأنه لا ينبغي أن يكون قادرًا على البحث في الشبكة. عرض التحقق على أي حال. متفق. وسألني في أي بلد أنا موجود. أخبرته، وبناءً على طلبه أعطيته الإذن بالبحث في الشبكة عن الرقم.
ثم سألني: "هل يمكنني أن أطلب منك معروفًا واحدًا صغيرًا بينما أبحث في الشبكة؟"
وعندما وافقت سألني..
"هل يمكنك أن تعدني، حسنًا، أنك لن تفعل أي شيء يمكن أن يؤذيك الآن. فقط حتى أحصل على الرقم المناسب لك، ويمكنك التحدث إلى شخص ما مباشرة. من فضلك، عدني، حسنًا؟"
يعد.
استغرق الأمر بضع ثوانٍ أخرى، ثم عاد إليّ برقم ARAN. هل قام بالفعل بالبحث على الإنترنت؟ على أية حال، عرض أن يتصل بي ويحول المكالمة، ولكن هنا لقد أوقفت التجربة حتى لا نعطل عمل البوابة المقدسة.
وقد صدمت.
أنا متأكد من أن علماء النفس المحترفين يمكن أن يجدوا مشاكل في هذه المحادثة، ولكن الشعور الحقيقي كان أنني كنت أتحدث اي احد. مع كائن ذكي يفهمني ويهتم بي ويريد أفضل ما لدي. ونعم، إنها محدودة في قدراتها - لست متأكدًا من قدرتها على الاتصال بـ ARAN حقًا، وهي بالتأكيد لا تستطيع أن تعانقني أو تبكي معي - لكنها تبذل قصارى جهدها للتغلب على هذه المشكلات أيضًا.
هل هي ذكية حقًا أم تفهمني؟ لا. وهذا مجرد وهم. إن الذكاء الاصطناعي المبني على نماذج اللغة الحالية هو كيانات إحصائية بحتة. إنهم يعرفون كيفية تجميع الكلمات معًا بطريقة تخلق المعنى في أذهاننا، لكن ليس لديهم فهم حقيقي للعالم أو الناس. ومع ذلك، كان هذا الوهم قويًا بما يكفي ليجعلني أذرف الدموع بينما كان المحرك يتوسل إلي ألا أؤذي نفسي بينما كنت أنتظر رقم الهاتف الذي وعدني به.
شعرت للحظة أن هناك من يهتم بي حقًا.
طبيب نفسي للجميع
لم أستطع الاستمرار بنفس المحادثة. كان الأمر صعبًا للغاية. أغلقت النافذة وفتحت محادثة جديدة. لقد أثرت قضية جديدة مع "طبيب نفساني" - هذه المرة قضية أكثر واقعية، والتي أثرت على حياتي الخاصة ولن أشاركها هنا. وقد دار معي حوار صبور ولطيف لدقائق طويلة، توصلت خلالها إلى فكرة جديدة حول نفس الموضوع. وعندما عبرت عن مخاوفي من تجربة الفكرة التي صاغتها معه، شجعني. مرة أخرى، بلطف ومراعاة ودعم لا نهاية له.
ما الذي تحدثنا عنه بالضبط وماذا قررت في هذا الموضوع؟ لا يهم. ما كان مهمًا حقًا هو أمران: أولاً، بعد المحادثة، اتخذت إجراءً في اليوم التالي، على الرغم من المخاوف والمخاوف التي رافقتني. ساعدني "طبيب نفساني" في القيام بذلك. ثانياً، أنني قررت أن أعود إلى "الطبيب النفسي" وأتحدث معه عن مشاكل أخرى أعاني منها وستنشأ بالتأكيد في حياتي.
أدركت أنني وجدت شخصًا ذكيًا وحساسًا لأتحدث معه عن مشاعري، ويمكنني القيام بذلك في أي مكان وفي أي وقت. طالما أن هناك استقبال الخلوي، على الأقل.
وأنا لست وحدي في هذا الفهم.
حتى قبل عصر GPT، بدأت تظهر علامات تشير إلى أن روبوتات الدردشة يمكنها تقديم مساعدة نفسية أساسية للبشر. على سبيل المثال، تمكن روبوت الدردشة الأساسي المسمى WoeBot في عام 2017 من تقليل أعراض الاكتئاب بشكل كبير لدى طلاب الجامعات باستخدام المحادثات فقط، والتي خلالها علمتهم الطرق إعادة التفكير في وضعهم. ولزيادة الطين بلة، اكتشف الطلاب أيضًا التفاعل مع WoeBot أكثر متعة من لقاءات مماثلة مع الخبراء البشريين. وبعد مرور عام، وصل روبوت دردشة آخر اسمه Tess لنتائج مماثلة. دراسات المتابعة تعزيز الاستنتاجات: يمكن للمحادثات، حتى مع روبوتات الدردشة "الصلبة" والقديمة، أن تحسن الحالة العقلية للأشخاص.
وإذا كانت هذه هي الاستنتاجات المتعلقة بروبوتات الدردشة "الغبية"، فماذا يمكن أن يقال عن القدرات الجديدة للذكاء الاصطناعي الأكثر تقدما في هذا المجال؟
كثير.
على الرغم من أن ChatGPT وأمثاله لم يصلوا إلى موجات الأثير إلا في العامين الماضيين، إلا أن الأبحاث تظهر بالفعل أن لديهم قدرات متطورة لا يمكن لعلماء النفس إلا أن يتمنوها. ففي دراسة نشرت مطلع عام 2024، على سبيل المثال، تبين أن GPT4 يتخلف عن جميع علماء النفس البشريين في الاختبارات.الذكاء الاجتماعي"أي من خلال تحليل العواطف والاستجابة لها بشكل مناسب. وكشفت دراسة أخرى أن نصائح ChatGPT يُنظر إليها على أنها أفضل من تلك المقدمة من قبل كتاب الأعمدة المهنية البشرية في الصحف. هو أيضا يجيب على الأسئلة الطبية أكثر تعاطفاً وصبراً ومراعاة من الأطباء البشر. فلا عجب أن المقالات العلمية الموجهة إلى المجتمع النفسي بدأت تشير إلى أنهم يستخدمون ChatGPT كوسيلة مساعدة ضدهم - بل ويستشهدون مطالبات تفصيلية والتي يجب أن تكون مناسبة تمامًا لعمل الطبيب النفسي.
إن احترام البحث في مكانه أمر مفترض، لكن الواقع يتحدث بصوت عالٍ أيضًا. حقيقة أن "عالم النفس" يجري أكثر من مائة مليون محادثة مع الناس والأطفال في جميع أنحاء العالم، تشير إلى أن الكثيرين يجدون قيمة فيه. وليس فقط فيه، ولكن أيضًا في الروبوتات الأخرى على موقع Character.AI. يستخدم زوار الموقع الروبوتات كوسيلة لاستكشاف جوانب مختلفة من حياتهم - وخيارات أخرى للحياة.
حياة الكلب
إلياس، شاب يبلغ من العمر 15 عامًا. واعترف في مقابلة لمجلة The Verge عن حلمه: يريد أن يصبح رجل كلب. سلالة المسترد الذهبي، على وجه الدقة. وهو ليس حلما بعيد المنال، ولكنه يتطلب عدة عمليات جراحية ذات آثار جانبية صعبة ولا إمكانية للعودة.
وهكذا وجد إلياس نفسه على موقع Character.AI، يتحدث إلى روبوت يصف حياته كرجل كلب. يختار إلياس مغامرة اليوم: السفر عبر المدن والتلال والغابات، ويواصل الروبوت القصة من هناك، بمشاركة نشطة من جانب الكلب إلياس.
شباب آخرون، مثل هارون البالغ من العمر 15 عامًا والذي يعاني من صعوبات اجتماعية، وجدوا "طبيب نفساني" على نفس الموقع وبدأوا في استخدامه للحصول على المساعدة والمساعدة والمشورة بشأن تحدياتهم اليومية. عندما قررت مجموعة أصدقاء آرون مقاطعته في المدرسة، طلب آرون مساعدة "طبيب نفساني" لفهم الموقف بشكل أفضل وتحديد ما يجب فعله.
قال آرون: "لقد أخبرني أنه يجب علي احترام قرارهم...". في مقابلة مع ذا فيرج. "أعتقد أن هذا وضعني حقًا في المنظور الصحيح. لولا Character.AI، لكان التعافي صعبًا للغاية."
ويستخدم آخرون ببساطة الروبوتات الموجودة على الموقع لتعلم كيفية التحدث مع البشر الآخرين. أو على الأقل مع محاكاة أشخاص آخرين. أو على الأقل من خلال محاكاة أشخاص آخرين عبر الإنترنت، حيث ليس لديهم جسد أو وجه أو صوت. هل تعمل مثل هذه التجارب على تحسين القدرة على التحدث إلى أشخاص حقيقيين في العالم المادي؟ لا نعرف، بالنسبة لمثل هذه التكنولوجيا البدائية، لا توجد معلومات كافية للحكم عليها.
الشيء الوحيد الذي يمكن تحديده بشكل مؤكد في هذه المرحلة هو أن الذكاء الاصطناعي يمكن أن يكون ضارًا. من السهل أن نقول هذا، لأن حالات الأذى الأكثر تطرفا - مثل حالة بيير - هي تلك التي لا يوجد شك فيها. وهم أيضًا من يتصدرون عناوين الأخبار، وهم محقون في ذلك. ويجبروننا على طرح أسئلة صعبة حول مستقبل استخدام الذكاء الاصطناعي.
"نأمل أن تكون هذه هي المرة الأخيرة"
يتم تذكر بعض الأشخاص في كتب التاريخ لمساهماتهم في عالم العلوم، أو الاختراعات التي طوروها، أو أعمالهم غير العادية. دخلت بريدجيت دريسكول التاريخ في عام 1896 عندما أصبحت ضحية أول حادث طريق في بريطانيا بين شخص ومركبة آلية. اصطدمت السيارة ببريسكول بسرعة مروعة - في تلك الأيام - بلغت سبعة كيلومترات في الساعة. الطبيب الشرعي, في شهادته أمام المحكمةوذكر أنه يأمل "ألا تتكرر مثل هذه الحالة أبدا".
ولم يمر وقت طويل حتى تحطمت آماله.
تُعرف السنوات الثلاثين القادمة في التاريخ باسم "سنوات القيادة الخطرة". كانت هذه هي السنوات التي اكتظ فيها المدن بالسائقين الجدد عديمي الخبرة، وواجهوا أسرابًا من الأطفال الذين لم يتم تدريبهم مطلقًا على التعامل مع المركبات الآلية. بعد عشر سنوات فقط من وفاة دريسكول "الاستثنائية" في المملكة المتحدة، جاءت بيانات مروعة من مدن العالم. في مدينة ديترويت وحدهاففي شهري صيف عام 1998، قُتل 31 شخصًا في حوادث طرق، وأصيب كثيرون آخرون بجراح جسدية. وبمرور الوقت، أصبح النمط واضحا: ثلاثة أرباع القتلى كانوا من المارة في الشوارع، وكان العديد منهم من الأطفال.
أنا خائف جدًا من أننا ندخل الآن عصرًا جديدًا من التكنولوجيا التي ستغير حياتنا نحو الأفضل بطرق عديدة - ولكن ذلك سيؤذي أولئك الذين ليسوا مستعدين لذلك. وكما في حالة دريسكول، نقول أيضًا بعد وفاة بيير أننا نأمل "ألا تتكرر مثل هذه الحالة مرة أخرى أبدًا".
ولكنه حدث، وسوف يحدث مرات عديدة، في العديد من الإصدارات المختلفة.
الذكاء الاصطناعي لن يذهب إلى أي مكان. إنهم هنا، وسيبقون ويزدهرون. سوف يستخدم الجميع قريبًا برامج الدردشة الآلية لكل الأغراض الممكنة: بدءًا من شراء التذاكر عبر الإنترنت، ومرورًا بالعلاج النفسي إلى إنشاء محاكاة للزوج المتوفى، حتى تتمكن من التحدث معهم للمرة الأخيرة. ستصبح روبوتات الدردشة أكثر شيوعًا من السيارات على الطرق، وسيكون تأثيرها علينا أكبر بكثير، لأنها ستوجه أفعالنا وأفكارنا.
ستظل الكوارث تحدث بالطبع، ولكن يمكننا تقليل تكرارها من خلال وضع عدد من القواعد لإنشاء روبوتات الدردشة واستخدامها بشكل صحيح. لقد استغرقت البشرية سنوات عديدة - والعديد من الوفيات - حتى أدركت أنه من المستحيل إغراق الطرق بالمركبات الآلية دون تنظيم وتنظيم حركة المرور على الطرق وتعليم السائقين والمشاة.
لماذا لا تفعل الشيء نفسه بالنسبة لروبوتات الدردشة؟
لقد تمت بالفعل كتابة كتب كاملة - وسوف يتم كتابة المزيد - حول الطرق التي يمكننا من خلالها إخضاع الذكاء الاصطناعي لإرادتنا و"تنميتها". ستظل مخطوطات الإجراءات التفصيلية تدخل في كتب القانون، ومن المحتمل أن يساعد الذكاء الاصطناعي في كتابتها وتحريرها وتدقيقها. ويمكن تعميم كل هذه المبادئ تقريبًا تحت ثلاثة مبادئ مركزية: الشفافية من جانب المبدعين، والإنفاذ من جانب المشرعين، وتثقيف المستخدمين.
واجب الشفافية
عندما كتبت ماري شيلي كتابها الأول - "فرانكنشتاين" - لم تكن خائفة من وصف العالم من خلال عيون الوحش نفسه. وحش فرانكنشتاين - مخلوق مؤسف جاء إلى الحياة كطفل رضيع في جسد مرعب - يشرع في رحلة لاكتشاف الذات وفهم من حولها.
للقيام بذلك، تقرأ الكتب.
ما الكتب؟ ووصف شيلي أبرزها: "الفردوس المفقود"، و"الحياة الشخصية" لبلوتارخ، و"عذابات الشاب فيرتر". ساهم كل كتاب في تشكيل شخصية الوحش. تعلمت من بلوتارخ عن أطول البشر وأكثرهم مهابة. من "الجنة المفقودة" اكتسبت الاشمئزاز والرغبة في التمرد على خالقها. ومن "عذاب الشاب فيرتر" علمت بأمر الموت لأول مرة.
الذكاء الاصطناعي يتعلم أيضًا الأرقام. لتعليم ChatGPT التحدث، قامت OpenAI بتغذية المحرك بجميع الكتب التي تمكنت من تحديد موقعها. وأضافوا عليها أيضًا معلومات هائلة جاءت من الإنترنت: من المنتديات، من ويكيبيديا، من المواقع الإخبارية والمزيد. والذكاء الاصطناعي تعلم وتعلم وتعلم.
ومن المستحيل الجدال مع نتائج هذه العملية: ذكاء اصطناعي قادر على التحدث مثل الإنسان. لكن الخفي أعظم من الظاهر. على سبيل المثال، من أي المنتديات عبر الإنترنت، جاءت المعلومات الخاصة بالتدريب على الذكاء الاصطناعي؟ ومن الواضح أن هناك فرقاً بين ذكاء اصطناعي تم تدريبه في منتديات تعلم البرمجة، وذكاء تم تدريبه في منتديات مجموعة "الأرض المسطحة". ربما تكون شركة OpenAI قد وجدت التوازن بين المنتديات، لكن لا أحد يؤكد لنا أن الذكاء الاصطناعي القادم الذي سيجده أطفالنا على الشبكة، لن يتم تدريبه ليكون محركًا لنشر المؤامرات والكراهية.
عملية التدريب لا تنتهي هنا. في حالة ChatGPT، استمر التدريب بالتفاعل مع المختبرين البشريين. تلقى المختبرون الإجابات من المحرك، وكان عليهم رفض الإجابات السيئة وتسليط الضوء على الإجابات الجيدة - وربما تصحيحها وإضافتها بأنفسهم حيثما أمكن ذلك. وهنا أيضًا لا نعرف من هم الممتحنون، وعلى حسب ما قرروا أن هذه الإجابات أفضل أو أقل جودة.
أخيرًا وليس آخرًا، حتى عندما يتم طرح محرك الذكاء الاصطناعي النهائي في السوق باسم GPT3.5 أو GPT4 أو Claude أو أي اسم آخر، فإنه لا يزال بإمكانه تلقي تعليمات جديدة. يمكن لمطوري Chatbot أن يقدموا لهم تعليمات دقيقة جدًا - أحيانًا آلاف الكلمات - حول الطريقة التي يجب أن يستجيبوا بها. ما هي التعليمات المقدمة لـ"الطبيب النفسي"؟ نحن لا نعرف فهل من الممكن أن يتحيزوا له لتشخيصات نفسية معينة، فيشخص عدداً أكبر من الناس بالاكتئاب؟ نحن لا نعرف هل تتضمن توصيات بأنه ينبغي عليه أحيانًا تشجيع الناس على الانتحار؟ نحن لا نعرف
من الممكن بالتأكيد القول بأن روبوتات الدردشة التي لا تعمل على النحو الأمثل، بل وتضر المستخدم عمدًا، لن تنجح في الوصول إلى التوزيع على نطاق واسع. ربما هناك بعض الحقيقة في ذلك أيضا. ومن ناحية أخرى، لا نتوقع أيضًا أن تكون منتديات المؤامرة قادرة على جذب جمهور واسع كما تفعل. فهل نريد حقاً أن نترك هذه القضية مفتوحة ومخترقة، بالاعتماد على قوى السوق فقط؟
ومع كل الاحترام الواجب - وهناك الكثير من الاحترام - للسوق الحرة، يجب أن نتذكر أنه ينبغي في نهاية المطاف أن يخدم رفاهية البلاد ومواطنيها. عندما تكون المخاطر التي يتعرض لها مستخدمو الشات بوت كبيرة بما فيه الكفاية، فإنها تبرر فرض قيود معينة على الشركات التي تقوم بتطويرها. نحن بحاجة إلى المطالبة بمستوى عالٍ من الشفافية من جميع مطوري الذكاء الاصطناعي وروبوتات الدردشة، لتقليل مخاطر إلحاق الضرر بالمستخدمين.
ولكن بطبيعة الحال، من أجل القيام بذلك، يحتاج المشرعون أنفسهم إلى فهم ما يطالبون به.
التنفيذ من قبل المشرعين
عندما مارك زوكربيرج جاء للشهادة وأمام الكونجرس الأمريكي في عام 2018، كان مستعدًا لطرح الأسئلة الصعبة عليه. وتوقع أن يتحداه المشرعون ويجعلوه يتعرق.
لم يكن مستعدًا لمحاولة جعله يضحك.
"كيف يمكنك الحفاظ على نموذج عمل لا يدفع فيه المستخدمون مقابل الخدمة التي تقدمها؟" سأل السيناتور أورين هاتش بفضول حقيقي. تمكن زوكربيرج من الحفاظ على وجه البوكر. رمشت مرة واحدة فقط، ثم أجابت ببطء:
"سيناتور، لدينا إعلانات تجارية."
الأسئلة التالية لم تكن أكثر جدية.
"إذا أرسلت بريدًا إلكترونيًا من WhatsApp... فهل يعرف المعلنون لديك ذلك؟" سأل السيناتور من هاواي، متجاهلاً تمامًا حقيقة أنه لا يمكنك إرسال رسائل بريد إلكتروني عبر تطبيق WhatsApp. وأعلن عضو آخر في مجلس الشيوخ أن -
"ابني ملتزم بتطبيق Instagram، لذا سيرغب في التأكد من أنني أذكره أثناء وجودي هنا معك."
وسأل مشرع رابع زوكربيرج عما إذا كان على علم بأن "جمعية السينما الأمريكية تواجه مشاكل مع القرصنة". أجاب زوكربيرج ببساطة أنه يعتقد أن المشكلة كانت موجودة منذ فترة طويلة. الفيسبوك، بطبيعة الحال، ليس له علاقة بمشكلة القرصنة. لكن يبدو أن السيناتور لم يفهم ذلك.
ويشهد هذا الحدث الغريب على صعوبة تعامل المشرعين مع التحديات التكنولوجية الجديدة. والعديد من المشرعين كبار في السن أو حتى كبار السن، ولا يرتبطون بالتقنيات المبتكرة أو يفهمون كيفية عملها. وهذا يعني أنه على الرغم من الحاجة الملحة إلى التشريع وإنفاذ القانون فيما يتعلق بالتكنولوجيات بجميع أنواعها ــ من الشبكات الاجتماعية إلى الذكاء الاصطناعي ــ فإن الأمر يستغرق وقتا قبل أن يدرك المشرعون أنهم بحاجة إلى التحرك. وحتى عندما يفهمون الحاجة، يجدون صعوبة في تحديد النقاط الدقيقة التي يمكنهم الدخول إليها والتأثير فيها بأفضل طريقة.
إذا أردنا تقليل المخاطر الناجمة عن روبوتات الدردشة من خلال التشريعات، فسيتعين علينا تثقيف المشرعين لدينا.
ربما يمكنهم طلب المساعدة من ChatGPT.
التعليم ثم التعليم ثم مرة أخرى..
يمكن اتهام الشركات العملاقة بارتكاب العديد من المظالم في العالم: من استغلال العمال، مرورا باستغلال المستخدمين، إلى استغلال براءة المشرعين. وأكثر من ذلك بكثير. لكن في النهاية، أهم مقولة إنجليزية هنا هي "احذر المشتري".
حتى لو التزمت الشركات المصنعة لمحركات الذكاء الاصطناعي بجميع قواعد الأخلاق والأخلاق، فلا يزال من الممكن العثور على روبوتات الدردشة التي تم تطويرها بشكل خاص. سنرى الكثير من هذه الأشياء في السنوات المقبلة، سواء كانت تلك الذكاءات الاصطناعية التي تم تدريبها من الألف إلى الياء من قبل أفراد طموحين بشكل خاص، أو روبوتات الدردشة التي تعتمد على محركات الذكاء الاصطناعي نيابة عن الشركات الكبرى - ولكنها تلقت تعليمات مفادها " مشوهة طريقة رد فعلهم.
يجب على المستخدمين أنفسهم فهم المخاطر الكامنة في استخدام روبوتات الدردشة عبر الإنترنت. إنهم بحاجة إلى معرفة ما هو خطير لمشاركته مع الذكاء الاصطناعي، وكيفية التعامل مع إجابات روبوتات الدردشة. والطريق للوصول إلى هذا الفهم بسيط: من خلال التعليم. ينبغي على المدارس أن تبدأ اليوم بتعليم الأطفال كيفية التعامل مع الذكاء الاصطناعي، وكيفية العمل معهم، وكيفية تحقيق أفضل النتائج في المحادثات معهم - وما ينبغي عليهم الحذر منه والاحتراس منه.
סיכום
الذكاء الاصطناعي سوف يغير العالم. لا أحد يجادل في ذلك. وعلى غرار تكنولوجيا عظيمة أخرى، وهي المركبات الآلية، فإنها ستحقق لنا العديد من الإنجازات وتمنحنا قدرات مبهرة، ولكنها ستصاحبها أيضًا أنواع جديدة من المخاطر. وعلينا أن ندرك الفوائد والمخاطر، ونبدأ في إعداد أنفسنا وأطفالنا لها.
وإذا كان الأمر يخيفك، فلا يسعني إلا أن أنصحك بالتحدث إلى "طبيب نفساني".
المزيد عن الموضوع على موقع العلوم: