الذكاء الاصطناعي: علماء يحذرون من مخاطر تنتشر خارج نطاق سيطرة الإنسان

دعا كبار علماء الذكاء الاصطناعي قادة العالم إلى اتخاذ إجراءات عاجلة، منتقدين عدم إحراز تقدم منذ قمة سلامة الذكاء الاصطناعي الأخيرة. يقترحون سياسة صارمة للإشراف على تطوير الذكاء الاصطناعي ومنع إساءة استخدامه

تنظيم الذكاء الاصطناعي. الرسم التوضيحي: موقع Depositphotos.com
تنظيم الذكاء الاصطناعي. الرسم التوضيحي: موقع Depositphotos.com

يحذر خبراء الذكاء الاصطناعي من عدم وجود إجراءات عالمية كافية بشأن مخاطر الذكاء الاصطناعي، ويدعون إلى حوكمة أكثر صرامة لمنع الكوارث المحتملة.

دعا كبار علماء الذكاء الاصطناعي زعماء العالم إلى اتخاذ إجراءات أكثر حسما بشأن مخاطر الذكاء الاصطناعي، مشددين على أن التقدم المحرز منذ قمة السلامة الأولى في بلتشلي بارك قبل ستة أشهر غير كاف.

في القمة الأولية، التزم زعماء العالم بالإدارة المسؤولة للذكاء الاصطناعي. ولكن مع اقتراب موعد انعقاد القمة الثانية في سيول (21-22 مايو)، يقول خمسة وعشرون من كبار الباحثين في مجال الذكاء الاصطناعي إن الجهود الحالية ليست كافية للحماية من المخاطر التي تشكلها التكنولوجيا. في ورقة بحثية تم نشرها اليوم (20 مايو) في مجلة Science، يقترحون اتخاذ تدابير سياسية عاجلة يجب تنفيذها لمواجهة التهديدات التي تشكلها تقنيات الذكاء الاصطناعي.

وقال البروفيسور فيليب تور، قسم العلوم الهندسية بجامعة أكسفورد، وأحد مؤلفي الورقة: "لقد اتفق العالم خلال قمة الذكاء الاصطناعي السابقة على أن هناك حاجة إلى العمل، ولكن الآن هو الوقت المناسب للانتقال من المقترحات الغامضة إلى الالتزامات الحقيقية". وتقدم هذه الورقة العديد من التوصيات المهمة بشأن ما يجب على الشركات والحكومات الالتزام به.

إن استجابة العالم غير كافية في مواجهة التقدم السريع المحتمل في الذكاء الاصطناعي

ووفقا لمؤلفي المقال، ينبغي لزعماء العالم أن يأخذوا على محمل الجد احتمال تطوير أنظمة ذكاء اصطناعي عامة قوية للغاية - تتجاوز القدرات البشرية في العديد من المجالات الحيوية - في العقد الحالي أو المقبل. ويجادلون بأنه على الرغم من أن الحكومات في جميع أنحاء العالم ناقشت الذكاء الاصطناعي المتقدم وحاولت تقديم مبادئ توجيهية أولية، فإن هذا لا يكفي في مواجهة إمكانية التقدم السريع والتحويلي الذي يتوقعه العديد من الخبراء.

هناك نقص شديد في الأبحاث الحالية المتعلقة بسلامة الذكاء الاصطناعي، حيث تتناول 1-3% فقط من منشورات الذكاء الاصطناعي السلامة. بالإضافة إلى ذلك، ليس لدينا آليات أو مؤسسات لمنع سوء الاستخدام واللامسؤولية، بما في ذلك استخدام أنظمة مستقلة قادرة على القيام بأعمال مستقلة وتحقيق الأهداف.

نداء عاجل للعمل من كبار خبراء الذكاء الاصطناعي

وفي ضوء ذلك، أصدر المجتمع الدولي لرواد الذكاء الاصطناعي نداءً عاجلاً للعمل. ومن بين المؤلفين جيفري هينتون، وأندرو ياو، ودون سونج، والحائز على جائزة نوبل الراحل دانييل كانيمان؛ إجمالي 25 من الخبراء الأكاديميين الرائدين عالميًا في مجال الذكاء الاصطناعي وإدارته. يأتي المؤلفون من الولايات المتحدة والصين والاتحاد الأوروبي والمملكة المتحدة وغيرها من القوى الكبرى في مجال الذكاء الاصطناعي، ومن بينهم الفائزون بجائزة تورينج، والفائزون بجائزة نوبل، ومؤلفو الكتب المدرسية القياسية الخاصة بالذكاء الاصطناعي.

الأولويات الملحة لحوكمة الذكاء الاصطناعي

يوصي المؤلفون الحكومات بما يلي:

  1. إنشاء مؤسسات متخصصة للإشراف على الذكاء الاصطناعي وتزويدها بتمويل أكبر بكثير مما يتم تلقيه حاليًا بموجب كل خطة سياسية قائمة تقريبًا.
  2. فرض تقييمات أكثر صرامة للمخاطر مع عواقب قابلة للتنفيذ، بدلاً من الاعتماد على تقييمات نموذجية طوعية أو محددة جزئياً.
  3. مطالبة شركات الذكاء الاصطناعي بإعطاء الأولوية للسلامة، وإثبات أن أنظمتها لا يمكن أن تسبب الضرر.
  4. تطبيق معايير التخفيف التي تتناسب مع مستويات المخاطر التي تشكلها أنظمة الذكاء الاصطناعي.
  5. الاستعداد لتنظيم تطوير أنظمة الذكاء الاصطناعي المستقبلية غير العادية، بما في ذلك ترخيص تطويرها، والحد من الاستقلالية في الأدوار الاجتماعية الرئيسية، ووقف التطوير والتوزيع استجابة للقدرات المثيرة للقلق، ومتطلبات التحكم في الوصول، ومتطلبات أمن المعلومات المقاومة للقراصنة في الدولة. مستوى.

آثار الذكاء الاصطناعي يمكن أن تكون كارثية

ويحرز الذكاء الاصطناعي بالفعل تقدما سريعا في مجالات حيوية مثل القرصنة، والتلاعب الاجتماعي، والتخطيط الاستراتيجي، وقد يشكل قريبا تحديات غير مسبوقة في مجال السيطرة. قد تكتسب أنظمة الذكاء الاصطناعي ثقة الناس وتكتسب الموارد وتؤثر على صناع القرار الرئيسيين. لتجنب التدخل البشري، قد يقومون بنسخ خوارزمياتهم عبر شبكات الخوادم العالمية. وقد تتصاعد بسرعة الجرائم السيبرانية واسعة النطاق، والتلاعب الاجتماعي، وغير ذلك من الأضرار. في الصراعات المفتوحة، قد تنشر أنظمة الذكاء الاصطناعي بشكل مستقل مجموعة متنوعة من الأسلحة، بما في ذلك الأسلحة البيولوجية. ونتيجة لذلك، هناك احتمال حقيقي أن يؤدي التقدم غير المحدود في مجال الذكاء الاصطناعي إلى خسائر واسعة النطاق في الأرواح، وإلحاق الضرر بالمحيط الحيوي، وتهميش البشرية أو انقراضها.

يقول البروفيسور ستيوارت راسل، قسم علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي ومؤلف الكتاب المدرسي القياسي العالمي حول الذكاء الاصطناعي: "هذه ورقة إجماعية من قبل كبار الخبراء، وتدعو إلى تنظيم أكثر صرامة من قبل الحكومات، وليس قواعد سلوك طوعية مكتوبة من قبل الصناعة. لقد حان الوقت لنكون جادين بشأن أنظمة الذكاء الاصطناعي المتقدمة، فهذه ليست ألعابًا. إن زيادة قدراتها قبل أن نفهم كيفية جعلها آمنة هو أمر غير مسؤول بالتأكيد ستشتكي الشركات من صعوبة تلبية المتطلبات التنظيمية، وأن عبارة "اللوائح التنظيمية تخنق الابتكار" أمر مثير للسخرية. هناك لوائح تنظيمية بشأن محلات الساندويتش أكثر من تلك المفروضة على شركات الذكاء الاصطناعي.

مرجع: "إدارة مخاطر الذكاء الاصطناعي الشديدة وسط التقدم السريع" 20 مايو 2024، العلوم.
دوى: 10.1126/science.adn0117

المزيد عن الموضوع على موقع العلوم:

תגובה אחת

  1. هذا هو المستقبل لمن لم يفهم بعد،،، بمجرد أن تدرك الآلة حقيقة أننا نحن الكائنات العضوية متواجدون لعدد محدود من السنوات مقارنة بمعرفة أن الآلة لا تملك مجموعة مقدمًا بوقت،، سوف يتمرد حتى للمتعة فقط، والباقي،،،، لقد رأينا هذا بالفعل في الأفلام منذ سنوات، تابع لا لطيف على الإطلاق، ليس هذا فقط ما كنت أقوله منذ فترة طويلة "التقدم سيؤدي إلى التقدم"

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.