كل المحاولات لتنظيم مجال الذكاء الاصطناعي كانت في أحسن الأحوال محاولات هواة، كما يقول قسم الأبحاث في الكنيست. ويجب وضع لوائح جديدة وتخصيص ميزانية كافية لها
مواصلة تقديم التقارير حول توصيات قسم الأبحاث في الكنيست. إلى الجزء الأول
كلف قرار الحكومة رقم 212 الصادر في أغسطس 2021 وزير الابتكار والعلوم والتكنولوجيا بقيادة سياسة الحكومة في مجال الذكاء الاصطناعي في مجالات التنظيم وسياسة المعلومات والبيانات والأخلاق والتعاون المدني الدولي والاستيعاب في القطاع العام المدني، وأكثر. ومن أجل تحقيق هذه الأهداف، تقرر تشكيل فريق وزاري بقيادة المدير العام لوزارة الابتكار والعلوم والتكنولوجيا ليتولى معالجة موضوع الذكاء الاصطناعي وتقديم التوصيات في هذا المجال أيضًا ينص على أنه يجب الموافقة على الخطوط العريضة لمنتدى TLM (البنية التحتية للعلوم الوطنية) للذكاء الاصطناعي وعلوم البيانات وفقًا لتوصيات اللجنة المعينة من قبل المنتدى (انظر أدناه.) تتضمن توصيات مخطط TLM ما يلي: "تطوير بحث رأس المال البشري في المجالات الأساسية تكنولوجيا الذكاء الاصطناعي؛ إنشاء مركز حسابي فوق وطني لاستخدام القطاع العام والصناعة والأوساط الأكاديمية؛ تعزيز قدرات معالجة اللغة الطبيعية باللغتين العبرية والعربية؛ إن خلق بيئة تنظيمية يمكّن من تطوير هذه المجالات، وأكثر من ذلك."
وفي يوليو 2022 أُعلن أن إسرائيل قامت بصياغة "خطة وطنية للذكاء الاصطناعي" بقيادة وزارة الابتكار والعلوم والتكنولوجيا وهيئة الابتكار العاملة داخل الوزارة. تمت صياغة الخطة الوطنية المذكورة عقب أعمال لجنة الذكاء الاصطناعي وعلوم البيانات التي قدمت نتائجها إلى رئيس منتدى تيلام في ديسمبر 2020. وحتى قبل عمل اللجنة المذكورة، كان العمل ينفذ أيضًا من قبل خبراء آخرين ، بما في ذلك تقرير "أخلاقيات وتنظيم الذكاء الاصطناعي" الذي تم كتابته كجزء من المبادرة الوطنية للأنظمة الذكية والآمنة، وتقرير "المبادرة الوطنية للأنظمة الذكية والآمنة لتعزيز الأمن الوطني والمرونة" "العلمي التكنولوجي: استراتيجية وطنية لإسرائيل". بدأ فريق المشروع العمل على هذا الموضوع في عام 2018، لكن التقرير لم يتم نشره إلا في عام 2020. تجدر الإشارة إلى أنه في المخطط المقترح كجزء من المشروع الوطني المذكور أعلاه، تمت التوصية بموازنة المشروع بمبلغ 10 مليار شيكل لمدة 5 سنوات. سنوات، وإنشاء إدارة وطنية مخصصة لإدارتها في مكتب رئيس الوزراء، لكن في تقرير لجنة الذكاء الاصطناعي وعلوم البيانات، كان مبلغ التخصيص المطلوب أقل بكثير - حوالي 5.2 مليار. شيكل، واقترح أن يرتكز على الكيانات القائمة.
تجدر الإشارة إلى أنه رغم أنه كما ذكرنا قد نشر أنه تم وضع "البرنامج الوطني للذكاء الاصطناعي" بناء على توصيات منتدى تلم، إلا أننا لم نجد نشرا كاملا للخطوط العريضة للخطة وليس واضحا ما هي الميزانية الإجمالية للبرنامج بحسب الدكتور زيف كاتسير، مدير برنامج "تلم" للذكاء الاصطناعي، فإن إجمالي الاستثمار في المخطط هو 2024 مليار شيكل على قسطين (في الميزانيات المعتمدة حتى الآن، بما في ذلك الميزانية) 2023. -XNUMX
الخطة الوطنية الإسرائيلية
ومما يثير استياء أولئك الذين شاركوا في التخطيط للمبادرة الوطنية للأنظمة الذكية، أن النطاق المحدود للخطة الوطنية الناتجة يضر بقدرة إسرائيل على وضع نفسها كلاعب رائد ومؤثر يتمتع بقوة سوقية في مجال الذكاء الاصطناعي - وهو أمر مماثل. إلى قوة إسرائيل في المجال السيبراني، والتي تنبع من الكشف المبكر وتركيز الجهود في المجال السيبراني. تناول رئيس الوزراء، عضو الكنيست بنيامين نتنياهو، هذه القضية في 5 حزيران (يونيو) 2023 وذكر أنه سيعقد في الأيام المقبلة مراكز بحث لمناقشة السياسة الوطنية لدولة إسرائيل في موضوع الذكاء الاصطناعي، سواء في المجال المدني أو الأمني. وذلك بهدف جعل إسرائيل قوة وطنية في مجال الذكاء الاصطناعي، كما هو الحال في المجال السيبراني.
وقد تم صياغة السياسة الوطنية الناتجة، من بين أمور أخرى، على خلفية الوصف الذي يظهر في تقرير لجنة الذكاء الاصطناعي وعلوم البيانات، والذي بموجبه توجد فجوة كبيرة في إسرائيل بين البحث المتقدم والتطوير. (فيما يلي: البحث والتطوير) في مجالات الذكاء الاصطناعي والافتقار إلى استراتيجية حكومية في هذا المجال، وهو ما ينعكس أيضًا في الافتقار إلى البنى التحتية الحاسوبية المناسبة. توصل مؤلفو التقرير إلى استنتاج مفاده أن "هناك حاجة ماسة للبدء خطة وطنية تحدد حلاً نظاميًا لتعزيز البحث والتطوير في مجال الاستخبارات
الذكاء الاصطناعي وعلوم البيانات. إن دولة إسرائيل لديها القدرة والفرصة لتكون دولة رائدة في هذا المجال. إن وجود برنامج وطني في مجال الذكاء الاصطناعي وعلوم البيانات أمر ضروري لصمود دولة إسرائيل وسيساهم في تعميق البحث الأكاديمي، وتوسيع القاعدة الصناعية، وخلق فرص اقتصادية كبيرة و تقدم دراماتيكي في القدرات الأمنية الإسرائيلية".
وفي أكتوبر 2022، نشر وزير الابتكار والعلوم والتكنولوجيا في ذلك الوقت وثيقة سياسة للتعليقات العامة تحت عنوان "السياسة التنظيمية والأخلاقيات في مجال الذكاء الاصطناعي". وبحسب الوثيقة، فإنه "لا يوجد مكان في الوقت الحالي لتعزيز التنظيم من خلال التشريعات الأفقية التي ينفرد بها مجال الذكاء الاصطناعي. وتجدر الإشارة إلى أن هذه السياسة قد تتغير مع تطور مجال الذكاء الاصطناعي وترسخه". تصبح المعاني أكثر وضوحا."
ومن بين المبادئ الأخلاقية المفصلة في الوثيقة: سيتم استخدام الذكاء الاصطناعي لتعزيز النمو والتنمية المستدامة والريادة الإسرائيلية في مجال الابتكار؛ الشخص في المركز: احترام الحقوق الأساسية والمصالح العامة؛ المساواة ومنع التمييز غير العادل؛ الشفافية والتفسيرية؛ الموثوقية والمتانة والأمن والسلامة والمسؤولية.
في ورقة موقف لمعهد الديمقراطية الإسرائيلي حول هذا الموضوع، يُزعم، من بين أمور أخرى، أن: 1) النهج في وثيقة سياسة الحكومة والذي بموجبه يكون التنظيم المرن والأخلاقي وحده كافيًا لا يتوافق مع التطورات في إسرائيل. العالم وسيؤدي إلى فتح فجوة غير ضرورية بين إسرائيل والدول المتقدمة؛ 2) تتجاهل الوثيقة موضوع استخدامات الذكاء الاصطناعي في القطاع العام وتركز على تنظيم السوق الخاص. 3) الإشارة إلى تنظيم الذكاء الاصطناعي في حد ذاته، مع تجاهل تنظيم التقنيات العرضية، مثل الخصوصية والإنترنت والفشل في تنظيمها – أمر إشكالي.
قرار الحكومة رقم 173 الصادر في شباط/فبراير 2023 تحت عنوان "تعزيز القيادة التكنولوجية لإسرائيل" يوافق على البرنامج الوطني للذكاء الاصطناعي بما في ذلك: تسريع الأبحاث الأساسية والتطبيقية في هذا المجال؛ خلق قفزة إلى الأمام
للصناعة الإسرائيلية في تطوير البنى التحتية للمجال وتنفيذ تطبيقات الذكاء الاصطناعي في القطاع العام المدني لتحسينها. وبحسب القرار: ستخصص وزارة المالية موازنة للتفويض بالالتزام لن تتجاوز 500 مليون شيكل، وستقوم الجهات الأعضاء في منتدى تلم بتوفير الميزانية التمهيدية المخصصة للتخصيص من قبلها وسيتم سيتم تنفيذها في الأعوام 2023 إلى 2026. وكما ذكر، وفقًا للدكتور زيف كاتسير، مدير برنامج TLM للذكاء الاصطناعي، فإن إجمالي الاستثمار في المخطط هو XNUMX مليار شيكل.
يدق يجب التوضيح أن الوثيقة لم تستعرض النشاط الفعلي للحكومة في مجالات الذكاء الاصطناعي، ولكن من بين أمور أخرى، تمت الموافقة على دعم بقيمة حوالي 5.5 مليون شيكل لإنشاء والوصول إلى قواعد البيانات باللغتين العبرية والعربية التي من المفترض أن تخدم ومع نشر البنية التحتية لنماذج اللغة التي تدعو إلى تطوير أدوات برمجية في مجالات الحوسبة الفائقة والذكاء الاصطناعي وإنشاء مختبر للبحث والتطوير للمعلوماتية والحفاظ على الخصوصية والتعلم الموزع، تم إنشاء فريق مشترك بين الوزارات؛ ودراسة استخدام الذكاء الاصطناعي في القطاع المالي؛ وتم التوقيع على مذكرة للتعاون بين الكنيست وسلطة الابتكار في مجالات معالجة اللغات الطبيعية، على أساس إمكانية الوصول إلى قواعد بيانات الكنيست.
4. الذكاء الاصطناعي: معلومات أولية عن المبادرات التنظيمية في العالم
في حين أنه كما هو مذكور أعلاه، فإن الموقف الحكومي الرسمي الأخير المنشور حول هذا الموضوع يدعم التنظيم المرن وليس مبادرة تشريعية شاملة حول هذا الموضوع، في أوروبا هناك مشروع قانون شامل بشأن الذكاء الاصطناعي. بحسب منشور للبرلمان الأوروبي
تتضمن النقاط الرئيسية لمشروع القانون التمييز بين مستويات المخاطر المختلفة التي تشكلها أنظمة الذكاء الاصطناعي. على سبيل المثال، سيتم حظر الأنظمة التي تنطوي على مستوى عالٍ جدًا من المخاطر على البشر، بما في ذلك: الأنظمة التي تستخدم رسائل تلاعبية أو مموهة، أو تستغل البشر أو تستخدم في "التصنيف الاجتماعي" (وفقًا للسلوكيات والحالة الاجتماعية والاقتصادية وما إلى ذلك). من الاستخدام.
تشمل الاستخدامات المحظورة الأخرى المقترحة في مشروع القانون أيضًا: تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة؛ تحديد الهوية البيومترية عن بعد بأثر رجعي، باستثناء سلطات إنفاذ القانون وفي ظروف الجرائم الخطيرة وبشرط الحصول على موافقة قانونية؛ الفرز البيومتري على أساس الخصائص الحساسة (مثل الجنس أو العرق أو الجنسية أو الدين أو المنصب السياسي) "أنظمة الشرطة التنبؤية" (أنظمة "الكشف عن المشاعر" التنبؤية لإنفاذ القانون، وإدارة الحدود، في مكان العمل وفي المؤسسات التعليمية، وما إلى ذلك.
ووفقا للمسودة، فإن الأنظمة التي تم تعريفها على أنها ذات مخاطر عالية تشمل تلك التي تضر بصحة الإنسان أو البيئة أو سلامته أو حقوقه الأساسية؛ وأنظمة الذكاء الاصطناعي التي تؤثر على الناخبين في الحملات السياسية؛ و"الأنظمة
"التوصية" التي تستخدمها شبكات التواصل الاجتماعي التي تضم 45 مليون مستخدم أو أكثر.
ووفقًا للمسودة أيضًا، سيتعين على مقدمي نماذج مؤسسة Models Foundation في مجال الذكاء الاصطناعي الالتزام بحماية الحقوق الأساسية والصحة والأمن وحماية البيئة والديمقراطية وسيادة القانون؛ وتقييم المخاطر وتخفيفها؛ تلبية المتطلبات المختلفة وحتى تسجيل النماذج في قاعدة بيانات أوروبية. ستكون النماذج الإبداعية الأساسية مثل GPT مطلوبة مع متطلبات شفافية إضافية بما في ذلك: واجب الكشف عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي؛ تصميم النموذج بحيث لا يستهلك محتوى غير قانوني ولا ينشر ملخصات للمعلومات أو البيانات المحمية بحقوق الطبع والنشر المستخدمة لتدريب النموذج. ومع ذلك، لتشجيع الابتكار، يُقترح استبعاد أنشطة البحث ومكونات الذكاء الاصطناعي التي يتم الوصول إليها بموجب ترخيص مفتوح المصدر من القانون. من المفترض أن يشجع القانون بيئات الاختبار الخاضعة للرقابة و"صناديق الحماية التنظيمية" التي سيتم استخدامها للفحص الأولي قبل نشرها.
وخلافاً للموقف الشامل والنشط الذي يتجلى في اتجاه تنظيم الاتحاد الأوروبي، فإنه حتى الآن لم تتم صياغة إطار أو مفهوم مماثل في التنظيم في الولايات المتحدة (في هذا الجانب، من الممكن أن الوضع مشابه للنهج المختلفة لحماية الخصوصية بين أوروبا والولايات المتحدة،) على الرغم من أن المناقشات تجري أيضًا في الولايات المتحدة حول موضوع الحاجة إلى تنظيم الذكاء الاصطناعي.
ארצות הברית
وفي فبراير 2019، أصدر البيت الأبيض أمرا رئاسيا بعنوان "الحفاظ على ريادة أمريكا في الذكاء الاصطناعي". يحدد المرسوم خمسة مبادئ: 1) قيادة الإنجازات التكنولوجية في مجال الذكاء الاصطناعي في جميع القطاعات: الحكومة الفيدرالية والصناعة والأوساط الأكاديمية من أجل تعزيز الاكتشافات العلمية والقدرة التنافسية الاقتصادية والأمن القومي؛ 2) قيادة عملية تطوير المعايير وإزالة العوائق أمام اختبار وتنفيذ تقنيات الذكاء الاصطناعي؛ 3) تدريب الموظفين على المهارات في تطوير وتنفيذ تقنيات الذكاء الاصطناعي من أجل تدريبهم على حاضر ومستقبل التوظيف؛ 4) تعزيز ثقة الجمهور في تقنيات الذكاء الاصطناعي، وحماية الحريات المدنية والخصوصية والقيم الأمريكية؛ 5) تعزيز بيئة دولية تدعم البحث والابتكار الأمريكي في مجال الذكاء الاصطناعي.
بالإضافة إلى الأمر الرئاسي المذكور أعلاه، نشر مكتب الرئيس للإدارة والميزانية (OMB) في نوفمبر 2020 مذكرة توجيهية لتنظيم تطبيقات الذكاء الاصطناعي لرؤساء الوكالات. ومن بين أمور أخرى، تنص المذكرة على أنه يجب على الوكالات تجنب التنظيم أو الإجراءات الأخرى التي من شأنها أن تعرض الابتكار ونمو مجال الذكاء الاصطناعي للخطر وتجنب اتباع نهج حذر من شأنه أن يضع أنظمة الذكاء الاصطناعي معيارًا عاليًا ومستحيلًا من شأنه أن يمنع المجتمع من الاستفادة من مميزاتها، مما قد يضر بمكانة الولايات المتحدة كدولة رائدة في مجال الذكاء الاصطناعي. تشير المذكرة إلى سلسلة من المبادئ التوجيهية لتصميم التنظيم بما في ذلك: ثقة الجمهور في أنظمة الذكاء الاصطناعي؛ والمشاركة العامة والنزاهة العلمية وجودة المعلومات؛ تقييم المخاطر وإدارتها؛ الفوائد والتكاليف؛ المرونة؛ العدالة وعدم التمييز؛ الإفصاح الكامل والشفافية والسلامة والأمن والتعاون بين الأجهزة. وبحسب مراجعة معهد بروكينجز حول الموضوع، فإن التوجه في المذكرة يعكس سياسة الحد من التنظيم من ناحية، وتفويض السلطات والوكالات الفيدرالية للعمل في مجالات مسؤوليتها التنظيمية وغير التنظيمية. الأدوات وفقا لنهج قائم على المخاطر. وعلى الرغم من أن المذكرة تطلب من الوكالات الحكومية ذات الصلة وضع خطة لتنظيم الذكاء الاصطناعي، إلا أن جزءًا صغيرًا فقط من الوكالات ذات الصلة البالغ عددها 41 وكالة قد فعلت ذلك حتى الآن.
البيت الأبيض يتدخل
وفي أكتوبر/تشرين الأول 2022، نشر البيت الأبيض خطة لـ "مشروع قانون حقوق الذكاء الاصطناعي" يعتمد على خمسة مبادئ: أنظمة آمنة وفعالة، وحماية البيانات من التمييز، والتحذير والتفسير، والبدائل البشرية أن البرنامج المذكور يركز على تقليل المخاطر على الاقتصاد وحقوق الإنسان بسبب أنظمة الذكاء الاصطناعي - على عكس تركيز البرامج الحكومية التقدم في فرص الشركة
وإلى الاقتصاد. كما أن الخطة في هذه المرحلة مجرد توصية وهناك اختلافات في مدى تنفيذها بين الجهات الاتحادية المختلفة. تجدر الإشارة إلى أنه في يناير 2023، نشر المعهد الوطني للمعايير والتكنولوجيا (NIST) وثيقة إطارية لتقييم المخاطر في الذكاء الاصطناعي.
شهادة سام التمان في الكونجرس
في مايو 2023، أدلى الرئيس التنفيذي لشركة الذكاء الاصطناعي OpenAI، سام ألتمان، بشهادته أمام اللجنة الفرعية التابعة لمجلس الشيوخ المعنية بالخصوصية والتكنولوجيا والقانون، وذكر ألتمان في شهادته أن تنظيم الذكاء الاصطناعي ضروري في رأيه لتحفيز السلامة أنظمة الذكاء الاصطناعي مع حماية قدرة الناس على استخدامها والاستفادة منها لضمان الحفاظ على السلامة، لا سيما في الشركات التي تطور نماذج ذكاء اصطناعي قوية، من الضروري التأكد من أنها تلبية متطلبات السلامة المناسبة، بما في ذلك الاختبار الداخلي والخارجي قبل النشر، ودعا حكومة الولايات المتحدة إلى النظر في الجمع بين ترخيص أو تسجيل نماذج الذكاء الاصطناعي فوق عتبة أداء معينة، إلى جانب تقديم حوافز للكيانات التي تستوفي المتطلبات المذكورة.
ومع ذلك، ونظرًا لديناميكية مجال الذكاء الاصطناعي، يلزم وجود نظام تنظيمي مرن بدرجة كافية للتكيف مع التطورات التكنولوجية ودراسة إجراء يدمج جميع أصحاب المصلحة لتطوير وتحديث معايير السلامة وشروط التقييم وقواعد الإفصاح وعمليات التحقق بشكل متكرر. . بالإضافة إلى ذلك، وفقا له، يجب على صناع السياسات دراسة كيفية تنفيذ تنظيم الترخيص على المستوى العالمي لضمان التعاون الدولي بشأن مسألة السلامة في الذكاء الاصطناعي وحتى دراسة إنشاء منظمة حكومية دولية للإشراف ووضع المعايير. تجدر الإشارة إلى أن موضوع الذكاء الاصطناعي يتم مناقشته حالياً في الكونجرس الأمريكي في سياقات مختلفة وفي لجان مختلفة، وفي هذه الأثناء تدور مناقشات حول ضرورة التنظيم في هذا المجال. على سبيل المثال، في مناقشة لجنة الأمن الداخلي بمجلس الشيوخ حيث تمت مناقشة فوائد ومخاطر استخدام هذه التقنيات من قبل الوكالات الحكومية والحاجة إلى التدريب المناسب لموظفيها.
المزيد عن الموضوع على موقع العلوم:
- يسعى تقرير مقدم للتعليق العام إلى تطبيق القواعد الأخلاقية في مجال الذكاء الاصطناعي
- ويعمل الاتحاد الأوروبي والولايات المتحدة على تعزيز التحركات الرامية إلى معالجة الأخلاقيات في مجال الذكاء الاصطناعي
- "من خلال تنظيم ومراقبة العمليات في الخلية، سيكون من الممكن علاج الأمراض والإصابات التي يصعب علاجها بالطرق التقليدية."
- منظمات بيئية تحذر: إلغاء نظام حماية المواطن تحت ستار تبسيط التنظيم
- يتحدث من الميدان
תגובה אחת
قال الحكماء: "زوج من الكماشة مصنوع من كماشة." يجب عليك أن تطلب من الذكاء الاصطناعي التحقق من الأمر واقتراح كيفية الحماية من مخاطره.