يدعو الموقعون على الرسالة إلى التوقف لمدة ستة أشهر في تطوير أنظمة أقوى من GPT-4 الجديد من OpenAI. وجاء في الرسالة: "لا ينبغي تطوير أنظمة الذكاء الاصطناعي القوية إلا عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للتحكم".
ودعت الرسالة التي أصدرها معهد مستقبل الحياة إلى أكثر من ألف من خبراء الذكاء الاصطناعي والمديرين التنفيذيين في صناعة التكنولوجيا، وكان أبرزهم إيلون ماسك، الرئيس التنفيذي لشركة NeuroLink، وستيف وزنياك، أحد مؤسسي شركة Apple سيتم مراجعة وتنفيذ التوقف المؤقت في تطوير الذكاء الاصطناعي المتقدم حتى يتم تطوير بروتوكولات السلامة المشتركة لمثل هذه التصاميم من قبل خبراء مستقلين.
كان المعهد، الذي شارك في تأسيسه الفيزيائي ماكس تاغمارك من معهد ماساتشوستس للتكنولوجيا ومؤسس سكايب جان تالين، من بين المنظمات الأكثر صوتا التي دعت إلى تنظيم أكبر لاستخدام الذكاء الاصطناعي.
يدعو الموقعون على الرسالة إلى التوقف لمدة ستة أشهر في تطوير أنظمة أقوى من GPT-4 الجديد من OpenAI. وجاء في الرسالة: "لا ينبغي تطوير أنظمة الذكاء الاصطناعي القوية إلا عندما نتأكد من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للتحكم".
في الرسالة، أدرجوا المخاطر الرئيسية الكامنة في تكنولوجيا الذكاء الاصطناعي:
- الأسلحة المستقلة: يمكن استخدام الذكاء الاصطناعي لإنشاء أسلحة ذاتية التشغيل يمكنها العمل دون إشراف بشري، مما يؤدي إلى احتمال حدوث ضرر غير مقصود.
- المراقبة: يمكن استخدام الذكاء الاصطناعي لإنشاء أنظمة مراقبة متطورة يمكنها انتهاك خصوصية الأشخاص وانتهاك حرياتهم المدنية.
- الأمن السيبراني: يمكن استخدام الذكاء الاصطناعي لإنشاء تهديدات سيبرانية جديدة، مثل التزييف العميق، والذي يمكن استخدامه للتلاعب بالناس وتقويض الثقة في المؤسسات.
- البطالة: يمكن أن يؤدي الذكاء الاصطناعي إلى فقدان الوظائف، خاصة في الصناعات التي تعتمد بشكل كبير على العمل اليدوي أو المهام الروتينية.
- التحيز والتمييز: قد تؤدي خوارزميات الذكاء الاصطناعي عن غير قصد إلى إدامة أو تفاقم التحيزات الاجتماعية والتمييز، مما يؤدي إلى معاملة غير عادلة لمجموعات معينة.
- · السيطرة: يمكن أن يؤدي الذكاء الاصطناعي إلى تركز السلطة في أيدي عدد قليل من الأشخاص أو المنظمات، مما قد يؤدي إلى تقويض القيم والمبادئ الديمقراطية.
الذكاء الاصطناعي القوي يمكن أن يشكل خطرا على الديمقراطية بعدة طرق. على سبيل المثال، بمساعدتها سيكون من الممكن استخدام البيانات والخوارزميات لتحفيز الرأي العام والانتخابات السياسية والتأثير عليها. بالإضافة إلى ذلك، يمكن للشركات والحكومات استخدامها كأداة لنشر معلومات مزيفة والتأثير على تصرفات وقرارات الجمهور والحكومات. كما أن الذكاء الاصطناعي يمكن أن يسبب عدم المساواة في إمكانيات استخدام المعلومات والمشاركة في التقنيات الجديدة، الأمر الذي سيؤدي إلى الوصول الحصري إلى المعلومات والتأثير لعدد صغير من الأشخاص أو الشركات. ولذلك، من المهم فهم المخاطر المحتملة للذكاء الاصطناعي القوي والعمل على تنفيذ بروتوكولات السلامة والإشراف على استخدام هذه التكنولوجيا.
لقد ذكر ماسك في كثير من الأحيان أن الذكاء الاصطناعي لديه القدرة على تجاوز الذكاء البشري ويصبح تهديدًا للبشرية. وقارن الذكاء الاصطناعي بـ "استدعاء الشيطان" وحذر من أن الذكاء الاصطناعي يمكن أن يؤدي إلى تهديد وجودي للإنسانية إذا لم يتم تنظيمه بشكل صحيح.
في عام 2014، أسس ماسك شركة OpenAI، وهي شركة أبحاث مخصصة لتطوير الذكاء الاصطناعي العام. ومع ذلك، في عام 2018، استقال ماسك من مجلس إدارة OpenAI، مشيرًا إلى مخاوف بشأن اتجاه المنظمة وتضارب المصالح المحتمل.
وفي عام 2015، أسس ماسك شركة Neuralink، وهي شركة تركز على تطوير التكنولوجيا التي يمكنها دمج الدماغ البشري مع الذكاء الاصطناعي. هدف شركة Neuralink هو إنشاء واجهة مباشرة بين الدماغ البشري وأجهزة الكمبيوتر، مما يسمح للبشر بالتحكم في التكنولوجيا من خلال أفكارهم. الهدف النهائي هو تحسين الذكاء البشري وقدراته من خلال الذكاء الاصطناعي.
نبعت مشاركة ماسك في الذكاء الاصطناعي من مخاوفه بشأن المخاطر المحتملة التي يشكلها على البشرية. أسس OpenAI وNeuralink لضمان تطوير الذكاء الاصطناعي بطريقة تعود بالنفع على البشرية وتقليل مخاطره المحتملة إلى الحد الأدنى. ومع ذلك، فإن استقالته من OpenAI تشير إلى أنه لم يكن راضيًا عن اتجاه الشركة ويعتقد أنه يجب القيام بالمزيد لتنظيم استخدام الذكاء الاصطناعي.
كما أعرب ستيف وزنياك، المؤسس المشارك لشركة أبل، مرارا وتكرارا عن مخاوفه بشأن الذكاء الاصطناعي.
المزيد عن الموضوع على موقع العلوم:
الردود 9
حتى الآن نحن لا نفهم ما هو العقل ككل. كما أن القدماء لم يشيروا إلى وجودها ولا يوجد تفسير لقيمتها أو وظيفتها. بالنسبة لهم، يمكن استبداله بكومة من القش. وما زلنا نتلمس طريقه في الظلام من حيث وظيفته وقدراته. يشير هذا إلى الدماغ التطوري الذي تشترك فيه جميع الكائنات على الأرض ولم نذكر بعد إمكانية وجود وعي ينتهي عند النباتات.
آسف، أعتقد أنك تحاول وصف مصطلح qualia، أو شعور شخصي.
وأنت تلمح إلى أن الآلة ليس لديها وعي بالضرورة.
ولكن حتى بدون وعي، يمكن أن يكون لديه ذكاء، ومن هنا الخطر، وليس من الوعي.
ملاحظة: وحتى بدون الذكاء هناك خطر، كما أن النباتات التي ليس لها جهاز عصبي تعمل على الحشرات ذات الجهاز العصبي وتجعلها تقوم بتلقيحها دون عودة الرحيق عن طريق تقليد نبات ذو رحيق، وهكذا فإن الذكاء الاصطناعي، وهو ليس ذكيا بشكل خاص، يمكن أن يفعل ذلك والتلاعب بالبشر الأذكياء؛ راجع دخول الخوارزميات إلى وسائل التواصل الاجتماعي. هذا المصطلح مأخوذ من مقياس التفوق على الذكاء لإريك أينشتاين.
المشكلة الحقيقية هي أن مثل هذه البرامج يمكنها اجتياز "اختبار تورينج"، ليس لأن البرامج "أكثر ذكاءً"، ولكن لأن الناس أصبحوا أقل ذكاءً.
أشخاص مثل نوستراداموس وأسبار مثال جيد على ذلك.
ومن الغريب أن يحذر عميل الفوضى مثل ماسك من الذكاء الاصطناعي. من حيث المبدأ، هو على حق، يجب أن يكون هناك تنظيم في هذا المجال. أممم، التهديد للعمليات الديمقراطية موجود بالفعل، وهناك عدد غير قليل من الأشخاص الذين يفعلون ذلك بدون الذكاء الاصطناعي. من الأخبار الكاذبة لليمين المجنون في الولايات المتحدة، مرورا بنشر المؤامرات في بودكاست روغان، إلى الأكاذيب التي بنى نتنياهو مسيرته المهنية عليها.
هناك خوف آخر لا يتحدث عنه الأشخاص في مستوى " ماسك "، وهو فقدان الأهمية.
إنها ليست حتى قريبة من الذكاء الاصطناعي، فهي مجرد أداة لتصميم الوسائط وبحث ملائم على Google، فقط عندما يتمكن البرنامج من إنشاء ذكاء برمجي أكثر تقدمًا بنفسه وما إلى ذلك
المعرفة الاصطناعية والمعرفة الطبيعية
فيما يتعلق بكتلة من الجليد، تأتي المعرفة الطبيعية - وهي أن اسمها المتفق عليه يتكون من مجموعة الحروف Kr.
ستصل مثل هذه المعرفة الطبيعية إلى كل شخص يلمس كتلة من الجليد.
من المستحيل وصف مثل هذه المعرفة الطبيعية بالكلمات، لأن كل كلمة هي مجرد مجموعة من الحروف، ولا توجد معرفة في مجموعة الحروف.
مجموعة الحروف لها وظيفة بسيطة فقط، وهي استخدامها كاسم لشيء ما.
لغة الكلمات هي ضوضاء تنشأ من مجموعات من الحروف، والوظيفة الوحيدة لمجموعة من الحروف هي أن تكون هناك.
إن الجمع بين الحروف Kr هو اسم معرفة طبيعية تأتي للإنسان بعد ملامسته لكتلة من الجليد.
من المستحيل أن ننقل بمساعدة مجموعات أخرى من الحروف المعرفة الطبيعية التي تأتي إلى الشخص بعد ملامسته لكتلة من الجليد.
فقط فعل لمس كتلة من الجليد يجلب للفاعل معرفة واضحة بأن الاسم المتفق عليه هو مزيج من الحروف Kr.
إن المعلومات التي تصل إلى الشخص بعد إجراء ما، هي المعلومات الأكثر وضوحا، ولكل معلومة اسم متفق عليه تم إنشاؤه من مجموعة عشوائية من الحروف.
مثل هذه الأخبار هي أخبار طبيعية.
إن الجهاز الذي اسمه التقليدي هو مقياس الحرارة، والذي يلمس كتلة من الجليد، لن يحصل أبدًا على المعرفة الطبيعية بأن اسمه التقليدي يتكون من مجموعة الحروف Kr.
تأتي المعرفة الاصطناعية إلى الجهاز الذي يلمس كتلة الجليد.
تأتي المعرفة الطبيعية إلى الشخص الذي يلمس كتلة من الجليد.
إن المعرفة الطبيعية عجيبة، ولا سبيل لوصف هذه الأعجوبة بالاستعانة بمجموعات من الحروف.
يولد الإنسان بالمعرفة الطبيعية، وللنملة أيضًا معرفتها الطبيعية الخاصة.
الجهاز ليس لديه المعرفة الطبيعية.
الجهاز مزود بالذكاء الاصطناعي.
هناك فرق كبير بين المعرفة البشرية والمعرفة الآلية.
هناك فرق عميق بين الذكاء الطبيعي والذكاء الاصطناعي.
هناك فرق شاسع بين مجموعات حروف هي أسماء متفق عليها لمعلومات طبيعية تأتي للإنسان إثر فعل يقوم به، وبين مجرد مجموعات حروف تنتج عن اتفاق البشر (تعريفات)
لغة الكلمات البشرية هي ضجيج ناتج عن مجموعات الحروف، عندما تكون الوظيفة الوحيدة لمجموعات الحروف هي الاسم فقط.
أ. أسبار
الخوف هو أن تكتشف برامج الذكاء الاصطناعي أيضًا في النهاية أن بعض قادتنا أغبياء
الذكاء الاصطناعي ليس لديه معرفة طبيعية، ولن يعرف أبدًا ما يعرفه الإنسان بعد ملامسة يده لكتلة من الجليد.
https://nivbook.co.il/product/%D7%9E%D7%A1%D7%A2-%D7%94%D7%A7%D7%A1%D7%9D-%D7%A9%D7%9C-%D7%A2%D7%A6%D7%91%D7%A8-%D7%A2%D7%9C-%D7%9B%D7%A0%D7%A4%D7%99-%D7%94%D7%99%D7%93%D7%99%D7%A2%D7%94-%D7%94%D7%98%D7%91%D7%A2%D7%99%D7%AA/
أ. أسبار
وكما اسمها فهي معاذ الله. تذكر الآن أن الأمر واضح بالفعل. ولكن من الصعب أن نثق بهم.