تثير النقطة المتعلقة بالذكاء الاصطناعي العديد من التساؤلات حول تأثيره على الاقتصاد الأوسع: ما هي الوظائف التي سوف تتأثر أكثر بالتكنولوجيا، وكيف ستحدث هذه التغييرات، وكيف سيكون الشعور بهذه التغييرات؟
محاضر أول في الروبوتات، جامعة شيفيلد
أعلنت شركة بريتيش تيليكوم مؤخراً أنها ستخفض قوتها العاملة بمقدار 55,000 ألف شخص، منهم حوالي 11,000 ألف موظف مرتبطون باستخدام الذكاء الاصطناعي.
تثير النقطة المتعلقة بالذكاء الاصطناعي العديد من التساؤلات حول تأثيره على الاقتصاد الأوسع: ما هي الوظائف التي سوف تتأثر أكثر بالتكنولوجيا، وكيف ستحدث هذه التغييرات، وكيف سيكون الشعور بهذه التغييرات؟
لقد كان تطور التكنولوجيا وتأثيرها المصاحب على الأمن الوظيفي موضوعًا متكررًا منذ الثورة الصناعية. وإذا كانت الميكنة ذات يوم سببا للقلق بشأن فقدان الوظائف، فإنها اليوم أكثر قدرة على استخدام خوارزميات الذكاء الاصطناعي. ولكن بالنسبة للعديد من فئات الوظائف، سيظل توظيف البشر ضروريًا في المستقبل المنظور.
إن التكنولوجيا التي تقف وراء الثورة الحالية هي في الأساس ما يعرف بنماذج اللغة الكبيرة (LLM)، القادرة على فهم الأسئلة وتوليد الإجابات باللغة الطبيعية. إنه الأساس لـ ChatGPT من OpenAI، ونظام Bard من Google، وBing AI من Microsoft (الذي يستخدم ChatGPT نفسه).
كل هذه الشبكات العصبية هي عبارة عن أنظمة حسابية رياضية تم تصميمها بشكل تقريبي على غرار الطريقة التي تعمل بها الخلايا العصبية (الخلايا العصبية) في الدماغ البشري. يتم تدريب هذه الشبكات العصبية المعقدة على النصوص، والتي غالبًا ما يتم الحصول عليها من الإنترنت.
تسمح عملية التدريب للمستخدم بطرح سؤال بلغة المحادثة وللخوارزمية بتقسيم السؤال إلى مكونات. تتم بعد ذلك معالجة هذه المكونات لإنشاء إجابة مناسبة للسؤال المطروح.
والنتيجة هي نظام قادر على تقديم إجابات منطقية لأي سؤال يتم طرحه تقريبًا. إن التداعيات أوسع مما تبدو.
البشر في الحلقة
بنفس الطريقة التي يمكن أن يحل بها نظام تحديد المواقع العالمي (GPS) محل حاجة السائق إلى معرفة الطريق، يوفر الذكاء الاصطناعي فرصة للموظفين للحصول على جميع المعلومات التي يحتاجونها في متناول أيديهم، دون "التمرير".
في الواقع، فهو يخرج البشر من الحلقة، مما يعني أن أي موقف تتضمن فيه وظيفة الإنسان البحث عن العناصر وإجراء اتصالات بينها قد يكون في خطر. المثال الأبرز هنا هو وظائف مركز الاتصال.
ومع ذلك، لا يزال هناك احتمال ألا يتفق الجمهور على أن الذكاء الاصطناعي سيحل مشاكلهم، حتى لو كانت فترات انتظار المكالمات أقصر بكثير.
بالنسبة لأي عمل يدوي، فإن خطر استبداله بالذكاء الاصطناعي بعيد للغاية. وبينما أصبحت الروبوتات أكثر كفاءة ومهارة، فإنها تعمل في بيئات محدودة للغاية بيانات.
الذكاء الاصطناعي ليس جاهزًا بعد لبيئة العمل هذه، فالعالم مكان فوضوي وغير آمن، والبشر قادرون على التكيف بشكل ممتاز. يواجه السباكون والكهربائيون والوظائف المعقدة في الصناعة - على سبيل المثال، صناعة السيارات أو الطائرات - منافسة ضئيلة، إن وجدت، على المدى القصير إلى المتوسط.
ومع ذلك، قد يكون التأثير الحقيقي للذكاء الاصطناعي محسوسًا من حيث التوفير والكفاءة بدلاً من استبدال الوظائف بشكل مباشر. ومن المرجح أن تجد هذه التكنولوجيا رواجاً سريعاً كمساعد للبشر. وهذا يحدث بالفعل، خاصة في مجالات مثل تطوير البرمجيات.
بدلاً من استخدام Google لمعرفة كيفية كتابة جزء معين من التعليمات البرمجية، من الأفضل أن تطلب من ChatGPT. يمكن تصميم الإجابة وفقًا لمتطلبات المستخدم فقط، وتقديمها بكفاءة ودون تفاصيل غير ضرورية.
أنظمة السلامة الحرجة
سيصبح هذا النوع من التطبيقات أكثر شيوعًا عندما تصبح أدوات الذكاء الاصطناعي المستقبلية مساعدين أذكياء حقيقيين. إن مسألة ما إذا كانت الشركات تستخدم هذا كذريعة لتقليل القوى العاملة تصبح تعتمد على عبء العمل لديها.
نظرًا لأن المملكة المتحدة تعاني من نقص في خريجي العلوم والتكنولوجيا والهندسة والرياضيات، خاصة في مجالات مثل الهندسة، فمن غير المرجح أن يكون هناك أي فقدان للوظائف في هذا المجال، إنها مجرد طريقة أكثر كفاءة للتعامل مع المشكلة. عبء العمل الحالي.
يعتمد الاستنتاج على قيام الفريق بتحقيق أقصى استفادة من الفرص التي توفرها التكنولوجيا. وبطبيعة الحال، سيكون هناك دائمًا شك، واعتماد الذكاء الاصطناعي في تطوير الأنظمة الحيوية للسلامة، مثل الطب، سوف يستغرق وقتا طويلا. والسبب في ذلك هو أن الثقة مطلوبة في المطور وأبسط طريقة لتطور التكنولوجيا هي وضع شخص في قلب العملية.
هذه مشكلة حرجة لأن نماذج LLM هذه يتم تدريبها عبر الإنترنت، لذلك تتسلل التحيزات والأخطاء. والأسوأ من ذلك أنها قد تنشأ أيضًا عن نية خبيثة، مما يسمح بتقديم بيانات تدريب غير صحيحة أو حتى مضللة عن عمد.
أصبح الأمن السيبراني مصدر قلق متزايد مع زيادة ترابط الأنظمة بالشبكة، وكذلك مصدر البيانات المستخدمة لبناء الذكاء الاصطناعي. تعتمد LLMs على المعلومات المفتوحة ككتلة بناء تعمل على تحسينها من خلال التفاعل. وهذا يثير احتمال ظهور أساليب جديدة لمهاجمة الأنظمة من خلال خلق أكاذيب متعمدة.
على سبيل المثال، يمكن للمتسللين إنشاء مواقع ويب ضارة ووضعها في الأماكن التي من المحتمل أن تكون فيها سيتم جمعها بواسطة chatbot AI. نظرًا لمتطلبات تدريب الأنظمة على الكثير من البيانات، فمن الصعب التأكد من صحتها جميعًا.
وهذا يعني أننا كعاملين، يجب علينا أن نسعى لتسخير قدرات أنظمة الذكاء الاصطناعي واستخدامها إلى أقصى إمكاناتها. وهذا يعني أن نتساءل دائمًا عما نحصل عليه منهم، بدلاً من الثقة العمياء في مخرجاتهم. تذكرنا هذه الفترة بالأيام الأولى لنظام تحديد المواقع العالمي (GPS)، عندما كانت الأنظمة غالبًا ما تقود المستخدمين إلى طرق غير مناسبة لمركباتهم.
وإذا طبقنا عقلية متشككة في كيفية استخدامنا لهذه الأداة الجديدة، فسوف نتمكن من تعظيم قدراتها في حين نعمل في الوقت نفسه على زيادة قوة العمل ــ كما رأينا في كل الثورات الصناعية السابقة.
תגובה אחת
https://google.wixsite.com/meir-ai/post/%D7%9E%D7%90%D7%9E%D7%A8%D7%99%D7%9D-1