هل يشكّل الذكاء الاصطناعي خطراً وجودياً على البشر؟.. دراسة تجيب!
بُعيد انتشار برامج وتطبيقات الذكاء الاصطناعي تُطرح الكثير من علامات الاستفهام بشأن خطورته وما يمكن أن يمثّله من تهديد وجودي على البشر.. دراسة جديدة تجيب.
توصّلت دراسة حديثة إلى أنّ تطبيقات الذكاء الاصطناعي والنماذج اللغوية المتطورة مثل "شات جي بي تي" ChatGPT ربما لا تشكّل "تهديداً وجودياً" حقيقياً للبشرية، وذلك في محاولة لتحديد الآثار التي يمكن أن تترتّب على انتشار هذه النماذج، وعلى عكس ما يخشاه البعض.
وأجرى باحثون من جامعة "باث" البريطانية وجامعة "دارمشتات التقنية" في ألمانيا تجارب لاختبار قدرة الروبوتات على إنجاز مهام لم يسبق أن واجهتها نماذج الذكاء الاصطناعي من قبل بما يسمّى بـ"القدرات الناشئة".
ويشرح الباحثون أنّ هذه الروبوتات تستطيع الإجابة على أسئلة حول المواقف الاجتماعية من دون أن يتمّ تدريبها أو برمجتها بشكل صريح على القيام بذلك، وذلك نتيجة "التعلّم من السياق".
ويقول الباحث في جامعة باث والمشارك في الدراسة، الدكتور هاريش تايار مادابوشي: "كان الخوف من أنه مع ازدياد حجم النماذج أكثر فأكثر، فإنها ستكون قادرة على حل مشكلات جديدة لا يمكننا التنبؤ بها حالياً، مما يشكّل تهديداً بأنّ هذه النماذج الأكبر حجماً قد تكتسب قدرات خطرة بما في ذلك التفكير والتخطيط".
إلّا أنّ فريق البحث توصّل من خلال آلاف التجارب إلى أنّ مزيجاً من الذاكرة والكفاءة والقدرة على اتباع التعليمات يمكن أن يفسّر القدرات والقيود التي تظهرها هذه البرمجيات، وفقاً لموقع جامعة "باث"، حيث إنها تتمتع فقط بـ"قدرة سطحية على اتباع التعليمات والتفوّق في إتقان اللغة".
وأكّدت الدراسة أنّ هذه البرمجيات تفتقر إلى القدرة على إتقان أو اكتساب مهارات جديدة بشكل مستقل "من دون تعليمات صريحة"، وهو ما يعني استمرار خضوعها للتحكّم من قبل البشر وإمكانية التنبؤ بنشاطها.
وخلص فريق البحث إلى أنه "يمكن الاستمرار في استخدام نماذج الذكاء الاصطناعي القابلة للتعلّم، والتي يتمّ تدريبها على جمع بيانات أكبر من أي وقت مضى، من دون مخاوف تتعلّق بالسلامة".
ومن المرجّح أن تولّد هذه النماذج لغة أكثر تعقيداً وتصبح أفضل في اتباع التعليمات الواضحة والمفصلة.
وعلى الرغم من أنه "من غير المرجّح أن تكتسب مهارات التفكير المعقّدة" كتلك التي يتمتع بها البشر، ينبّه الباحثون إلى إمكانية إساءة استخدام هذه التكنولوجيا الحديثة لتزييف الأخبار أو للاحتيال.