مع انتشار برامج وتطبيقات الذكاء الاصطناعي، تثور الكثير من علامات الاستفهام بشأن خطورته وما يمكن أن يمثله من «تهديد وجودي» علي البشر. فهل يشكل الأمر تهديدًا حقيقيًا؟ أما أن الأمر لا يزيد عن كونه مبالغة؟
يتخوف باحثون من أن تتمكن نماذج الذكاء الاصطناعي من حل مشاكل جديدة لا يمكن التنبؤ بها حاليًا، مما يشكل "تهديدًا باكتسابها قدرات خطرة" بما في ذلك التفكير والتخطيط
في محاولة لتحديد الآثار التي يمكن أن تترتب على ظهورها وعلى عكس ما يخشاه البعض، توصلت دراسة حديثة إلي أن تطبيقات الذكاء الاصطناعي والنماذج اللغوية المتطورة مثل شات جي بي تي ChatGPT ربما لا تشكل ”تهديد وجودي" حقيقي للبشرية.
وأجرى باحثون من جامعة باث البريطانية وجامعة دارمشتات التقنية في ألمانيا تجارب لاختبار قدرة الروبوتات على إنجاز مهام لم يسبق أن واجهتها نماذج الذكاء الاصطناعي من قبل بما يسمى بـ"القدرات الناشئة".
ويشرح الباحثون أن هذه الروبوتات تستطيع الإجابة على أسئلة حول المواقف الاجتماعية دون أن يتم تدريبها أو برمجتها بشكل صريح على القيام بذلك، وذلك نتيجة ”التعلم من السياق".
ويقول الباحث في جامعة باث والمشارك في الدراسة، الدكتور هاريش تايار مادابوشي: كان الخوف من أنه مع ازدياد حجم النماذج أكثر فأكثر، فإنها ستكون قادرة على حل مشاكل جديدة لا يمكننا التنبؤ بها حاليًا، مما يشكل تهديدًا بأن هذه النماذج الأكبر حجمًا قد تكتسب قدرات خطرة بما في ذلك التفكير والتخطيط.
إلا أن فريق البحث توصل من خلال آلاف التجارب إلى أن مزيج من الذاكرة والكفاءة والقدرة على اتباع التعليمات يمكن أن يفسر القدرات والقيود التي تظهرها هذه البرمجيات، وفقًا لموقع جامعة باث، حيث أنها تتمتع فقط بـ”قدرة سطحية على اتباع التعليمات والتفوق في إتقان اللغة".
وأكدت الدراسة أن هذه البرمجيات تفتقر إلى القدرة على إتقان أو اكتساب مهارات جديدة بشكل مستقل «دون تعليمات صريحة»، وهو ما يعني استمرار خضوعها للتحكم من قبل البشر وإمكانية التنبؤ بنشاطها.
وقد خلص فريق البحث إلى أنه يمكن الاستمرار في استخدام نماذج الذكاء الاصطناعي القابلة للتعلم، والتي يتم تدريبها على جمع بيانات أكبر من أي وقت مضى، دون مخاوف تتعلق بالسلامة.
ومن المرجح أن تولد هذه النماذج لغة أكثر تعقيداً وتصبح أفضل في اتباع التعليمات الواضحة والمفصلة.
وعلي الرغم من أنه ”من غير المرجح أن تكتسب مهارات التفكير المعقدة" كتلك التي يتمتع بها البشر، ينبه الباحثون إلى إمكانية إساءة استخدام هذه التكنولوجيا الحديثة لتزيف الأخبار أو للاحتيال.
المصدر: دويتش فيله