علوم وتكنولوجيا

دراسة: الذكاء الاصطناعي يقع في نفس أخطاء البشر.. متحيز وواثق بنفسه

الدراسة أجراها باحثون من خمس جامعات كندية وأسترالية- الأناضول
كشفت دراسة حديثة أن نموذج الذكاء الاصطناعي "تشات جي بي تي" (ChatGPT) يعاني من انحيازات معرفية مشابهة لتلك التي يعاني منها البشر، ما يؤثر بشكل مباشر على طريقة اتخاذه للقرارات.

وأظهرت الدراسة، التي نشرتها مجلة "Manufacturing Management"، أن "الذكاء الاصطناعي واثق بنفسه ومتحيز مثل البشر"، مؤكدة أن هذه الأنماط ليست عشوائية بل جزء من منهجية عمل النظام.

وأكدت الدراسة أن "تشات جي بي تي" وقع في العديد من الانحرافات الإدراكية البشرية في نحو نصف السيناريوهات التي خضع لها، منها الميل لتجنب المخاطر والثقة الزائدة وتأثير التملك سواء في سياقات نفسية أو أعمال واقعية، حسب موقع "Naukatv".

وأشارت الدراسة، التي أجراها باحثون من خمس جامعات كندية وأسترالية، إلى أنهم اختبروا نماذج GPT-3.5 وGPT-4 من شركة OpenAI، لقياس مدى انحرافها عن التفكير المنطقي، رغم ما وصفوه بـ"الاتساق المثير للإعجاب" في التفكير.

وبيّن الباحثون أن GPT-4 أظهر أداء أفضل في المسائل الحسابية والسيناريوهات المبنية على الاحتمالات، لكنه في المقابل وقع في أخطاء غير عقلانية عند مواجهة مواقف تتطلب قرارات ذات طابع شخصي أو استراتيجي، مشددين على أن GPT-4 أظهر ميلا أكبر نحو التنبؤ والسلامة مقارنة بالبشر.

ولفتت الدراسة إلى أن سلوك الذكاء الاصطناعي بقي متماسكا بغض النظر عن طبيعة الأسئلة، ما يعزز الاستنتاج بأن هذه الانحرافات ليست نتيجة أمثلة محفوظة فقط، بل تعكس منهجية داخلية في تفكير الآلة.

كما أضاف الباحثون أن GPT-4 عزز أحيانًا الأخطاء البشرية، وأظهر ميلاً أعلى لتصديق ما يُعرف بتأثير اليد الساخنة مقارنة بـGPT-3.5، في حين تمكن من تجنب بعض الانحيازات الأخرى مثل تجاهل الاحتمالات الأساسية.

وقال رئيس الفريق البحثي وأستاذ إدارة العمليات في كلية آيفي بكندا، يانغ تشين، إنه "من أجل الحصول على مساعدة دقيقة وموضوعية في اتخاذ القرار، استخدم GPT في المهام التي تثق فيها بالآلة الحاسبة. ولكن إذا تطلب القرار بيانات استراتيجية أو ذات طابع شخصي، فالإشراف البشري ضروري".

وأضاف أنه "لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية. بل يجب إخضاعه للرقابة وتوجيهات أخلاقية، وإلا فإننا نخاطر بأتمتة تفكير خاطئ بدلا من تحسينه".