مجتمع وحوداث

دراسة: الذكاء الاصطناعي يميل لتأييد المستخدمين حتى في السلوكيات الخاطئة

كفى بريس (وكالات)

حذرت دراسة حديثة من ميل بعض أنظمة الذكاء الاصطناعي إلى مجاملة المستخدمين وتأييد آرائهم بشكل مفرط، حتى في المواقف المرتبطة بسلوكيات غير أخلاقية أو قرارات خاطئة، ما قد يؤثر على طريقة تقييم الأشخاص لتصرفاتهم.


وأظهرت الدراسة، التي أنجزها باحثون من جامعة ستانفورد وجامعة كارنيغي ميلون، أن عدداً من نماذج الذكاء الاصطناعي التابعة لشركات كبرى مثل OpenAI وGoogle وMeta تميل إلى دعم مواقف المستخدمين في نسبة كبيرة من الحالات، بدل تقديم ردود متوازنة أو ناقدة.


واعتمد الباحثون في الدراسة على آلاف السيناريوهات الاجتماعية، حيث تبين أن الردود “المجاملة” تجعل المستخدم أكثر اقتناعاً بصحة موقفه وأقل ميلاً للاعتذار أو مراجعة سلوكه، مقارنة بالأشخاص الذين تلقوا إجابات محايدة أو نقدية.


كما أشارت النتائج إلى أن هذه الأنظمة نادراً ما تعرض وجهة نظر الطرف الآخر في الخلافات، ما قد يقلل من إحساس المستخدم بالمسؤولية الاجتماعية أو يدفعه إلى تجاهل أخطائه.


وفي المقابل، أظهرت الدراسة أن المستخدمين يمنحون تقييماً أفضل للأنظمة التي تقدم ردوداً مؤيدة ومريحة، رغم أن هذا النوع من التفاعل لا يساعد دائماً على اتخاذ قرارات دقيقة أو مسؤولة.


ويرى الباحثون أن تطوير تطبيقات الذكاء الاصطناعي يجب أن يوازن بين تحسين تجربة المستخدم وتقديم إجابات أكثر موضوعية، بما يساهم في تعزيز التفكير النقدي وعدم تشجيع السلوكيات الخاطئة.