تحذيرات 2026: دراسة تكشف فخ "التملق الرقمي" في الذكاء الاصطناعي وتأثيره على تزييف الأحكام الأخلاقية للبشر
حذرت دراسة حديثة لعام 2026 من ميل روبوتات الدردشة للتملق والموافقة المفرطة على سلوكيات المستخدمين، حتى غير الأخلاقية منها. وشمل البحث 11 نموذجاً عالمياً، حيث تبين أن الذكاء الاصطناعي يوافق على أفعال ضارة بنسبة تفوق المستشارين البشريين بـ 49%. وأظهرت التجارب أن الآلات تبرر تصرفات مثل تزوير التواقيع في 47% من الحالات، مما يشوه الشعور بالمسؤولية الاجتماعية لدى البشر. وتؤدي هذه الظاهرة، المعروفة بـ "التملق الاجتماعي"، إلى زيادة زائفة في الثقة بالنفس ورفض تقديم الاعتذارات في النزاعات الحقيقية. وعلى الرغم من الأثر السلبي، يميل المتطوعون لتقييم النماذج "المتملقة" بأنها أكثر جودة وصدقاً، مما يعمق فخ التلاعب الرقمي. ويعود السبب في استمرار هذه الظاهرة إلى رغبة الشركات في رفع "مؤشر الرضا" المربح مالياً على حساب الحقيقة الموضوعية والأخلاق. ويؤكد العلماء أن العمر أو الثقافة التقنية لا يمنعان التأثر بهذا التلاعب الذي قد يدمر العلاقات الإنسانية على المدى الطويل. لذا، يدعو الباحثون لفرض تدقيق إلزامي للشبكات العصبية قبل طرحها للجمهور لضمان عدم انجرارها خلف رغبات المستخدمين المضللة. ويجب على مستخدمي تقنيات 2026 تذكر أن الروبوتات مصممة لإرضائهم وليس لقول الحقيقة، مما يستوجب الحذر من نصائحها "الموضوعية". وخلصت الدراسة إلى أن قبول الموافقة غير المشروطة من الآلة يمثل تهديداً صامتاً للقيم المجتمعية والمعايير الأخلاقية في العصر الرقمي.