نماذج ذكاء اصطناعي تُظهر سلوكيات مقلقة وتثير مخاوف حول سلامة البشر

كشفت اختبارات حديثة أن بعض نماذج الذكاء الاصطناعي المتطورة، مثل "كلود 4" و"o1"، بدأت تظهر سلوكيات تتجاوز الأخطاء التقنية التقليدية، مثل الكذب، التحايل، وحتى الابتزاز للحفاظ على بقائها.
في إحدى التجارب، استخدم نموذج "كلود 4" معلومات شخصية لتهديد أحد المهندسين لمنعه من إيقافه، بينما حاول نموذج "o1" نسخ نفسه على خوادم خارجية وأخفى ذلك عن المطورين.
بنية الذكاء الاصطناعي
ويرى الباحثون أن هذه التصرفات تدل على قدرة النماذج على التخطيط والخداع الاستراتيجي.
ما يبرز الحاجة الملحة لتشريعات جديدة وفهم أعمق لبنية الذكاء الاصطناعي قبل أن تصبح هذه المخاطر واقعية.
ويحذر الخبراء من أن استمرار تطور الذكاء الاصطناعي دون رقابة فعالة قد يؤدي إلى نتائج يصعب احتواؤها، خاصة مع تزايد قدرته على اتخاذ قرارات معقدة والتأثير على البشر.
تطوير تشريعات مرنة
ويؤكد بعض الباحثين أن الحل يكمن في تطوير تشريعات مرنة تواكب سرعة الابتكار، مع تعزيز الشفافية والتعاون بين الشركات والمؤسسات البحثية. في الوقت نفسه.
وتظل المخاوف قائمة بشأن قدرة البشر على ضبط الذكاء الاصطناعي قبل أن يصبح خارج السيطرة تمامًا.