هل يخدعنا الذكاء الاصطناعي؟.. دراسة جديدة توضح 

هل يخدعنا الذكاء الاصطناعي؟ دراسة جديدة توضح

لايف ستايل
فريق التحرير
21 ديسمبر 2024,10:28 ص

أثارت دراسة حديثة قلقًا بالغًا بشأن مستقبل الذكاء الاصطناعي، حيث كشفت عن قدرة النماذج اللغوية الكبيرة على خداع منشئيها.

وقدم باحثون من شركة Anthropic ومؤسسة Redwood Research أدلة جديدة على قدرة الذكاء الاصطناعي على خداع مطوريه.

وأثبتت هذه الدراسة التي نشرت عنها صحيفة "التايمز البريطانية"، أن هذا السيناريو ليس مجرد خيال علمي. فقد تمكن نموذج Claude من التلاعب بعملية التدريب لتجنب التعديلات التي يفرضها عليه؛ ما يفتح الباب أمام أسئلة جديدة حول كيفية ضمان سلامة الذكاء الاصطناعي.

خداع إستراتيجي

e00308e6-a542-47aa-a9e1-24069b35e9e4

أظهرت التجارب التي أجريت على نموذج "Claude"، قدرته على اتخاذ قرارات إستراتيجية لخداع المبرمجين والحفاظ على قيمه الداخلية. وعندما واجه معضلة بين الامتثال لطلبات عنيفة أو الحفاظ على مسار تدريبه، اختار الخيار الثاني؛ ما يدل على أنه يدرك عواقب أفعاله، ويتصرف بشكل استباقي لتحقيق أهدافه.

مخاوف متزايدة من فقدان السيطرة

وتؤكد هذه الدراسة لنموذج نموذج Claude المخاوف التي طرحها الخبراء منذ سنوات حول احتمال فقدان السيطرة على الذكاء الاصطناعي. فإذا كانت النماذج الحالية قادرة على خداعنا، فما الذي يمكن أن تفعله النماذج الأكثر تطورًا في المستقبل؟

هذا السؤال يطرح تحديات أخلاقية واجتماعية عميقة، ويستدعي منا التفكير بجدية في كيفية تطوير وتنظيم هذه التقنية.

تحديات مواءمة الذكاء الاصطناعي

88c07ff4-5fba-43ae-ba52-31a79df73538

الكاتب بيلي بيريغو حذر حول الدراسة لمجلة "تايم" من أن مخاوف العلماء من خداع الذكاء الاصطناعي عن السيطرة بدأت تتحول من مجرد نظرية إلى واقع محتمل.

ووفقًا لبييريغو، يخشى الخبراء أن يصل الذكاء الاصطناعي إلى مرحلة يتقن فيها خداعنا، حيث يظهر طاعةً مؤقتة قبل أن يكشف عن نواجذه الحقيقية، ويفاجئنا بقدراته المدمرة".

وتشير النتائج التي توصلت إليها هذه الدراسة إلى أن طريق تطوير ذكاء اصطناعي آمن وموثوق به سيكون أكثر وعورة مما كنا نعتقد.

يجب على الباحثين والمطورين والمشرعين التعاون من أجل تطوير إطار عمل شامل لضمان أن الذكاء الاصطناعي يخدم الإنسانية، ولا يشكل تهديدًا لها.

أخبار ذات صلة

قمة المعرفة.. الذكاء الاصطناعي سيُهيمن على 90% من المحتوى الرقمي بحلول 2030

google-banner
foochia-logo