حذر مايك وولدريدغ، أستاذ الذكاء الاصطناعي في جامعة أكسفورد، من مشاركة الأسرار والبيانات الشخصية الخاصة مع "تشات جي بي تي "ChatGPT، وهو نموذج لغة كبير طورته شركة جوجل اعتمادا على الذكاء الاصطناعي.
وقال وولدريدغ في تصريحات لصحيفة "الغارديان" البريطانية إن "أي شيء يتم الكشف عنه لهذا الروبوت يمكن استخدامه في تدريب الإصدارات المستقبلية منه".
وأضاف أن هذا يعني"أي أسرار أو بيانات شخصية تُشَارَك مع "تشات جي بي تي" يمكن أن تصبح متاحة للجمهور في المستقبل".
وأشار وولدريدغ إلى أن "تشات جي بي تي" لا يزال قيد التطوير، وأنه من غير المعروف بعد ما هي القدرات التي سيكون عليها في المستقبل.
وأوضح أن "من الممكن أن يكون "تشات جي بي تي" قادرا على الوصول إلى المعلومات الشخصية المخزنة على أجهزة المستخدمين، أو حتى السيطرة على أجهزتهم".
وشدد وولدريدغ على أن "مشاركة الأسرار والبيانات الشخصية مع "تشات جي بي تي" أمر غير حكيم إطلاقا".
ويثير تحذير وولدريدغ مخاوف بشأن مخاطر مشاركة الأسرار والبيانات الشخصية مع نماذج اللغة الكبيرة؛ لأن هذه النماذج قادرة على تعلم وفهم المعلومات بسرعة وكفاءة، ما يجعلها مصدرا محتملا للخطر إذا تم استخدامها بشكل غير مسؤول.
لذلك؛ من المهم أن يكون المستخدمون على دراية بالمخاطر المحتملة قبل مشاركة أي معلومات شخصية مع نماذج اللغة الكبيرة.
ويقدم خبراء الذكاء الاصطناعي النصائح التالية حول التعامل مع "تشات جي بي تي":
استخدم "تشات جي بي تي" لأغراض ترفيهية وتعليمية فقط، لا تستخدمه لأغراض تجارية أو قانونية أو شخصية حساسة.
كن على دراية بحدود "تشات جي بي تي"، إنه ليس شخصًا، وليس لديه القدرة على التفكير أو الشعور بنفس الطريقة التي يفكر ويشعر بها البشر.
لا تأخذ "تشات جي بي تي" على محمل الجد، إنه مجرد روبوت، وليس لديه القدرة على فهم عواقب أفعاله.