تُعد ثورة التكنولوجيا التي أحدثها الذكاء الاصطناعي مؤخراً نقطة تحول رئيسة، حيث تسعى منصات التواصل الاجتماعي للاستفادة من هذه التقنيات لتعزيز خدماتها وتحسين تجربة المستخدمين. ومع ذلك، تزداد المخاوف بين المستخدمين حيال استخدام بياناتهم الشخصية.
بحسب تقرير لـ "NDTV"، تعتمد هذه المنصات بشكل كبير على بيانات المستخدمين لتطوير قدرات الذكاء الاصطناعي لديها، مما يثير تساؤلات حول الخصوصية والأمان، ويثير القلق لدى الكثيرين من إمكانية استغلال بياناتهم بطرق غير آمنة أو غير شفافة. كما أن هناك مخاوف من التلاعب بالمعلومات وظهور المحتوى الضار نتيجة لآليات الذكاء الاصطناعي.
أقرت شركة "OpenAI" بأنها تستخدم مواد محمية بحقوق الطبع والنشر لتطوير خدمات مثل "LinkedIn"، حيث يستفيد "ChatGPT" من السير الذاتية لتحسين نماذج الذكاء الاصطناعي. كما اعترفت منصة "Snapchat" باستخدام الصور الشخصية للمستخدمين في الإعلانات، كما ذكرت شبكة "سي إن إن".
تستفيد هذه المنصات من الكم الهائل من البيانات المتاحة عبر وسائل التواصل الاجتماعي، مما يثير مشاعر عدم الارتياح لدى المستخدمين؛ بسبب استخدام معلوماتهم الشخصية في تدريب أنظمة الذكاء الاصطناعي.
أعرب ديفيد أوجيست، مؤسس "Nobody’s Cafe"، عن قلقه من عدم الشفافية في كيفية استخدام البيانات.
وتابع في تصريحاتٍ لـ "سي إن إن": في الوقت الحالي، هناك الكثير من الخوف الذي يتم خلقه حول الذكاء الاصطناعي، والكثير منه مُبرر، خاصة وأن الأمر متروك لهذه المنصات لتكون منفتحة للغايةبشأن كيفية استخدامها لبياناتنا.
وأوضح: على المنصات أن توفر للمستخدمين خيارات واضحة لرفض هذا النهج.
اقرأ أيضاً: الذكاء الاصطناعي يصغي إلى الصوت ليكتشف ما تخفيه رئتاك
بينما تقدم بعض المنصات خيارات لإلغاء مشاركة البيانات الخاصة بها في تدريب الذكاء الاصطناعي، يجب على المستخدمين أن يدركوا أن المحتوى المنشور علنًا قد يظل متاحًا لأطراف ثالثة.
إليكم كيفية تعامل بعض المنصات مع بيانات المستخدمين:
الخلاصة
تستدعي هذه الاعترافات حوارًا موسعًا حول الخصوصية وحقوق المستخدمين في عصر الذكاء الاصطناعي. من الضروري أن تكون المنصات أكثر شفافية، وتمنح المستخدمين خيارات واضحة لحماية بياناتهم.