تخطط Meta Platforms لاستخدام الذكاء الاصطناعي لتقييم الخصوصية والمخاطر المجتمعية. على مر السنين ، استخدمت الشركة تقييمات بشرية للنظر في المخاطر المرتبطة بالمنتجات والميزات الجديدة ، ولكن من المقرر أن تتغير الأمور مع هذا التحديث الجديد.
وفقًا للمحادثات والوثائق الداخلية ، تخطط Meta للحصول على 90 ٪ من إجمالي تقييمات المخاطر الآلية. هذا يعني أن الجوانب المتعلقة بالتحديثات الهامة لخوارزميات الشركة وميزات السلامة والتغييرات في كيفية السماح بمشاركة المحتوى عبر منصات META في الغالب من قبل نظام مدعوم بالذكاء الاصطناعي. وهذا يعني أيضًا أن هذه التغييرات لن تخضع بعد الآن لمراجعتها من قبل الموظفين المكلفين بمناقشة كيف يمكن أن يكون للتغيير على المنصة آثار غير متوقعة أو إساءة استخدامها.
يعتزم Meta الانتقال إلى نظام مراجعة يعمل بذات
وفقًا للمصادر داخل META ، كان يُنظر إلى التطوير على أنه فوز لمطوري المنتجات ، لأنه يتيح لهم وقتًا كافيًا لإصدار تحديثات وميزات التطبيق الخاصة بهم. ومع ذلك ، لا تزال هناك مخاوف داخل الشركة حول مدى صعوبة الموقف ، مشيرا إلى أن الشركة ستسمح لـ AI باتخاذ قرارات صعبة حول تطبيقات Meta قد تؤدي إلى ضرر في العالم الحقيقي. تم مشاركة التحيز من قبل الموظفين السابقين والحاليين.
وقال مسؤول تنفيذي سابق في META الذي طلب عدم الكشف عن هويته خوفًا من الانتقام من الشركة: "بقدر ما تعني هذه العملية وظيفيًا ، فإن المزيد من الأشياء التي تطلق بشكل أسرع ، مع تدقيق ومعارضة أقل صرامة ، فهذا يعني أنك تخلق مخاطر أعلى". "من غير المرجح أن يتم منع العوامل الخارجية السلبية لتغيرات المنتج قبل أن تبدأ في التسبب في مشاكل في العالم."
في بيان حديث ، ذكرت Meta أنها غرست مليارات الدولارات لدعم خصوصية المستخدم. كانت الشركة أيضًا تحت مراقبة لجنة التجارة الفيدرالية منذ عام 2012 ، حيث توصلت الوكالة إلى اتفاق مع الشركة حول كيفية معالجة المعلومات الشخصية لمستخدميها. نتيجة لذلك ، كانت هناك دائمًا حاجة إلى مراجعات الخصوصية للمنتجات ، وفقًا لموظفي META السابقين والحاليين.
في بيانها ، أضافت الشركة أن تغييرات مراجعة مخاطر المنتج ستساعد في تبسيط اتخاذ القرارات ، مع الإشارة إلى أنها لا تزال توظف خبرة بشرية في قضايا جديدة ومعقدة. لاحظ Meta أيضًا أن القرارات المنخفضة المخاطر فقط هي الآلية حاليًا ، ولكن الوثائق الداخلية التي تمت مراجعتها من قبل NPR تظهر أن Meta يبحث في أتمتة مراجعات للجوانب الحساسة ، بما في ذلك سلامة الذكاء الاصطناعي ، ومخاطر الشباب ، وفئة أخرى معروفة باسم النزاهة ، وهي مسؤولة عن أشياء مثل المعلومات الخاطئة والمحتويات العنيفة.
بموجب النظام السابق ، تم إرسال تحديثات المنتج والميزات لأول مرة إلى مقيمي المخاطر قبل طرحها إلى الجمهور. ومع ذلك ، وفقًا لشريحة تعرض كيفية عمل العملية الجديدة ، ستتلقى فرق المنتجات قرارات فورية بعد إكمال استبيان حول المشروع. قرار الذكاء الاصطناعى الذي يعمل به منظمة العفو الدولية سوفdentعن العديد من المناطق والمتطلبات المحفوفة بالمخاطر التي يمكن أن تعالجها. قبل إطلاق هذه المشاريع ، سيتحقق فريق المنتج أيضًا ما إذا كانت المتطلبات قد تم استيفاءها.
ما يسلط الضوء على النظام الجديد هو أن المهندسين الذين يقومون ببناء منتجات التعريف سيحتاجون إلى إصدار حكمهم بشأن المخاطر. وفقًا للشريحة ، في بعض الحالات ، بما في ذلك المخاطر الجديدة أو عندما المنتج إلى ملاحظات إضافية ، سيتم منح المشاريع مراجعة يدوية تنفذها البشر.
ومع ذلك ، فقد ذكرت Zvika Krieger مدير META السابق للابتكار حتى عام 2022 ، أن مديري المنتجات والمهندسين ليسوا خبراء خصوصية. وقال: "معظم مديري المنتجات والمهندسين ليسوا خبراء خصوصية وهذا ليس محور وظيفتهم. إنه ليس ما يتم تقييمهم في المقام الأول وليس هو ما يتم تحفيزهم لتحفيز الأولوية". وأضاف أيضًا أن بعض هذه التقييمات الذاتية أصبحت تمارين تفوت بعض المخاطر المهمة.
سلك الفرق الرئيسي : تستخدم مشاريع التشفير السرية للأداة للحصول على تغطية إعلامية مضمونة