تعتزم شركة ميتا بلاتفورمز استخدام الذكاء الاصطناعي لتقييم مخاطر الخصوصية والمخاطر المجتمعية. على مر السنين، وظفت الشركة مقيّمين بشريين لدراسة المخاطر المرتبطة بالمنتجات والميزات الجديدة، ولكن من المتوقع أن يتغير هذا الوضع مع هذا التحديث الجديد.
بحسب المحادثات والوثائق الداخلية، تخطط شركة ميتا لأتمتة 90% من جميع تقييمات المخاطر لديها. وهذا يعني أن الجوانب المتعلقة بالتحديثات الهامة لخوارزميات الشركة، وميزات الأمان، والتغييرات في كيفية مشاركة المحتوى عبر منصات ميتا، ستتم الموافقة عليها في الغالب بواسطة نظام مدعوم بالذكاء الاصطناعي. كما يعني ذلك أن هذه التغييرات لن تخضع بعد الآن لمراجعة الموظفين المكلفين بمناقشة الآثار غير المتوقعة أو إساءة استخدام أي تغيير على المنصة.
تعتزم شركة ميتا الانتقال إلى نظام مراجعة مدعوم بالذكاء الاصطناعي
بحسب مصادر داخل شركة ميتا، يُنظر إلى هذا التطور على أنه مكسب لمطوري المنتجات، إذ يمنحهم الوقت الكافي لإصدار تحديثات وميزات تطبيقاتهم. مع ذلك، لا تزال هناك مخاوف داخل الشركة بشأن مدى تعقيد الوضع، إذ يُشيرون إلى أن السماح للذكاء الاصطناعي باتخاذ قرارات معقدة بشأن تطبيقات ميتا قد يُؤدي إلى أضرار حقيقية. وقد أبدى موظفون سابقون وحاليون هذا التحيز.
قال مسؤول تنفيذي سابق في شركة ميتا، طلب عدم الكشف عن هويته خوفاً من انتقام الشركة: "بقدر ما تعني هذه العملية عملياً إطلاق المزيد من المنتجات بوتيرة أسرع، مع تدقيق ومعارضة أقل صرامة، فإنها تعني خلق مخاطر أكبر. ومن غير المرجح منع الآثار الجانبية السلبية لتغييرات المنتجات قبل أن تبدأ في إحداث مشاكل في العالم"
في بيانٍ صدر مؤخراً، ذكرت شركة ميتا أنها استثمرت مليارات الدولارات لدعم خصوصية المستخدمين. وتخضع الشركة أيضاً لمراقبة لجنة التجارة الفيدرالية منذ عام ٢٠١٢، حيث توصلت اللجنة إلى اتفاقٍ مع الشركة بشأن كيفية تعاملها مع المعلومات الشخصية لمستخدميها. ونتيجةً لذلك، لطالما كانت هناك حاجةٌ إلى مراجعاتٍ دوريةٍ لخصوصية المنتجات، وفقاً لموظفين سابقين وحاليين في ميتا.
أضافت الشركة في بيانها أن التغييرات في مراجعة مخاطر المنتج ستساهم في تبسيط عملية اتخاذ القرارات، مشيرةً إلى أنها لا تزال تعتمد على الخبرة البشرية في القضايا الجديدة والمعقدة. كما أشارت ميتا إلى أن القرارات منخفضة المخاطر فقط هي التي تُؤتمت حاليًا، لكن وثائق داخلية اطلعت عليها NPR تُظهر أن ميتا تدرس أتمتة المراجعات المتعلقة بالجوانب الحساسة، بما في ذلك سلامة الذكاء الاصطناعي، ومخاطر الشباب، وفئة أخرى تُعرف باسم النزاهة، والتي تُعنى بأمور مثل المعلومات المضللة والمحتوى العنيف.
في النظام السابق، كانت تحديثات المنتجات والميزات تُرسل أولاً إلى مُقيّمي المخاطر قبل طرحها للجمهور. أما في النظام الجديد، فبحسب عرض توضيحي لكيفية عمل النظام الجديد، ستتلقى فرق المنتج قرارات فورية بعد إكمال استبيان حول المشروع.dentالقرار المدعوم بالذكاء الاصطناعي عدة مجالات محفوفة بالمخاطر ومتطلبات يُمكن معالجتها. وقبل إطلاق هذه المشاريع، سيتحقق فريق المنتج أيضاً من استيفاء المتطلبات.
يُبرز النظام الجديد ضرورة أن يُقيّم المهندسون القائمون على تطوير منتجات ميتا المخاطر بأنفسهم. ووفقًا للعرض التقديمي، في بعض الحالات، بما في ذلك المخاطر الجديدة أو عندما المنتج إلى ملاحظات إضافية، ستخضع المشاريع لمراجعة يدوية يجريها أشخاص.
مع ذلك، أشار زفيكا كريجر، المدير السابق للابتكار في شركة ميتا حتى عام ٢٠٢٢، إلى أن مديري المنتجات والمهندسين ليسوا خبراء في مجال الخصوصية. وقال: "معظم مديري المنتجات والمهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور عملهم. ليس هذا ما يُقيّمون عليه في المقام الأول، وليس هذا ما يُحفّزون على إعطائه الأولوية". وأضاف أن بعض هذه التقييمات الذاتية أصبحت مجرد تمارين تغفل بعض المخاطر المهمة.

