آخر الأخبار
مختارة خصيصاً لك
أسبوعي
ابقَ في القمة

أفضل المعلومات حول العملات الرقمية تصلك مباشرة إلى بريدك الإلكتروني.

تتزايد المخاوف الأخلاقية بشأن دور شركة Grok AI في الحكومة الأمريكية

بقلمإناسي ماباكاميإيناسي ماباكامي
قراءة لمدة 3 دقائق
  • وبحسب التقارير، قامت وزارة الأمن الداخلي الأمريكية (DOGE) بتطبيق تقنية الذكاء الاصطناعي Grok في مختلف الوكالات الفيدرالية.
  • أثارت هذه الخطوة مخاوف بشأن الخصوصية وتضارب المصالح.
  • هناك مخاوف بشأن ضعف الرقابة والمخاطر الأخلاقية.

قامت إدارة كفاءة الحكومة التابعة لإيلون ماسك (DOGE) بهدوء بإطلاق نسخة معدلة من برنامج الدردشة الآلي Grok AI الخاص به عبر الوكالات الفيدرالية، مما أثار مخاوف بشأن انتهاكات محتملة للخصوصية وتضارب المصالح.

رويترز عن ثلاثة مصادر داخل DOGE قولها إن الفريق كان يستخدم Grok لفرز وتحليل البيانات الحكومية الحساسة، وإنشاء تقارير ورؤى بسرعات تتجاوز الأساليب التقليدية.

شركة دوج تنتهك الأخلاقيات بتحركها نحو الذكاء الاصطناعي جروك

وبحسب المصادر الثلاثة الداخلية، قام مهندسو DOGE بتثبيت معلمات مخصصة على Grok، وهو برنامج دردشة أطلقته شركة xAI التابعة لماسك في أواخر عام 2023، لتسريع مراجعة البيانات وأتمتة كتابة التقارير.

"إنهم يزودونه بمجموعات بيانات حكومية، ويطرحون أسئلة معقدة، ويحصلون على ملخصات فورية."

من الداخل.

مصدر مطلع آخر أن موظفي وزارة الأمن الداخلي شجعوا موظفي وزارة الأمن الداخلي على استخدام برنامج Grok لإجراء تحليلات داخلية على الرغم من أن الأداة تفتقر إلى موافقة رسمية من الوكالة.

ما زال غير واضحاً نوع المعلومات السرية أوdentالتي تم تحميلها إلى نظام Grok، ومدى اعتماده على السجلات الفيدرالية. فإذا تضمنت هذه المعلومات مواد حساسة، فقد يُخالف ذلك قوانين الخصوصية الفيدرالية وقواعد تضارب المصالح.

يحذر خمسة خبراء في الأخلاقيات والتكنولوجيا من أن مثل هذا الوصول قد يمنح شركات ماسك رؤى غير متناسبة حول بياناتtracغير العامة، بل وقد يساعد في تحسين Grok نفسه لتحقيق مكاسب خاصة.

نظرياً، يجب أن يخضع أي نموذج ذكاء اصطناعي يتم تدريبه على مجموعات بيانات حكوميةdentلضوابط قانونية صارمة. تتضمن بروتوكولات مشاركة البيانات عادةً موافقات متعددة وإشرافاً دقيقاً لمنع الكشف غير المصرح به.

من خلال تجاوز تلك الفحوصات، تخاطر شركة DOGE بكشف التفاصيل الشخصية لملايين الأمريكيين، ومنح xAI كنزًا من المعلومات الواقعية غير المتاحة للمنافسين.

تؤكد إدارة إنفاذ القانون (DOGE) أن مهمتها هي استئصال الهدر والاحتيال وسوء الاستخدام. وصرح متحدث باسم وزارة الأمن الداخلي لوكالة رويترز بأن إدارة إنفاذ القانون لم تمارس أي ضغوط على موظفيها لتبني أي أداة محددة.

قال المتحدث الرسمي: "نحن نركز على الكفاءة". لكن مصدرين يعارضان ذلك، إذ أفادا بأن ممثلي وزارة الأمن الداخلي قد ضغطوا خلال الأسابيع الأخيرة على أقسام الوزارة لتجربة برنامج "جروك" في مهام تتراوح بين تحليل قضايا الهجرة والتنبؤ بالميزانية، حتى بعد أن حظرت الوزارة فجأة جميع منصات الذكاء الاصطناعي التجارية بسبب مخاوف تسريب البيانات.

بموجب سياسة وزارة الأمن الداخلي الحالية، لا يجوز للموظفين استخدام برامج الدردشة الآلية التجارية إلا للأعمال غير المصنفة وغيرdent، بينما يتولى نظام ذكاء اصطناعي خاص بالوزارة معالجة السجلات الحساسة. ولكن عندما تم تعطيل ChatGPT وغيرها في مايو، حدثت تطورات DOGE في منطقة رمادية قانونية: ظل برنامج الدردشة الآلي الداخلي التابع لوزارة الأمن الداخلي فعالاً، لكن Grok لم يتم إدراجه رسميًا.

هل يستخدم ماسك عملة دوجكوين (DOGE) لمركزة السيطرة؟

إلى جانب وزارة الأمن الداخلي، يمتد نفوذ شركة DOGE إلى شبكات وزارة الدفاع، حيث أفادت التقارير أن نحو اثني عشر محللاً أُبلغوا بأن أداة ذكاء اصطناعي تابعة لجهة خارجية تراقب أنشطتهم. ورغم نفي المتحدثين باسم وزارة الدفاع توجيه DOGE لأي عمليات نشر للذكاء الاصطناعي، إلا أن رسائل البريد الإلكتروني والرسائل النصية المتبادلة داخل الوزارة، والتي حصلت عليها رويترز، تشير إلى خلاف ذلك.

يرى النقاد هذه التحركات كدليل على استراتيجية ماسك الأوسع نطاقاً للاستفادة من الذكاء الاصطناعي لمركزة السيطرة على البيروقراطية ثم تحقيق الربح من تدفق البيانات الناتج.

"هناك مظهر واضح للاستغلال الذاتي."

ريتشارد بينتر، أستاذ أخلاقيات الحكومة.

إذا أصدر ماسك الأمر مباشرة بنشر غروك، فقد يكون بذلك ينتهك القوانين الجنائية التي تمنع المسؤولين من التأثير على القرارات التي تفيد مصالحهم الخاصة.

يتمحور النقاش حول الدور المزدوج الذي يلعبه Grok، فهو روبوت محادثة متاح للجمهور على منصة X، ومحرك تحليلات تجريبي داخل جدران الحماية الحكومية. بل إن موقع xAI الإلكتروني يُلمّح إلى إمكانية مراقبة تفاعلات المستخدمين "لأغراض تجارية محددة"، مما يوحي بأن كل استفسار حكومي قد يُساهم في عملية تعلم Grok.

اثنان من موظفي وزارة الإلكترونيات الحكومية، كايل شوت وإدوارد كوريستين، المعروف على الإنترنت باسم "بيغ بولز"، جزءًا كبيرًا من مبادرة الذكاء الاصطناعي. ورغم امتناعهما عن التعليق، إلا أن جهودهما تندرج ضمن نمط معين؛ فخلال العام الماضي، قامت الوزارة بفصل آلاف الموظفين، والسيطرة على قواعد البيانات الحساسة، والترويج للذكاء الاصطناعي باعتباره الأداة المثلى لإصلاح البيروقراطية.

يحذر المدافعون عن الخصوصية من أن دمج الذكاء الاصطناعي غير المدقق في بيئات الأمن القومي عالية المخاطر هو وصفة لتسريبات البيانات وسرقةdentواستغلال الخصوم الأجانب.

يقول ألبرت فوكس كان من مشروع الإشراف على تكنولوجيا المراقبة: "هذا يمثل تهديداً خطيراً للخصوصية".

وهناك أيضًا مخاوف من أنه مع قلة الشفافية وقلة الضوابط، فإن تجربة الذكاء الاصطناعي التي تقوم بها وزارة الطاقة الأمريكية قد تعيد تشكيل إدارة البيانات الفيدرالية، سواء أدرك الجمهور ذلك أم لا.

إذا كنت ترغب في نقطة دخول أكثر هدوءًا إلى DeFi عالم العملات المشفرة اللامركزية دون الضجة المعتادة، فابدأ بهذا الفيديو المجاني.

شارك هذا المقال
المزيد من الأخبار
مكثفة في المشفرة
دورة