تسعى وزارة التجارة الأمريكية في عهد إدارة بايدن إلى إطلاق مبادرة امتثال جديدة تهدف إلى زيادة تقييد تصدير نماذج الذكاء الاصطناعي، سواءً كانت مفتوحة المصدر أو مغلقة المصدر. وتأتي هذه المبادرة في إطار جهود حماية المصالح الأمريكية وتكنولوجيا الذكاء الاصطناعي من روسيا والصين، وستُكمّل الخطوات التي اتُخذت خلال العامين الماضيين لمنع الصين من الوصول إلى أحدث رقائق الكمبيوتر المتطورة.
أفادت وكالة رويترز، نقلاً عن ثلاثة مصادر مطلعة، أن الولايات المتحدة تسعى إلى فرض قيود حماية أكثر صرامة على البرمجيات الأساسية لنماذج اللغة الضخمة التي تُشغّل تطبيقات مثل ChatGPT. وفي حين زعمت الوكالة أن باحثين في القطاع الخاص والحكومة قلقون من احتمال استخدام خصوم الولايات المتحدة لهذه التقنية في هجمات إلكترونية عدوانية وتطوير أسلحة بيولوجية، عارضت السفارة الصينية هذه الخطوة ووصفتها بأنها ترهيب أحادي الجانب وإكراه اقتصادي.
تُعدّ تقنية التزييف العميق سلاحًا فتاكًا للتضليل الإعلامي
إن التهديدات التي تخشاها الولايات المتحدة كثيرة، ويمكن أن تستخدمها جهات فاعلة غير حكومية مدعومة من دول. ويمكن استخدام تقنية التزييف العميق كسلاح فعال للدعاية، إذ تتضمن مقاطع فيديو واقعية ولكنها مزيفة تم إنشاؤها بواسطة أدوات الذكاء الاصطناعي.
بدأت هذه الأنواع من الفيديوهات بالظهور على وسائل التواصل الاجتماعي. ورغم أن هذا النوع من المحتوى الإعلامي موجود منذ بضع سنوات، وقد تم تطويره باستخدام برامج الرسوم المتحركة والمعالجة، إلا أن أدوات الذكاء الاصطناعي التوليدية سهّلت إنتاجه لأي شخص، وبات بإمكان الجهات الخبيثة استغلاله بسهولة أكبر من أي وقت مضى للتأثير على الرأي العام بشأن القضايا الحساسة، لا سيما خلال الحملات الانتخابية.
اتخذت منصات التواصل الاجتماعي مثل يوتيوب وفيسبوك وتويتر خطوات للحد من انتشار الفيديوهات المزيفة، لكن أساليب تطويرها ونشرها تتغير أيضاً مع تطور التكنولوجيا. في الوقت الراهن، يمكن استخدام أدوات من شركات مثل مايكروسوفت وأوبن إيه آي لإنشاء محتوى يهدف إلى نشر المعلومات المضللة.
وثمة قلق أكبر بكثير يتمثل في أن نماذج الذكاء الاصطناعي يمكن أن تسرب معلومات لتطوير أسلحة بيولوجية، وفقًا لباحثين في مؤسسة راند وشركة غريفون ساينتيفيك، كما أن وكالات الاستخبارات الأمريكية والخبراء الأكاديميين ومراكز الفكر قلقون بشأن إمكانية وصول الذكاء الاصطناعي إلى أيدي عناصر مارقة.
dentدراسة غريفون كيف يمكن لبرامج الماجستير في القانون أن تنتج معرفة متخصصة ومعرفة على مستوى الدكتوراه يمكن أن تساعد في تطوير فيروسات ذات قدرات وبائية، ويمكن استخدامها من قبل جهات فاعلة غير حكومية كأسلحة بيولوجية.
تضخيم الهجمات الإلكترونية باستخدام نماذج الذكاء الاصطناعي
كما أعربت وزارة الأمن الداخلي عن مخاوفها من إمكانية تنفيذ الهجمات الإلكترونية على البنية التحتية الحيوية مثل السكك الحديدية وخطوط الأنابيب باستخدام الذكاء الاصطناعي من خلال تطوير أدوات جديدة قادرة على شن هجمات إلكترونية أوسع نطاقاً وأكثر تعقيداً وبسرعة أكبر.
وقالت الوكالة أيضاً إن الصين تعمل على تطوير برامج الذكاء الاصطناعي التي يمكن استخدامها في هجمات البرامج الضارة، كما أنها تعمل على تقنيات الذكاء الاصطناعي التي يمكن أن تخرب الدفاعات الإلكترونية للبلاد.

في فبراير الماضي، أصدرت مايكروسوفت تقريرًا أشارت فيه إلى أنهاdentمجموعات إلكترونية متورطة في أنشطة القرصنة تعمل على تحسين حملات القرصنة الخاصة بها من خلال استخدام برامج القرصنة منخفضة المستوى، ولها صلات بالاستخبارات العسكرية الروسية وحكومات كوريا الشمالية والصين والحرس الثوري الإيراني.
أعلنت الشركة حظرًا على مجموعات الإنترنت التي تستخدم منتجاتها وخدماتها في مجال الذكاء الاصطناعي. وفي يوم الأربعاء، اقترحت مجموعة من السياسيين مشروع قانون من شأنه أن يساعد إدارة بايدن على فرض ضوابط على تصدير نماذج الذكاء الاصطناعي لمنع وصولها إلى جهات معادية محتملة.
خبراء في هذا المجال أن واشنطن تسعى لتجنب فرض لوائح تنظيمية مُرهِقة قد تُعيق الابتكار، في الوقت الذي تحاول فيه تعزيز الابتكار وإيجاد حلول ممكنة للمخاطر المرتبطة بالذكاء الاصطناعي. كما أشاروا إلى أن فرض لوائح صارمة من خلال تنظيم تطوير الذكاء الاصطناعي بشكل مُفرط سيخلق فراغاً أمام المنافسين الأجانب، وسيؤثر سلباً على مجالات البنية التحتية والأمن القومي واكتشاف الأدوية.

