في خطوة جريئة وحاسمة، شركة OpenAI ، الرائدة في مجال الذكاء الاصطناعي، موقفها الرسمي الرافض لاستخدام أدواتها التوليدية للذكاء الاصطناعي في الحملات الانتخابية وتكتيكات قمع الناخبين. ويأتي هذا الإعلان في منعطف حاسم، مع اقتراب موعد العديد من الانتخابات الرئيسية في عام 2024 وتزايد المخاوف بشأن انتشار المعلومات المضللة.
أطلقت OpenAI مبادرة استراتيجية لحماية تقنيتها، حيث وظفت فريقًا متخصصًا لمعالجة المخاوف المتعلقة بالانتخابات. وقد حدد هذا الفريق متعدد التخصصات، الذي يضم خبراء من مجالات متنوعة كأنظمة السلامة، واستخبارات التهديدات، والقانون، والهندسة، والسياسات، هدفه الرئيسي فيdentأوجه إساءة استخدام الذكاء الاصطناعي المحتملة في الانتخابات والحد منها.
إجراءات استباقية لمكافحة المعلومات المضللة
إن خطر التضليل في السياسة ليس تحديًا جديدًا، لكن ظهور تقنية الذكاء الاصطناعي قد جلب معه تحديات غيرdent. وإدراكًا لخطورة هذه المشكلة، تتخذ OpenAI خطوات استباقية لحماية تقنيتها من الاستغلال في التلاعب بنتائج الانتخابات. ولتحقيق هذه الغاية، تتبنى الشركة نهجًا متعدد الجوانب، يشمل فرقًا متخصصة في اختبار الاختراق، وإشراك المستخدمين، ووضع ضوابط أمنية.
تم تحديث أداة DALL-E، إحدى أبرز أدوات الذكاء الاصطناعي التابعة لشركة OpenAI، لتشمل إجراءات وقائية تمنع توليد صور لأفراد حقيقيين، بمن فيهم المرشحون السياسيون. يضمن هذا الإجراء الاستباقي عدم مساهمة المحتوى المُولّد بواسطة الذكاء الاصطناعي، دون قصد، في نشر صور مضللة أو مُعدّلة في المجال السياسي.
تلتزم OpenAI بمراجعة سياسات المستخدمين باستمرار لمواكبة التطورات المتسارعة في مجال تقنية الذكاء الاصطناعي وإمكانية إساءة استخدامها. وتقيّد سياسات السلامة المُحدّثة للشركة بشكل صريح تطوير تطبيقات الذكاء الاصطناعي لأغراض الحملات السياسية والضغط السياسي.
علاوة على ذلك، تم تطبيق إجراءات صارمة لمنع إنشاء روبوتات محادثة تحاكي الأفراد أو المنظمات الحقيقية، مما يقلل من خطر استخدام الذكاء الاصطناعي لأغراض خادعة.
تقديم الشفافية مع مصنف المصدر
يتضمن جانبٌ هامٌ من استراتيجية OpenAI لمكافحة المعلومات المضللة إدخال مُصنِّفٍ لتحديد مصدر الصور في أداة DALL-E الخاصة بها. وتخضع هذه الميزة حاليًا للاختبار التجريبي، وهي مصممةٌ للكشف عن الصور التي تُنتجها DALL-E، مما يُعزز الشفافية في المحتوى المُولَّد بالذكاء الاصطناعي.
تخطط OpenAI لجعل هذه الأداة متاحة للصحفيين والمنصات والباحثين، مما يعزز المساءلة بشكل أكبر ويتيح اكتشاف المحتوى المرئي الذي يحتمل أن يكون مضللاً.
تعمل OpenAI أيضًا على تعزيز الشفافية والدقة في نشر المعلومات من خلال دمج تقارير الأخبار الآنية في ChatGPT. يضمن هذا التكامل حصول المستخدمين على معلومات حديثة وموثوقة، مما يُسلط الضوء على مصادر المعلومات التي يوفرها الذكاء الاصطناعي ويقلل من خطر انتشار المعلومات المضللة.
في إطار تعاونها مع الرابطة الوطنية لأمناء الولايات في الولايات المتحدة، تعمل OpenAI بنشاط على منع تقنيتها من تثبيط المشاركة الانتخابية. وتشمل هذه الشراكة توجيه مستخدمي روبوتات الدردشة المدعومة بتقنية GPT إلى مواقع إلكترونية موثوقة لمعلومات التصويت، مثل CanIVote.org، مما يعزز المشاركة المدنية ويسهل الوصول إلى معلومات انتخابية دقيقة.
قادة الصناعة يوحدون جهودهم لمكافحة المعلومات المضللة حول الذكاء الاصطناعي
شكّل إعلان OpenAI الحازمdent بارزةً في صناعة الذكاء الاصطناعي. كما اتخذت الشركات المنافسة، بما فيها جوجل وMeta Platforms، إجراءاتٍ حاسمةً لمكافحة المعلومات المضللة المنتشرة عبر تقنياتها. ويعكس هذا الجهد الجماعي بين رواد الصناعة وعيًا متزايدًا بمسؤوليتهم وتأثير الذكاء الاصطناعي المحتمل على العمليات الديمقراطية.
رغم أن إعلان OpenAI جدير بالثناء، إلا أنه أثار جدلاً حول مدى ملاءمة هذه الإجراءات لتوقيتها. وقد طرح تشارلز كينغ من شركة Pund-IT Inc. تساؤلات جوهرية حول ما إذا كانت هذه الإجراءات مناسبة للوقت أم أنها مجرد رد فعل.
يرى أن المخاوف بشأن المعلومات المضللة التي تولدها تقنيات الذكاء الاصطناعي مستمرة منذ سنوات، وأن إعلان OpenAI الأخير قد يُنظر إليه إما كاستجابة متأخرة أو مجرد لفتة رمزية. هذا المنظور يدفعنا إلى التفكير ملياً في دور مطوري الذكاء الاصطناعي ومسؤوليتهم في المشهد السياسي.

