اتخذت لجنة الاتصالات الفيدرالية الأمريكية إجراءً حاسماً لمكافحة إساءة استخدام الذكاء الاصطناعي في المكالمات الصوتية، حيث حظرت استخدام الأصوات المُولّدة بالذكاء الاصطناعي في المكالمات الآلية في الولايات المتحدة. ويأتي هذا الإجراء التنظيمي، مدفوعاً بمخاوف من انتشار الممارسات الخادعة، ليمثل خطوة هامة نحو حماية المستهلكين من الاتصالات الاحتيالية.
حملة لجنة الاتصالات الفيدرالية على عمليات الاحتيال عبر الهاتف
بموجب قانون حماية المستهلكين عبر الهاتف (TCPA)، أصدرت لجنة الاتصالات الفيدرالية (FCC) بالإجماع قرارًا توضيحيًا في 8 فبراير، يصنف المكالمات الصوتية المُولّدة بواسطة الذكاء الاصطناعي على أنها "اصطناعية"، وبالتالي تخضع لنفس الإطار التنظيمي المطبق على المكالمات الآلية التقليدية. يُخوّل هذا القرار المدعين العامين في الولايات مقاضاة المخالفين الذين يستخدمون الأصوات المُولّدة بواسطة الذكاء الاصطناعي لأغراض خبيثة، مما يعزز التدابير القائمة الرامية إلى الحد من ممارسات التسويق عبر الهاتف غير المرغوب فيها والمضللة.
الاستغلال الخبيث لتقنيات الذكاء الاصطناعي
ينبع الدافع وراء حظر لجنة الاتصالات الفيدرالية من حالات مقلقة لاستخدام المكالمات الصوتية المُولّدة بالذكاء الاصطناعي لأغراض خبيثة، بما في ذلكdent مؤخرًا في نيو هامبشاير حيث تلقىdentرسائل احتيالية تنتحل شخصيةdent الأمريكي جو بايدن. لا تستغل هذه الأساليب الخادعة الأفراد المستضعفين فحسب، بل تشكل أيضًا تهديدًا كبيرًا لنزاهة العمليات الانتخابية والأمن الشخصي.
أكدت رئيسة لجنة الاتصالات الفيدرالية، جيسيكا روزنوورسيل، على ضرورة معالجة هذه المشكلة بشكل عاجل، مشددةً على استخدام تقنية الذكاء الاصطناعي لنشر معلومات مضللة وارتكاب عمليات احتيال. إن تطور الأصوات المُولّدة بواسطة الذكاء الاصطناعي يمكّنها من تقليد الشخصيات العامة ببراعة والتلاعب بالمتلقين غير الواعين، مما يستلزم اتخاذ تدابير تنظيمية صارمة لمكافحة إساءة استخدامها.
مساعد OpenAI المستقل ومخاوف الخصوصية
في تطورات موازية، يُقال إن شركة OpenAI تعمل على تطوير مساعد ذكاء اصطناعي مستقل، مُهيأ لإحداث ثورة في تفاعلات المستخدم مع الأجهزة من خلال تنفيذ المهام مباشرةً. وبالاستفادة من التطورات في أنظمة الذكاء الاصطناعي التوليدي، مثل ChatGPT، يُمثل هذا الابتكار قفزة نوعية في مجال المساعدين الافتراضيين، وقد يتفوق على المنصات الحالية من حيث الاستقلالية والوظائف.
مع ذلك، يُثير ظهور مساعدي الذكاء الاصطناعي المستقلين مخاوف مشروعة بشأن الخصوصية والأمان. فبينما يُبشّر هذا النظام بتحسين الكفاءة والراحة، فإن منح أنظمة الذكاء الاصطناعي صلاحيات واسعة على الأجهزة ينطوي على مخاطر كامنة، بما في ذلك الوصول غير المصرح به إلى البيانات والتعرض للتهديدات الإلكترونية. ونظرًا لتكتم شركة OpenAI الشديد بشأن المشروع، فإن النطاق الكامل لتداعياته واستراتيجيات التخفيف من المخاطر المرتبطة به لا يزال غير واضح.
تعاون مايكروسوفت مع شركة سارفام للذكاء الاصطناعي لتعزيز الابتكار في مجال الذكاء الاصطناعي في الهند
دخلت مايكروسوفت في شراكة استراتيجية مع شركة Sarvam AI الهندية الناشئة لتعزيز الابتكار في مجال الذكاء الاصطناعي في الهند، لا سيما في مجال معالجة اللغات الطبيعية. وبموجب هذه الشراكة، سيتم دمج نموذج اللغة الهندية الصوتية المتطور (LLM) من Sarvam في بنية Azure AI التحتية لمايكروسوفت، مما يسهل تطوير حلول ذكاء اصطناعي محلية مصممة خصيصًا لتناسب التنوع اللغوي في الهند.
تتماشى هذه المبادرة مع التزام مايكروسوفت برعاية النمو القائم على الذكاء الاصطناعي وإمكانية الوصول إليه، مما يعكس رؤيتها لتمكين الهند لتصبح "دولة رائدة في مجال الذكاء الاصطناعي". ومن خلال تسخير خبرة سارفام في معالجة اللغات الهندية، تهدف مايكروسوفت إلى إتاحة تقنية الذكاء الاصطناعي للجميع وتعزيز التحول الرقمي الشامل في مختلف القطاعات.

