في مسعى لتنظيم استخدام أدوات الذكاء الاصطناعي، ألزمت الهند شركات التكنولوجيا بالحصول على موافقة حكومية قبل إطلاق أي أنظمة ذكاء اصطناعي تُعتبر "غير موثوقة" أو قيد التجربة. كما يُلزم التوجيه، الصادر عن وزارة تكنولوجيا المعلومات الهندية، بوضع علامات تحذيرية على هذه الأدوات، تُنبه المستخدمين إلى احتمالية وجود أخطاء في إجابات الاستعلامات.
تفويض حكومي بشأن الموافقة على الذكاء الاصطناعي
باتت شركات التكنولوجيا العاملة في الهند مُلزمة بالحصول على إذن صريح من الحكومة الهندية قبل إتاحة أدوات الذكاء الاصطناعي، ولا سيما الذكاء الاصطناعي التوليدي، للمستخدمين على الإنترنت الهندي. وتعكس هذه الخطوة تركيز الحكومة الهندية المتزايد على تنظيم المشهد الرقمي، خاصةً في ظل المخاوف المتنامية بشأن المعلومات المضللة والتأثير السياسي.
ردًا على أداة الذكاء الاصطناعي Gemini من جوجل
يأتي هذا التوجيه في أعقاب جدلٍ أثير مؤخرًا حول أداة الذكاء الاصطناعي "جيميني" من جوجل، والتي وُجهت إليها انتقاداتٌ بعد اتهامها بتقديم ردودٍ تتوافق مع مزاعم السياسات الفاشية المنسوبة إلى رئيس الوزراء الهندي ناريندرا مودي. وقد أقرت جوجل بأن أداتها "قد لا تكون موثوقةً دائمًا"، لا سيما عند التعامل مع الأحداث الجارية والمواضيع السياسية. ويؤكد رد الحكومة الهندية على هذاdent التزامها بضمان دقة وموثوقية أنظمة الذكاء الاصطناعي المستخدمة داخل حدودها.
ضمان نزاهة الانتخابات
إلى جانب معالجة مسألة موثوقية أدوات الذكاء الاصطناعي، يؤكد التوجيه أيضاً على أهمية حماية نزاهة العملية الانتخابية. ومع اقتراب موعد الانتخابات العامة في الصيف المقبل، تحرص الحكومة الهندية على منع استخدام أدوات الذكاء الاصطناعي بطرق قد تؤثر على نتائج الانتخابات أو تعرقلها. ويتماشى هذا التوجيه مع الجهود الأوسع نطاقاً الرامية إلى الحفاظ على الشفافية والنزاهة في العمليات الديمقراطية في الهند.
الآثار المترتبة على شركات التكنولوجيا
بالنسبة لشركات التكنولوجيا العاملة في الهند، يُمثل هذا الإلزام عقبة تنظيمية كبيرة. فهو يُؤكد على أهمية إجراء اختبارات شاملة وعمليات تحقق دقيقة قبل نشر أدوات الذكاء الاصطناعي في السوق الهندية. علاوة على ذلك، يُسلط الضوء على الحاجة إلى مزيد من الشفافية والمساءلة في تطوير ونشر تقنيات الذكاء الاصطناعي، لا سيما في المجالات الحساسة كالسياسة والانتخابات.
الاتجاهات العالمية في تنظيم الذكاء الاصطناعي
يعكس توجه الهند نحو تنظيم الذكاء الاصطناعي اتجاهاً عالمياً أوسع، حيث تتسابق دول العالم لوضع أطر شاملة لإدارة تقنيات الذكاء الاصطناعي. فمن اللائحة العامة لحماية البيانات (GDPR) في أوروبا إلى قانون الأمن السيبراني في الصين، تُدرك الحكومات بشكل متزايد ضرورة معالجة الآثار الأخلاقية والقانونية والاجتماعية للذكاء الاصطناعي. ويُضيف النهج التنظيمي الهندي إلى هذا المشهد المتنامي لحوكمة الذكاء الاصطناعي، مُشيراً إلى التزامها بتسخير فوائد الذكاء الاصطناعي مع الحد من المخاطر المحتملة.
يمثل قرار الهند اشتراط الحصول على موافقة لإطلاق أدوات الذكاء الاصطناعي "غير الموثوقة" خطوةً هامة نحو تنظيم تقنيات الذكاء الاصطناعي داخل حدودها. فمن خلال فرض رقابة حكومية ومتطلبات تصنيف، تسعى الحكومة الهندية إلى ضمان دقة وموثوقية وسلامة أنظمة الذكاء الاصطناعي المستخدمة في البلاد. ولا تقتصر هذه الخطوة على معالجة المخاوف المباشرة بشأن إساءة استخدام أدوات الذكاء الاصطناعي فحسب، بل تعكس أيضاً جهوداً أوسع نطاقاً لإنشاء إطار عمل متين لإدارة التقنيات الناشئة في العصر الرقمي. ومع استمرار الذكاء الاصطناعي في لعب دور محوري متزايد في مختلف جوانب المجتمع، يُعدّ النهج التنظيمي الهندي مثالاً بارزاً على الحوكمة الاستباقية في مجال الذكاء الاصطناعي.

