شركات التكنولوجيا الكبرى في مأزق بسبب قانون الذكاء الاصطناعي في كاليفورنيا

- تواجه ولاية كاليفورنيا مأزقاً حقيقياً فيما يتعلق بمشروع قانون الذكاء الاصطناعي الخاص بها، والذي يُزعم أنه يكبح الابتكار.
- أبدت بعض شركات التكنولوجيا الكبرى اعتراضات على الآثار السلبية المحتملة التي قد يُحدثها مشروع القانون.
- وقد عارض بعض المشرعين مشروع القانون، بينما يعتقد آخرون أن صناعة الذكاء الاصطناعي تتطلب ضوابطtron.
أعربت شركات التكنولوجيا الكبرى عن اعتراضاتtronعلى مشروع قانون الذكاء الاصطناعي في كاليفورنيا، ولكن دون جدوى، حيث من المقرر بالفعل أن يصوت المشرعون على مشروع القانون الذي سيكون له تأثير على كيفية إنتاج الذكاء الاصطناعي واستخدامه في الولاية.
تم تقديم مشروع القانون المعروف باسم SB 1047 من قبل عضو مجلس الشيوخ سكوت وينر، وهو يثير قضايا لا ترضى عنها الشركات، على الرغم من أنها لا تزال حريصة على تنظيم الصناعة.
يُخوّل مشروع القانون المدعي العام رفع دعاوى قضائية في حالة عدم الامتثال
من بين القضايا الشائكة العديدة، سيطلب مشروع القانون إجراء اختبارات سلامة للعديد من نماذج الذكاء الاصطناعي، التي تتطلب أكثر من 100 دولار لتطويرها أو تحتاج إلى قدر defiمن القدرة الحاسوبية، وفقًا لتقرير رويترز. وهذا من بين أسباب أخرى جعلت مشروع القانون يواجه انتقادات حادة من مشرعين آخرين ومتحمسين للتكنولوجيا في وادي السيليكون.
وثمة عامل آخر يتمثل في أن مطوري برامج الذكاء الاصطناعي المستخدمة في الدولة ملزمون بتقديم تعليمات حول كيفية تعطيل نماذج الذكاء الاصطناعي الخاصة بهم، وهو في جوهره مفتاح إيقاف التشغيل في حالة حدوث خلل.
يُخوّل مشروع القانون أيضاً المدعي العام للولاية رفع دعاوى قضائية في حال عدم امتثال مطوري الذكاء الاصطناعي. ويشمل ذلك على وجه الخصوص حالات التهديد المستمر، كأن يتولى الذكاء الاصطناعي إدارة الخدمات الحكومية كشبكة الكهرباء.
وبحسب تقرير رويترز، فإنه لتقييم عمليات السلامة الخاصة بهم وتوفير المزيد من الحماية لأولئك الذين يتقدمون لكشف إساءة استخدام الذكاء الاصطناعي، سيُلزم القانون المطورين أيضاً بالاستعانة بمراجعينdent .
أقرّ مجلس الشيوخ مشروع القانون، كما أقرّه مجلس النواب الأسبوع الماضي. ومن المتوقع أن يُحسم مصير مشروع القانون مع نهاية الدورة التشريعية في 31 أغسطس/آب. وفي حال إقراره، يُتوقع أن يوقّع الحاكم غافين نيوسوم على مشروع القانون أو أن يسعى إلى نقضه بحلول 30 سبتمبر/أيلول.
تباينت ردود الفعل من شركات التكنولوجيا الكبرى والمشرعين على حد سواء
أكد ممثل سان فرانسيسكو، وينر، على ضرورة تنظيم الصناعة لحماية الجمهور، قبل أن تصبح تقنية الذكاء الاصطناعي خارجة عن السيطرة.
لكن الديمقراطيين في الكونغرس عن ولاية كاليفورنيا، بمن فيهم نانسي بيلوسي ورو خانا، يعارضون مشروع القانون، حيث قالت بيلوسي إنه غير مدروس جيدًا. وأضافت أن مشروع القانون لا يُفيد الولاية كثيرًا، بل أعربت عن مخاوفها من أنه قد يُسبب ضررًا أكبر.
وهناك أيضًا مخاوف لدى الديمقراطيين من أن القانون قد يجبر المطورين على مغادرة الولاية مما يعرض نماذج الذكاء الاصطناعي مفتوحة المصدر والتي تعتمد على الكود المتاح للجمهور والذي يمكن لأي شخص استخدامه أو تعديله.
أعربت شركتا جوجل وميتا التابعتان لشركة ألفابت عن مخاوفهما بشأن مشروع القانون، بحجة أنه يهدد ابتكارات الذكاء الاصطناعي. وقد وجهتا رسائل إلى الحاكم وينر تعربان فيها عن قلقهما. وقال يان ليكان، كبير علماء الشركة الأم لفيسبوك، في منشور له على موقع X في يوليو/تموز، إن القانون قد يضر بجهود البحث العلمي.
من جهة أخرى، قالت منظمة Open AI إنه ينبغي تنظيم الذكاء الاصطناعي من قبل الحكومة الفيدرالية، مضيفة أن مشروع القانون SB 1047 يخلق بيئة غير واضحة لتطوير الذكاء الاصطناعي.
أذكى العقول في عالم العملات الرقمية يتابعون نشرتنا الإخبارية بالفعل. هل ترغب بالانضمام إليهم؟ انضم إليهم.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtronبإجراء بحث مستقلdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.
إناسي ماباكامي
إناسي ماباكامي صحفية تتمتع بخبرة تزيد عن عشر سنوات في مجال الأخبار الاقتصادية والمالية. تغطي أسواق رأس المال والتقنيات الناشئة، مثل الميتافيرس والذكاء الاصطناعي والعملات المشفرة. تحمل إناسي شهادة بكالوريوس مع مرتبة الشرف في الإعلام ودراسات المجتمع.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)














