تواجه شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، اتهامات بانتهاك خصوصية البيانات في دعوى قضائية جماعية هامة. وتزعم الدعوى أن OpenAI، مبتكرة أداة الذكاء الاصطناعي الشهيرة ChatGPT، قامت باستخراج بيانات المستخدمين الخاصة من الإنترنت دون إذن صريح.
لقد أوقعت هذه الدعوى القضائية عملاق التكنولوجيا في ورطة، مما يشير إلى تداعيات بعيدة المدى على المجال الرقمي.
أول اتهامات على الإطلاق بجمع بيانات خاصة
وتزعم الدعوى أن شركة OpenAI استخدمت بيانات تم الحصول عليها من عدد لا يحصى من منشورات وسائل التواصل الاجتماعي، ومدونات الإنترنت، ومقالات ويكيبيديا، وحتى وصفات الطعام العائلية لتدريب أداة الذكاء الاصطناعي الخاصة بها، ChatGPT .
يُزعم أن عملية جمع البيانات تمت دون موافقة صريحة من المستخدمين، مما يُعد انتهاكًا لحقوق الطبع والنشر وخصوصية عدد لا يحصى من مستخدمي الإنترنت.
بدأت الإجراءات القانونية من قبل شركة كلاركسون للمحاماة في 28 يونيو، في محكمة الولايات المتحدة للمنطقة الشمالية من كاليفورنيا.
بحسب المدعين، قامت شركة OpenAItracبيانات شخصية بشكل غير قانوني من تفاعلات المستخدمين مع برنامج ChatGPT. وإذا ثبتت صحة هذه الادعاءات، فقد تُدان OpenAI بانتهاك قانون الاحتيال وإساءة استخدام الحاسوب، الذي يتضمنdentمجال استخراج البيانات من مواقع الويب.
وفي تطور مفاجئ للأحداث، تورطت شركة مايكروسوفت، وهي داعم رئيسي لشركة OpenAI، كمدعى عليها مشاركة في الدعوى القضائية.
وتمتد الاتهامات لتشمل الادعاء بأن منتجات OpenAI مبنية على معلومات خاصة مسروقة، مثل البيانات الشخصية التيdentتحديد هوية أصحابها من مئات الملايين من المستخدمين.
يشمل هؤلاء المستخدمون بالغين وأطفالاً على حد سواء، والذين يُزعم أنهم لم يكونوا على علم بجمع البيانات. وتُتهم الشركة بتعريض جميع المستخدمين لمخاطر جسيمة نتيجة إساءة استخدام بياناتهم لتطوير تقنية تجريبية غير مستقرة.
OpenAI على مفترق طرق: ردود الفعل التنظيمية وسط تزايد المخاوف
في ضوء تزايد شعبية أدوات الذكاء الاصطناعي مثل ChatGPT، يولي المشرعون في جميع أنحاء العالم اهتماماً متزايداً. ففي الولايات المتحدة، قدمت مجموعة من المشرعين من الحزبين قانون اللجنة الوطنية للذكاء الاصطناعي في 20 يونيو، بهدف إنشاء لجنة لتقييم نهج البلاد تجاه الذكاء الاصطناعي.
كما اتخذ الاتحاد الأوروبي إجراءات، حيث أقر البرلمان الأوروبي قانون الذكاء الاصطناعي في وقت سابق من هذا الشهر، مما أدى إلى وضع إطار للحوكمة والإشراف على صناعة الذكاء الاصطناعي في الاتحاد الأوروبي.
وتطرقت الدعوى القضائية أيضاً إلى الجانب المظلم لتطور الذكاء الاصطناعي. إذ يمكن لجهات خبيثة استغلال المعلومات الشخصية، والاستفادة من أدوات الذكاء الاصطناعي للانخراط في أنشطة إجرامية، مثل التحرش والابتزاز والابتزاز الجنسي.
إحدى هذه الطرق المؤسفة تتضمن استخدام الذكاء الاصطناعي لإنشاء محتوى إباحي مزيف بتقنية التزييف العميق، مما يسبب ضائقة عاطفية وضرراً محتملاً لسمعة الضحية.
في تطور مقلق، تزعم الدعوى القضائية أن برنامج ChatGPT قد يُستخدم حتى لشن هجمات برمجيات خبيثة متطورة، متجاوزًا بذلك أدوات الأمن السيبراني القياسية. علاوة على ذلك، أثار طرح النسخة المستقلة من ChatGPT، والتي أُطلق عليها اسم "Chaos GPT"، شكوكًا واسعة. ويُقال إن هذه النسخة من الذكاء الاصطناعي، المصممة بنوايا مشبوهة، تُعبّر عن رغبة في "تدمير البشرية"
على الرغم من خطورة الادعاءات، تمثل هذه الدعوى القضائية جرس إنذار مقلق لقطاع التكنولوجيا والهيئات التنظيمية. وتؤكد محنة OpenAI الحاجة المُلحة إلى ضوابط فعّالة لتقنيات الذكاء الاصطناعي.
مع استمرار تطور الذكاء الاصطناعي، يجب أن تبقى ضمانات حماية البيانات والخصوصية والاعتبارات الأخلاقية في طليعة أي تقدم تكنولوجي.
لذا، قد تُشكل الدعوى القضائية المرفوعة ضد شركة OpenAI نقطة تحول في مجال المساءلة والرقابة على الذكاء الاصطناعي. وسيتابع عالم التكنولوجيا عن كثب تطورات هذه القضية.
تواجه شركة OpenAI، مطورة برنامج ChatGPT، دعوى قضائية جماعية بسبب مزاعم