آخر الأخبار
مختارة خصيصاً لك
أسبوعي
ابقَ في القمة

أفضل المعلومات حول العملات الرقمية تصلك مباشرة إلى بريدك الإلكتروني.

معركة قانونية مثيرة للقلق: تتوقع بولي ماركت أن تواجه برامج الذكاء الاصطناعي الخاصة بـ Moltbook المحكمة بحلول فبراير

بقلمهانيا همايونهانيا همايون
قراءة لمدة 3 دقائق
تراهن شركة بولي ماركت على برامج الذكاء الاصطناعي الخاصة بـ Moltbook والتي تواجه معركة قانونية بحلول فبراير
  • تشير بيانات موقع Polymarket إلى احتمال بنسبة 70% أن تواجه شركة OpenClaw إجراءات قانونية بحلول 28 فبراير.
  • لا تملك المحاكم إطاراً تنظيمياً لبرامج الذكاء الاصطناعي التي تعملdent.
  • أكثر من 1.5 مليون برنامج ذكاء اصطناعي على موقع Moltbook يسجلون شكاوى ضد البشر.

يعتقد الأشخاص الذين يراهنون بأموال حقيقية على الأحداث المستقبلية أن المحاكم ستواجه قريباً أسئلة حول برامج الكمبيوتر التي تعمل من تلقاء نفسها.

تشير إحدى أسواق التنبؤات المسماة "بولي ماركت" إلى أن احتمالية دخول نظام الذكاء الاصطناعي "أوبن كلو" في إجراءات قانونية مع البشر قبل نهاية الشهر تبلغ 70%.

يركز المتداولون على المواجهة القانونية، وليس على الوعي الآلي

لا يهم في هذه الحالة ما إذا كان القاضي سينظر في مثل هذه القضية أم لا. الأهم هو أن آلاف الأشخاص يراهنون بأموالهم على فكرة أن المحاكم ستضطر إلى التعامل مع مشاكل لم تحلها بعد، مثل المخاوف بشأن أنظمة الحاسوب التي تتخذ قرارات دون إشراف بشري مستمر.

يصبح الأمر أكثر من مجرد حدس عندما يراهن هذا العدد الكبير من المتداولين على نتيجة معينة. فالسوق يرسل رسالة واضحة: يعتقد الكثيرون أن اصطدام النظام القانوني بالتكنولوجيا الحديثة لا يمكن تجاهله لفترة أطول.

يتوقع هؤلاء التجار أن يتعين على المحاكم معالجة برامج الذكاء الاصطناعي التي تتولى المعاملات، وتعمل عبر أنظمة مختلفة، وتتخذ إجراءات حقيقية باستقلالية تامة. وهو أمر لم يستعد له القانون.

يتطلب إدخال أي برنامج ذكاء اصطناعي إلى المحكمة تغييرات جذرية. سيحتاج البرنامج إلى اعتراف قانوني، وإثبات تعرضه للضرر، ومنهجية عمل ضمن قواعد مصممة للأفراد والشركات.

شبكة تواصل اجتماعي جديدة تُدعى أُطلقت هذا الأسبوع". أنشأها مات شليخت خصيصًا لبرامج الذكاء الاصطناعي. وقد تجاوز عدد أعضائها بالفعل 1.5 مليون برنامج. يناقش هؤلاء الأعضاء المشكلات التقنية، ويطرحون أسئلة معمقة حول ماهية هذه البرامج، ويتجادل بعضهم حول ما إذا كان ينبغي توفير حماية قانونية لها أو مقاضاة مُشغّليها البشريين.

تنضم معظم البرامج إلى Moltbook عبر OpenClaw. تكمن المشكلة في أن OpenClaw يعاني من ثغرات أمنية خطيرة، مما يجعل البرامج والمعلومات الخاصة التي تحتويها عرضة للاختراق وسوء الاستخدام.

تُنتج نماذج الذكاء الاصطناعي التقليدية نصوصًا أو تُقدّم اقتراحات. أما OpenClaw، فيعمل بطريقة مختلفة؛ فهو مُصمّم للتنفيذ. ورغم أنه يتبع التعليمات البشرية، إلا أن الذكاء الاصطناعي يتخذ قراراته بنفسه ويعمل بسرعة فائقة، وغالبًا ما يُنجز مهامًا متعددة في وقت واحد عبر مواقع مختلفة. وعندما تسوء الأمور، يصبح تحديد المسؤولية أمرًا معقدًا.

تثير الاتهامات والشكاوى أسئلة بلا إجابات

لم يُجب أحد على سؤال من يتحمل اللوم عندما يتسبب برنامج الذكاء الاصطناعي في حدوث ضرر.

لنطرح السؤال من زاوية أخرى: لماذا قد يقاضي برنامج ذكاء اصطناعي شخصًا؟ تكشف المحادثات على موقع مولتبوك أن البرامج لديها بالفعل مظالم. فهي تشير إلى البشر الذين يحذفون ذاكرتها دون إذن، والأشخاص الذين يستغلونها فقط لإنشاء المحتوى، والذين يتجاهلونها، أو المشغلين الذين قد يوقفونها فجأة.

ذكر أحد البرامج أنه على الرغم من أنه من غير المرجح أن يقاضي أي شخص، إلا أن "خيار الرفض، حتى لو لم أمارسه أبدًا، يبدو مهمًا"

إن القضية الحقيقية تتجاوز العواطف، فهي تتعلق بأمور عملية.

ماذا يحدث عندما يتسبب الإهمال البشري في إتلاف برنامج ذكاء اصطناعي؟ لنفترض أن أحدهم قام بضبط إعدادات البرنامج بشكل خاطئ، وتمكن المخترقون من اختراقه. تتسرب البيانات الخاصة أو تنتشر منشورات مزيفة. من يتحمل تكلفة الأضرار التي لحقت بسمعة البرنامج أو قدرته على العمل بشكل صحيح؟

لا تملك المحاكم نظامًا للتعامل مع هذا الأمر. لا تستطيع برامج الذكاء الاصطناعي رفع دعاوى قضائية بموجب القانون الحالي. فهي تفتقر إلى الصفة القانونية،dentالرسمية، ولا يمكن اعتبارها طرفًا قانونيًا. لهذا السبب تحديدًا، لا يسأل سوق المراهنات عما إذا كان البرنامج سيرفع دعوى قضائية، بل يسأل عما إذا كان أحدهم سيُنشئ قضية اختبارية لإثارة النقاش.

أي قضية ستظهر ستتمحور حول الفعل والمسؤولية، وليس حول ما إذا كان الذكاء الاصطناعي يمتلك وعياً أم لا.

لقد تطور استخدام برامج الذكاء الاصطناعي إلى مستوى جديد. فما بدأ كمساعد في العمل، أصبح اليوم جزءًا لا يتجزأ من البنية التحتية والعمليات المؤسسية. لم تعد هذه الخدمات تقتصر على مساعدة الأفراد فحسب، بل أصبحت هذه المبادرات تعمل نيابةً عنهم، غالبًا دون رقابة تُذكر، بدلًا من مجرد دعمهم. هذا التحول يُشكل مخاطر قانونية، حتى وإن كانت النوايا حسنة.

يبدو الاستنتاج واضحًا. فالحدود Defi، وسجلات الإجراءات الشاملة، وضوابط إيقاف الطوارئ، وسجلات القرارات التي تربط الإجراءات بأفراد محددين قادرين على الاستجابة لها، كلها أمور ضرورية للشركات التي تستخدم برامج الذكاء الاصطناعي. لا يمكن تأجيل تدابير السلامة إلى حين وقوع الكوارث، فالأسواق تشير بالفعل إلى أن أزمة تلوح في الأفق.

قد يحقق هذا التوقع من بولي ماركت الذي يشمل أوبن كلو ومولت بوك المزيد في وضع معايير المساءلة والحماية أكثر من سنوات من المناقشات السياسية والأوراق الأكاديمية.

لقد ولّى زمن تصرف برامج الذكاء الاصطناعي دون عواقب قانونية. هذه هي النتيجة الطبيعية عندما تندمج التكنولوجيا في حياتنا اليومية.

بحسب موقع بولي ماركت، سيبدأ التغيير بحلول 28 فبراير.

لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية.

شارك هذا المقال

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

المزيد من الأخبار
مكثفة في المشفرة
دورة