قامت NetBSD بتحديث سياسة الالتزام الخاصة بها لرفض رموز الذكاء الاصطناعي المنسوبة إلى ChatGPT أو Copilot، ووصفتها بأنها ملوثة بسبب مشكلات الترخيص الخاصة بها.
اقرأ أيضًا: التطورات في ترخيص المصادر المفتوحة
تمنع هذه السياسة تضمين التعليمات البرمجية مع التراخيص غير المتوافقة في قاعدة تعليمات NetBSD. صرح المطور الأساسي من NetBSD أن السياسة الجديدة ستقضي على جميع مشكلات الترخيص في قاعدة التعليمات البرمجية، وسيظل تكامل التعليمات البرمجية هو الأفضل.
يفرض NetBSD إرشادات جديدة بشأن التعليمات البرمجية التي ينشئها الذكاء الاصطناعي
في التحديثات، تنص الإرشادات على أن كل كود ذكاء اصطناعي يتم إنشاؤه يجب اعتباره مخربًا حتى يتم اتخاذ قرار من المطورين الرئيسيين. يتم اتخاذ القرار من خلال عملية الموافقة التي يشارك فيها المراجع.
عادةً ما تكون بيانات تدريب الذكاء الاصطناعي غير متمايزة، مما يزيد من المخاطر الكامنة في استخدامها على التعليمات البرمجية المتاحة بموجب نموذج ترخيص ليبرالي وترخيص أكثر صرامة.
اقرأ أيضًا: تأثير الذكاء الاصطناعي على تطوير البرمجيات
يعد قرار NetBSD بتصنيف التعليمات البرمجية المدعومة بالذكاء الاصطناعي على أنها ملوثة خطوة متعمدة لتجنب دمج تعليمات برمجية غير متوافقة في المشروع عن غير قصد، وبالتالي الحفاظ على التزام الأخير الصارم بمعايير الترخيص الخاصة به.
تعمل NetBSD على تشديد التعليمات البرمجية المولدة بواسطة الذكاء الاصطناعي بشكل صارم
تهدف NetBSD إلى منع سذاجة إدراج التعليمات البرمجية غير المتوافقة وفرض امتثال المشروع لمعايير الترخيص الصارمة. تقوم الأداة بالتنقيب في مصادر مختلفة، ووفقًا لمشرف NetBSD الأول، فإنهم حريصون على عدم تضمين تعليمات برمجية لأشخاص آخرين عن غير قصد.
يشير قرار فيسبوك إلى المخاوف من أن مجتمع البرمجيات يراقب تأثير الذكاء الاصطناعي على التعليمات البرمجية التي تم تطويرها مسبقًا بواسطة المصادر المفتوحة. في حين أن ماجستير إدارة الأعمال اكتسب زخمًا مع انتشار الذكاء الاصطناعي، فإن مسألة الشرعية والأخلاقيات المتعلقة بدمج المحتوى الناتج عن الذكاء الاصطناعي في المشاريع العامة الجماعية تخضع لتقييم مستمر.
يوازن NetBSD بين الابتكار والامتثال في سياسة كود الذكاء الاصطناعي
يعكس قرار NetBSD بشأن هذه القضية المخاوف الأكبر في الصناعة بشأن المحتوى الناتج عن الذكاء الاصطناعي، بما في ذلك ميزاته التقنية والأخلاقية. وتمثل هذه السياسةdent للمشاريع الأخرى لإدراج تدابير مماثلة في خططها، وبالتالي مساعدة خبراء التكنولوجيا على تلبية الحاجة إلى الابتكار المستمر والالتزامات الأخلاقية.
يزعم أنصار أدوات الذكاء الاصطناعي أنها تعمل على تسريع عملية التطوير بشكل كبير، مع تكليفهم بإنهاء أعمال الكتابة المملة، لكن النقاد يعبرون عن الشكوك القانونية، من بين أمور أخرى، من خلال صراعات الترخيص.
تقرير كريبتوبوليتان بقلم إيمان أومواندا
أكاديمية Cryptopolitan: هل تريد تنمية أموالك في عام 2025؟ تعرف على كيفية القيام بذلك مع DeFi في مناسنا الإلكتروني القادم. احفظ مكانك