قامت NetBSD بتحديث سياسة الالتزام الخاصة بها لرفض أكواد الذكاء الاصطناعي المنسوبة إلى ChatGPT أو Copilot، واصفة إياها بأنها ملوثة بسبب مشاكل الترخيص الخاصة بها.
اقرأ أيضاً: التطورات في ترخيص المصادر المفتوحة
تمنع هذه السياسة تضمين التعليمات البرمجية ذات التراخيص غير المتوافقة في قاعدة بيانات NetBSD. وقد صرّح المطور الرئيسي في NetBSD بأن هذه السياسة الجديدة ستُزيل جميع مشاكل الترخيص في قاعدة البيانات، وستحافظ على سلامة التعليمات البرمجية على أعلى مستوى.
نظام NetBSD يفرض إرشادات جديدة بشأن التعليمات البرمجية المولدة بواسطة الذكاء الاصطناعي
في التحديثات، تنص الإرشادات على أنه يجب اعتبار كل كود ذكاء اصطناعي مُولّد بمثابة مُخرب إلى حين اتخاذ قرار من المطورين الرئيسيين. ويتم اتخاذ القرار من خلال عملية موافقة يشارك فيها مُراجع.
عادة ما تكون بيانات تدريب الذكاء الاصطناعي غير قابلة للتفريق، مما يزيد من المخاطر الكامنة لاستخدامها في التعليمات البرمجية المتاحة بموجب نموذج ترخيص ليبرالي وترخيص أكثر صرامة.
اقرأ أيضاً: تأثير الذكاء الاصطناعي على تطوير البرمجيات
إن قرار NetBSD بتصنيف التعليمات البرمجية التي تم الحصول عليها بواسطة الذكاء الاصطناعي على أنها ملوثة هو خطوة متعمدة لتجنب دمج التعليمات البرمجية غير المتوافقة في المشروع عن غير قصد، وبالتالي الحفاظ على التزام المشروع الصارم بمعايير الترخيص الخاصة به.
نظام NetBSD يُشدد متطلبات الامتثال للبرمجيات المولدة بواسطة الذكاء الاصطناعي بشكل صارم
يهدف نظام NetBSD إلى منع إدخال التعليمات البرمجية غير المتوافقة عن غير قصد، وفرض التزام المشروع بمعايير الترخيص الصارمة. يقوم النظام بفحص مصادر متعددة، ووفقًا لرئيس فريق صيانة NetBSD، فإنهم يحرصون على عدم تضمين تعليمات برمجية خاصة بأشخاص آخرين عن غير قصد.
يشير قرار فيسبوك إلى المخاوف التي تحوم حول تأثير الذكاء الاصطناعي على البرمجيات التي طُوّرت سابقًا باستخدام المصادر المفتوحة، والتي يراقبها مجتمع البرمجيات. وبينما تكتسب تطبيقات البرمجيات ذات المحتوى المطوّر بالذكاء الاصطناعي زخمًا متزايدًا مع انتشاره، فإن مسألة الجوانب القانونية والأخلاقية لدمج هذا المحتوى في المشاريع العامة تخضع لتقييم مستمر.
نظام NetBSD يوازن بين الابتكار والامتثال في سياسة كود الذكاء الاصطناعي
يعكس قرار NetBSD بشأن هذه المسألة مخاوف القطاع الأوسع نطاقًا بشأن المحتوى المُولّد بالذكاء الاصطناعي، سواءً من الناحية التقنية أو الأخلاقية. وتُشكّل هذه السياسةdent للمشاريع الأخرى لتضمين تدابير مماثلة في خططها، مما يُساعد التقنيين على تلبية الحاجة إلى الابتكار المستمر والالتزامات الأخلاقية.
يزعم مؤيدو أدوات الذكاء الاصطناعي أنها تسرع عملية التطوير بشكل كبير، حيث لا يتم تكليفهم بأعمال الكتابة المملة، لكن النقاد يعبرون عن شكوك قانونية، من بين أمور أخرى، بسبب تضارب حقوق الترخيص.
تقرير Cryptopolitan بقلم إيمان أومواندا

