NetBSD ha aggiornato la sua politica di commit per rifiutare i codici AI attribuiti a ChatGPT o Copilot, definendoli contaminati a causa di problemi di licenza.
Leggi anche: Gli sviluppi nelle licenze open source
Questa politica impedisce l'inclusione di codice con licenze incompatibili nel codice sorgente di NetBSD. Lo sviluppatore principale di NetBSD ha dichiarato che la nuova politica eliminerà tutti i problemi di licenza nel codice sorgente e che l'integrità del codice rimarrà la migliore possibile.
NetBSD impone nuove linee guida sul codice generato dall'intelligenza artificiale
Negli aggiornamenti, le linee guida stabiliscono che ogni codice di intelligenza artificiale generato debba essere considerato un vandalo fino a quando non venga presa una decisione da parte degli sviluppatori principali. La decisione viene presa tramite un processo di approvazione a cui partecipa un revisore.
I dati di addestramento dell'intelligenza artificiale sono solitamente indifferenziati, il che aumenta il rischio intrinseco di essere utilizzati su codice reso disponibile con un modello di licenza liberale e una licenza più rigorosa.
Leggi anche: L'impatto dell'intelligenza artificiale sullo sviluppo del software
La decisione di NetBSD di classificare il codice elaborato dall'IA come contaminato è una mossa deliberata per evitare di incorporare inavvertitamente codice non conforme nel progetto, preservando così la rigorosa aderenza di quest'ultimo ai suoi standard di licenza.
NetBSD rafforza la conformità del codice generato dall'intelligenza artificiale in modo rigoroso
NetBSD intende impedire l'ingenuità dell'inserimento di codice non conforme e garantire il rispetto da parte del progetto di rigorosi standard di licenza. Lo strumento analizza diverse fonti e, come dichiarato dal responsabile senior di NetBSD, si impegna a non includere inavvertitamente codice altrui.
La decisione di Facebook è indicativa dei timori che la comunità del software stia monitorando l'influenza dell'intelligenza artificiale sul codice precedentemente sviluppato da software open source. Mentre gli LLM stanno guadagnando slancio con la diffusione dell'intelligenza artificiale, la questione della legalità e dell'etica nell'integrazione di contenuti generati dall'intelligenza artificiale in progetti pubblici di massa è oggetto di costante valutazione.
NetBSD bilancia innovazione e conformità nella politica del codice AI
La decisione di NetBSD su questo tema rispecchia le maggiori preoccupazioni del settore riguardo ai contenuti generati dall'intelligenza artificiale, sia per quanto riguarda le loro caratteristiche tecniche che etiche. Questa politica stabilisce undent affinché altri progetti includano misure simili nei loro piani, aiutando così i tecnologi a soddisfare l'esigenza di innovazione costante e gli obblighi etici.
I sostenitori degli strumenti di intelligenza artificiale affermano di accelerare notevolmente il processo di sviluppo, evitando un noioso lavoro di scrittura, ma i critici esprimono incertezze legali, tra le altre cose, a causa di conflitti di licenza.
Reportage Cryptopolitan di Emman Omwanda

