Peter Steinberger è intervenuto su X per criticare il processo di segnalazione delle vulnerabilità di sicurezza di GitHub, definendolo un "pasticcio", dopo aver contribuito a trasformare OpenClaw in uno dei progetti in più rapida crescita e uno dei progetti non aggregatori più apprezzati sulla piattaforma.
Ha affermato che l'accesso ai report sulle vulnerabilità è limitato agli amministratori, rendendo difficile la distribuzione all'interno di un team; l'API è troppo limitata perché gli agenti possano leggere o pubblicare commenti in modo autonomo; e il sistema sta annegando in quello che ha definito "materiale incompleto generato dall'intelligenza artificiale che mi richiede ore per essere analizzato ".
Perché questa critica ha un peso particolare in questo momento?
Steinberger non è un appassionato di open source scontento. È un fondatore che ha creato prodotti importanti utilizzati in tutto il mondo e, più di recente, l'azienda in cui è entrato a far parte rende il suo sfogo degno di essere analizzato attentamente.
Steinberger si è unito a OpenAI a febbraio e OpenClaw come si dice, farà parte di una fondazione open source che OpenAI continuerà a supportare.
La pagina sulla sicurezza di OpenClaw sottolinea esplicitamente che, dato il volume di risultati degli scanner generati dall'intelligenza artificiale ricevuti, sono necessari report vagliati da ricercatori che abbiano realmente compreso i problemi, una politica che sembra quasi una nota a piè di pagina del suo post X.
Ha gestito molteplici processi coordinati di divulgazione delle vulnerabilità e ha osservato il rapporto rumore-segnale deteriorarsi in tempo reale con la proliferazione di strumenti di scansione automatizzati.
OpenAI, d'altro canto, ha recentemente presentato quello che è stato descritto internamente come un ricercatore di sicurezza agentico, un sistema basato sui suoi ultimi modelli che si integra direttamente con GitHub, analizza le modifiche a livello di commit, convalida l'esplodibilità in ambienti sandbox e allega patch generate dall'intelligenza artificiale ai suoi report.
Il prodotto è una risposta pressoché perfetta a ciascuna delle tre lamentele espresse pubblicamente da Steinberger.
Anche se potrebbe trattarsi di una coincidenza o di una coreografia, il tempismo rende difficile ignorare il post di Steinberger, soprattutto se si considera che non è insolito che i fondatori di aziende tecnologiche segnalino un prodotto quando stanno per lanciarne uno alternativo o effettuare un'acquisizione.
Quando CZ di Binance ha parlato pubblicamente dei mercati di previsione, non ci è voluto molto prima che la piattaforma di mercato di previsione, Predict.fun, venisse lanciata su BNB, supportata da YZi Labs.
Elon Musk si lamentò della direzione presa da Twitter prima di acquisirla. In seguito criticò la governance di OpenAI e fondò xAI.
In breve, i fondatori di aziende tecnologiche tendono a non criticare i problemi infrastrutturali che non hanno intenzione di risolvere.
Tuttavia, vale la pena notare che la stragrande maggioranza dei commenti sotto il tweet di Steinberger concorda sul fatto che GitHub debba fare di più per ridurre la "distorsione dell'IA".
L'intelligenza artificiale influenzerà il modo in cui il software viene sviluppato e utilizzato?
Andrew Chen, socio accomandatario di Andreessen Horowitz, ha pubblicato un parere ampiamente diffuso su X , affermando che la generazione di codice AI sta per abbattere l'ultima barriera tra la logica aziendale e il software reale.
Ha scritto: "La generazione di codice AI significa che tutto ciò che è attualmente modellato come un foglio di calcolo è meglio modellato in codice. Si ottengono tutti i vantaggi del software: librerie, open source, intelligenza artificiale, tutta la complessità e l'espressività".
Il foglio di calcolo, ha scritto, esiste solo perché il costo di scrivere codice corretto era storicamente troppo elevato. Quel costo ora è crollato. Quando un miliardo di lavoratori della conoscenza può descrivere ciò che desidera in un linguaggio semplice e ricevere in cambio un'applicazione funzionante, il limite di ciò che i non tecnici possono costruire si alza di un ordine di grandezza.
Secondo lui, "il foglio di calcolo è stato il grande livellatore che ha permesso a persone non tecniche di costruire cose. La generazione di codice basata sull'intelligenza artificiale è il *prossimo* grande livellatore, ma il limite è 100 volte più alto. Stiamo per vedere cosa succederà quando un miliardo di lavoratori della conoscenza potrà creare software reale".
Tuttavia, molti di X nei commenti non sono d'accordo con la sua proposta, con uno che afferma : "I fogli di calcolo sopravviveranno per la stessa ragione per cui i PDF sono ancora onnipresenti. Lo scheuomorfismo della carta persiste nonostante 30 anni di ipertesto. C'è qualcosa che il foglio di calcolo 'fa' che è diverso dalla manipolazione o visualizzazione di dati".
In generale, la crescita dell'intelligenza artificiale ha registrato un aumento esponenziale. I dati AI ER C -8004 mostrano che negli ultimi 30 giorni sono stati implementati oltre 81.000 agenti , di cui oltre 1.670 nelle ultime 24 ore. Questo dato non tiene conto degli agenti implementati al di fuori della blockchain.
Il sistema di segnalazione delle vulnerabilità di GitHub è stato progettato per un mondo in cui i bug venivano segnalati dagli esseri umani. Ora opera in un mondo in cui sono gli agenti a segnalarli, alla velocità e con un volume di macchine, e secondo alcuni utenti, l'infrastruttura sembra essere in difficoltà nonostante le sue capacità di intelligenza artificiale.
Il post di Steinberger potrebbe non essere altro che la frustrazione di un ingegnere indaffarato. Tuttavia, arriva proprio nel momento in cui il divario tra quel vecchio mondo e quello nuovo sta diventando impossibile da colmare.

