AI e il circolo vizioso che rischia di uccidere l'open source
Come l'intelligenza artificiale sta prosciugando l'ecosistema che l'ha resa possibile
C’è una frase di Adam Wathan che mi ha colpito e alla quale continuo a pensare da due giorni, quando l’ha pubblicata. L’ha scritta appunto l’altroieri, il giorno dopo aver licenziato tre quarti del suo team di ingegneria. Era in risposta a una pull request su GitHub, una di quelle richieste tecniche apparentemente innocue che normalmente passano inosservate. Ma la risposta di Wathan non era tecnica. Era un grido di dolore mascherato da spiegazione razionale.
Per chi non lo conoscesse, Wathan è il creatore di Tailwind CSS, uno dei framework più usati al mondo per lo sviluppo web. Se avete lavorato con il frontend negli ultimi anni, probabilmente avete incrociato Tailwind. È ovunque, con 75 milioni di download al mese. È il sogno dell’open source realizzato: un progetto gratuito, amato dalla community, che aveva trovato un modello sostenibile per esistere. Aveva. Perché adesso quel modello è in frantumi, e il motivo dovrebbe allarmarci e farci porre domande.
Il revenue di Tailwind Labs è crollato dell’80%. In un anno. Non perché il progetto sia in declino, anzi, non è mai stato così popolare. È crollato perché l’intelligenza artificiale ha cambiato il modo in cui gli sviluppatori usano il software. E questa cosa, quando ci penso, mi spaventa molto più di qualsiasi altra conseguenza dell’ai di cui si parla normalmente.
Per capire cosa è successo bisogna tornare indietro di qualche anno e guardare come funzionava il modello di business di Tailwind. Il framework è open source, gratuito, accessibile a tutti. Ma il team ha creato anche Tailwind UI, una libreria di componenti premium che vende. È uno dei modelli classici dell’open-source: offri qualcosa di gratuito e di valore, costruisci una community, e una percentuale di quella community finisce per comprare i prodotti a pagamento. Nel 2020, Tailwind UI ha fatto 500.000 dollari nei primi tre giorni dal lancio. Entro cinque mesi aveva superato i due milioni. Nel 2024 il team era cresciuto a otto persone, con stipendi da 250.000-300.000 dollari per gli ingegneri. Era l’esempio vivente che l’open source sostenibile è possibile.
E poi è arrivata l’ai.
Dal 2023, il traffico alla documentazione di Tailwind è sceso del 40%. Non perché gli sviluppatori abbiano smesso di usare Tailwind. Al contrario, l’utilizzo è ai massimi storici. Ma perché quando hai bisogno di un componente Tailwind, non vai più su tailwindcss.com. Apri Copilot, o Claude, o Cursor, e gli dici “fammi un button con Tailwind”. E l’ai te lo genera. Istantaneamente. Senza mai toccare il sito ufficiale.
Ecco il punto che mi ossessiona: la documentazione era il funnel. Era il momento in cui gli sviluppatori scoprivano che esisteva anche Tailwind UI, la versione premium. Ma se gli sviluppatori non visitano mai la documentazione, non scoprono mai i prodotti a pagamento. Il funnel è stato completamente cortocircuitato. Gli ai hanno rimosso l’intermediazione, quella frizione produttiva che permetteva ai progetti open source di monetizzare.
Wathan lo dice con una chiarezza che fa quasi male:
Tailwind sta crescendo più velocemente che mai ed è più grande che mai, e il nostro revenue è sceso di quasi l’80%. Al momento non c’è correlazione tra rendere Tailwind più facile da usare e rendere sostenibile lo sviluppo del framework.
Ho riletto questa frase diverse volte. Non c’è correlazione tra migliorare il tuo prodotto e renderlo sostenibile. È la morte del modello. È la fine di un’era.
La pull request che ha scatenato tutto questo era una richiesta per aggiungere un file llms.txt al repository di Tailwind. È uno standard emergente, un modo per rendere la documentazione più facilmente leggibile per i Large Language Models. Altri progetti l’hanno già adottato. Sembra una cosa innocua, quasi ovvia. Ma Wathan l’ha chiusa con una spiegazione che è diventata un manifesto involontario della crisi dell’open source.
Abbiamo problemi più importanti da affrontare, come raccogliere fondi per mantenere a galla il business. Rendere la nostra documentazione più leggibile per gli llm ridurrà solo ulteriormente gli accessi alla documentazione, e meno utenti scopriranno i nostri prodotti a pagamento, riducendo ulteriormente la sostenibilità del nostro business.
Alcuni lo hanno criticato. Gli hanno detto che il messaggio che sta mandando è egoista, che mette i soldi davanti al servizio alla community. Ma è qui che la situazione diventa davvero tragica, perché Wathan ha ragione. Ha completamente ragione. E non c’è una scelta vincente.
Ho provato a pensare alle opzioni che avrebbe davanti, e nessuna funziona.
Se blocchi gli llm, aggiungi regole aggressive nel robots.txt, impedisci ai crawler di OpenAI e Anthropic e Google di fare scraping della documentazione, cosa succede? Gli llm smettono di conoscere il tuo progetto. Gli sviluppatori che usano ai assistants non ricevono più suggerimenti basati sulla tua documentazione. Il tuo progetto diventa invisibile in un’epoca in cui l’84% degli sviluppatori usa strumenti ai. Perdi userbase. Perdi rilevanza. Perdi tutto.
Se non blocchi gli llm, lasci che i bot facciano scraping liberamente. Gli llm si allenano sui tuoi contenuti. Diventano bravissimi a generare codice che usa il tuo framework. Gli sviluppatori lo adorano. Ma non visitano mai il tuo sito. Non scoprono mai i tuoi prodotti a pagamento. Il revenue crolla. Devi licenziare il team. Il progetto diventa insostenibile.
Se aggiungi llms.txt per “aiutare” gli llm, rendi la documentazione ancora più facile da digerire per le ai. Gli llm diventano ancora più bravi a rispondere senza mandare gli utenti sul tuo sito. Acceleri la tua stessa obsolescenza economica. È come affilare il coltello per chi ti sta accoltellando.
Non c’è una scelta vincente. È letteralmente un circolo vizioso mortale. E la cosa che mi fa rabbrividire è che non è solo Tailwind.
Stack Overflow, la Mecca delle domande di programmazione per vent’anni, ha visto le submission crollare dai picchi di 200.000 al mese nel 2014 a meno di 50.000 alla fine del 2025. Il 47% degli utenti attivi giornalieri è semplicemente scomparso. Ora l’81% degli sviluppatori usa ChatGPT (o alternative) per fare le domande che una volta facevano su Stack Overflow. Il traffico è crollato anche dopo che Stack Overflow ha bloccato GPTBot e poi tolto il blocco per una partnership con OpenAI. Non è cambiato nulla: gli utenti hanno ormai cambiato comportamento/abitudini.
Business Insider ha registrato cali di traffico tra il 40% e il 48%. Le “zero-click searches”, query in cui l’utente ottiene la risposta direttamente nella pagina dei risultati senza cliccare su nessun sito, rappresentano ormai il 62% di tutte le ricerche. Il 2025 è stato definito “the organic traffic crisis”.
Read the Docs, GNOME, SourceHut, LWN, Fedora, tutti progetti open source, tutti sotto assedio dai crawler ai. GNOME GitLab ha avuto downtime significativi. Hanno dovuto implementare reverse proxy con proof-of-work challenges per bloccare i bot più aggressivi. Ma è una battaglia persa in partenza, perché i bot diventano sempre più sofisticati, pagano per account per sembrare umani, falsificano fingerprint TLS.
C’è chi sta provando a trovare vie d’uscita. Cloudflare ha lanciato “Pay Per Crawl” a giugno 2025. L’idea è elegante: invece di bloccare o permettere gratuitamente, puoi far pagare i crawler ai per ogni richiesta. Usi il response code 402, “Payment Required”, rimasto dormiente per decenni. Cloudflare agisce come intermediario e tu imposti un prezzo per request. Sulla carta potrebbe spostare oltre due miliardi di dollari dalle ai companies ai publisher entro il 2027.
Ma c’è un problema: funziona solo se un numero critico di publisher lo adotta. Se sei il solo a mettere il paywall, le ai companies ti ignorano e vanno altrove. È un classico problema di coordinamento, e storicamente l’ecosistema open source non è mai stato bravo a coordinarsi su questo genere di cose.
C’è un aspetto di questa storia che trovo particolarmente inquietante, e che pochi stanno notando. Se gli sviluppatori smettono di postare domande su Stack Overflow, se smettono di scrivere documentazione tecnica dettagliata perché “tanto l’ai la genera”, su cosa si alleneranno i futuri modelli ai?
È un problema di circolarità. Gli attuali llm si sono allenati su decenni di contenuti human-generated di alta qualità: tutorial scritti con cura, domande e risposte su forum, documentazione tecnica dettagliata. Ma se quella fonte si prosciuga, perché economicamente insostenibile, cosa succede? Le ai iniziano ad allenarsi su output generati da altre ai. È il fenomeno del “model collapse”, e porta a una degradazione progressiva della qualità.
Lo stesso Wathan ha sperimentato una cosa del genere. Ha provato a usare Claude per aggiungere dark mode a oltre 600 componenti di Tailwind UI. Ha detto che i risultati erano così inconsistenti che rivedere e sistemare il lavoro fatto dall’agent ha richiesto più tempo che fare tutto a mano dall’inizio. Anche per task apparentemente semplici, gli llm attuali hanno limiti evidenti in mancanza di codumentazione di qualità.
Più ci penso, più mi convinco che non esista una soluzione win-win qui. O almeno, non una che preservi l’attuale modello dell’open source sostenibile.
I modelli di monetizzazione tradizionali, open core, SaaS hosting, premium add-ons, professional services, erano tutti basati su un presupposto: che ci fosse un momento di contatto con l’utente. Un momento in cui l’utente veniva a conoscenza del tuo progetto, visitava la tua documentazione, vedeva il tuo brand, scopriva i tuoi prodotti commerciali. Quel momento era il funnel. Era dove potevi convertire utenti gratuiti in clienti paganti.
Gli ai tools hanno completamente cortocircuitato quel funnel. Gli sviluppatori non “visitano” più nulla. Chiedono a Copilot e Copilot genera il codice. L’ai è diventata un intermediario totale tra gli utenti e i progetti open source. E quell’intermediario non paga commissioni.
Se migliorare il tuo prodotto non porta a maggiore sostenibilità economica, il progetto è destinato a morire o a essere assorbito da una big tech che può permettersi di mantenerlo senza monetizzare.
Mentre riflettevo su questa cosa, mi sono ritrovato con più domande che risposte. E sono domande pesanti, che mi tengono sveglio.
L’open source può sopravvivere senza il backing di big tech? Se i progetti non riescono più a monetizzare, solo quelli sponsorizzati da Google, Meta, Microsoft sopravvivranno. Ma è davvero open source se è controllato da corporazioni? O è solo “source-available” con un’aura di community?
Serve un nuovo social contract? Alcuni parlano di trattare l’open source come “digital public infrastructure” e finanziarla con fondi pubblici. Ma quale governo vuole finanziare migliaia di progetti software? E chi decide cosa merita il finanziamento?
Gli ai providers dovrebbero pagare per i training data? Intuitivamente sembra giusto. Ma come lo implementi? Con quale meccanismo legale? E se i dati sono rilasciati con licenza open source, come imponi il pagamento senza violare i principi dell’open source stesso?
Questa è una transition temporanea o permanente? Forse tra qualche anno emergeranno nuovi modelli di business che oggi non riusciamo nemmeno a immaginare. O forse no. Forse stiamo assistendo alla fine di un’era, e quello che verrà dopo sarà radicalmente diverso da tutto ciò che conoscevamo.
C’è un’ironia quasi comica in questa tragedia. Tailwind è vittima del proprio successo. Gli llm sono così bravi a generare codice Tailwind proprio perché Tailwind ha fatto un lavoro eccezionale nel creare documentazione chiara, esempi pratici, una community attiva. Tutti quei dati di alta qualità hanno allenato perfettamente le ai. Ma quella qualità è ora l’arma che lo sta uccidendo.
È come se avessi passato anni a creare il miglior corso di programmazione del mondo, gratuito, accessibile a tutti. E poi qualcuno costruisce un robot che guarda tutti i tuoi video, memorizza tutto, e inizia a rispondere alle domande degli studenti al posto tuo. Più il tuo corso è buono, più il robot è efficace. E tu rimani lì, a guardare mentre gli studenti smettono di visitare il tuo sito, perché hanno il robot.
Non so se c’è una via d’uscita da questo circolo vizioso. Non so se Wathan riuscirà a salvare Tailwind Labs. Non so cosa succederà a tutti gli altri progetti open source che si trovano nella stessa situazione.
Quello che so è che siamo di fronte a un punto di svolta. L’intelligenza artificiale ha promesso di democratizzare lo sviluppo software, di rendere la programmazione accessibile a tutti. E probabilmente in qualche modo lo sta facendo. Ma il costo potrebbe essere l’intera infrastruttura di progetti open source, documentazione di qualità, community di esperti che per decenni hanno reso possibile quella democratizzazione.
Quando l’ultimo progetto open source sostenibile chiuderà i battenti, su cosa si alleneranno le ai del futuro? È una domanda a cui non ho risposta. E forse il fatto stesso che non ci sia una risposta ovvia è la cosa più preoccupante di tutte.
Forse quello che stiamo vivendo è il momento in cui l’ecosistema open source scopre di essere stato troppo generoso, troppo aperto, troppo fiducioso. Il nostro settore è stato l'unico che ha deciso che la conoscenza e l'innovazione dovesse essere distribuita pubblicamente. Ha regalato conoscenza al mondo per decenni, costruendo le fondamenta su cui poggia quasi tutto il software moderno. E ora quella conoscenza è stata estratta, processata, e trasformata in prodotti commerciali che ne sono i diretti concorrenti.
Non è colpa di nessuno in particolare, forse. È il risultato inevitabile di incentivi disallineati, di un modello economico che premiava l’apertura senza considerare le conseguenze a lungo termine. Ma il risultato è lo stesso: un’intera generazione di sviluppatori che ha costruito cose incredibili potrebbe ritrovarsi senza i mezzi per continuare a farlo.
E questo, per qualcuno come me che ha sempre creduto nel potere dell’open source, è semplicemente devastante.

