Stallman, teoria del caos e l’importanza dell’imprevedibilità

 

Linuxの場合、ジュースは、Windows、ホワイトペンギン-1920x2560L’èra virtuale ci ha regalato dal ciberspazio profondo dei pirati informatici (hacker) ormai veri e propri guru, figure quasi religiose, divenute tali per aver aperto porte della conoscenza. Richard Matthew Stallman, forse, è la persona piú rappresentativa della cultura hacker, e lo è sicuramente di quello che viene chiamato «software libero» (free software). RMS il suo nome di pirata informatico, egli nasce a Manhattan nel 1953, dimostrando fin da piccolo grandi capacità analitiche e matematiche. Durante gli anni Sessanta, ha la possibilità d’accedere a una delle prime forme di computer, e per quel bambino è un dono caduto dal cielo. Seguirà un corso alla Columbia University, dove farà infuriare diverse volte i professori, che lo ricordano cosí: «In genere, una o due volte ogni lezione, Stallman trovava qualche errore. Ed era tutt’altro che timido nel farlo immediatamente presente al professore di turno. Fu cosí che si guadagnò parecchio rispetto ma poca popolarità».

Egli conclude gli studi brillantemente a Harvard, il che gli permette d’inserirsi súbito tra gli hacker degli anni Ottanta nel MIT. L’attività di pirateria informatica svolta al laboratorio del MIT matura in Stallman anche parecchie convinzioni politiche. Sebbene Stallman non partecipasse negli anni Sessanta all’èra della controcultura, fu ispirato dal suo rifiuto della ricerca della ricchezza come primo obiettivo di vita. In piú, il Copyright Act del 1976 segnò il passaggio definitivo del software. Stallman non esitò a definirlo «un crimine contro l’umanità» e, dopo averne viste le conseguenze all’interno del proprio ufficio, decise di mollare per fondare un nuovo progetto, chiamato GNU, nel 1985. In questo manifesto, egli dà le proprie motivazioni sul perché il software debba avere accesso libero. Infatti, la parola «GNU» è un acronimo di «GNU’s not Unix», il quale Unix sarebbe il primo sistema operativo usato, considerato obsoleto dalla rivoluzione stallmaniana. Stallman diventa quindi il presidente non stipendiato d’una società non a scopo di lucro del Massachusetts che inizia la costruzione di questo progetto. Completo di tutto tranne che del kernel. Il kernel è il nucleo d’un sistema operativo — un software che deve dar accesso ai processi in esecuzione dall’elaboratore all’hardware, e devono poter esser eseguiti anche simultaneamente piú d’uno.

Questo kernel viene fornito nel 1991 da uno studente finlandese, Linus Torvalds, usando gli strumenti di GNU, ch’egli però chiamerà «Linux». Ciò ha generato una controversia tra Stallman e il giovane Linus su come debba essere chiamato. Per il fondatore, c’è bisogno anche dell’acronimo GNU, che indica la filosofia di fondo del software libero, poiché Linux è una parte di tutto il sistema operativo; mentre Torvalds vorrebbe che la parola rimanesse semplicemente «Linux». Davvero buffo: i paladini del copyleft contro il copyright che discutono su chi debba mettere il proprio nome sulla proprietà.

Il movimento free software nasce proprio con lo scopo di cambiare l’approccio ai sistemi operativi — non solo un computer. Perciò, filosoficamente, non è solo l’accesso libero a esser innovativo e rivoluzionario, ma anche la partecipazione. L’idea che ognuno con le proprie competenze — non solo tecnologiche — possa metter mano al motore della società. È un’opera di maieutica degna del miglior Socrate, che cerca di fornire gli strumenti per cavarsela da soli alle persone dell’agorà. Possiamo considerarlo figlio del detto «A un povero non regalare un pesce; insegnagli a pescare».

Forse è per questo che Stallman è considerato l’«anti-Jobs». Il primo è sporco, rozzo, sembra un po’ in acido, e non può sopportare l’idea schiavistica d’un oggetto che ti possiede, atto a tenerti il piú fermo possibile. Forse è per questo che, alla morte di Jobs, Stallman non gli risparmiò complimenti:

Steve Jobs, il pioniere del computer inteso come prigione resa di tendenza, progettato per separare gli stupidi dalla loro libertà, è morto. Come il sindaco di Chicago Harold Washington disse del corrotto precedente sindaco Daley, «non sono felice che sia morto, ma sono felice che se ne sia andato». Nessuno merita di dover morire — né Jobs, né il signor Bill, né persone colpevoli di mali peggiori dei loro. Ma tutti ci meritiamo la fine dell’influenza maligna di Jobs sul rapporto delle persone coi computer. Purtroppo, quell’influenza continua nonostante la sua assenza. Possiamo solo sperare che i suoi successori, nel proseguirne l’eredità, siano meno efficaci.

Ecco: l’idea di Stallman è il contrario di quella di Jobs. Non a caso egli è anche contrario ai telefonini, strumento cui non si può dare il proprio apporto. Ultimamente, s’è scagliato come solo lui può contro la «sorveglianza globale», invitando tutti alla «ribellione». Come? Alla maniera di Stallman. Suggerendo di non usare alcun software chiuso, come Apple o Microsoft, difendendo i vari Snowden, che «vanno protetti a ogni costo», e rifiutando qualsiasi servizio, anche migliore, basato sulla sorveglianza.

Un sistema operativo come quello GNU/Linux, che si propone di diventar capace di cambiare i modi di produzione e consumo, avrà bisogno di diventare un sistema dinamico. Andiamo per gradi. I due poli economici in scontro da un secolo sono divisi tra chi crede in uno Stato regolatore ed etico e chi ha fiducia nell’autoregolamentazione del mercato. Con un volo pindarico, potremmo paragonare questo scontro a uno avvenuto agli inizi del Novecento nella fisica. Due poli che sembravano sideralmente agli opposti quali il caos e il determinismo. I modelli matematici deterministici sono associati all’idea d’un fenomeno regolare e prevedibile, mentre quelli caotici ad assenza di regole e imprevedibilità.

Quest’apparente contraddizione fu spezzata dalla teoria del caos e dall’effetto farfalla. Questa teoria mostra come, pur partendo da piccoli sistemi deterministici, gli andamenti sono capaci di generare sistemi complessi imprevedibili. Piccole variazioni nelle condizioni iniziali producono grandi mutazioni nel lungo periodo. Un qualsiasi schema semplice applicato alla realtà resterà tanto piú fedele alla propria funzione, senza «sbordare», quanto meno esso sarà esteso e complesso. Piú grande sarà, piú sarà imprevedibile, perché le piccole variazioni iniziali, accresciute, influiranno sul risultato formando strade diverse rispetto alla condizione iniziale. Ecco perché questa teoria qualitativa dei sistemi dinamici s’è occupata del moto dei pianeti, delle oscillazioni d’un pendolo, del flusso delle correnti atmosferiche, dello scorrere piú o meno regolare dell’acqua in un fiume, del numero d’insetti che anno dopo anno popolano una certa regione, dell’andamento giornaliero dei prezzi delle azioni nei mercati finanziari, riuscendo a tracciare una sagoma delle sfumature dei sistemi complessi.

La nascita di questa teoria può esser attribuita a Newton, che in una lettera a Leibniz dice d’avere trovato «un metodo di lavoro importante» che non poteva essere rivelato. Addirittura lo scrittore Edgar Allan Poe, nel 1842, nel racconto «Il mistero di Marie Rogêt», sembra averlo intuíto:

Per quanto riguarda l’ultima parte della supposizione, si dovrà considerare che la piú insignificante differenza nei fatti delle due vicende potrebbe dar luogo ai piú importanti errori di calcolo, facendo divergere radicalmente le due sequenze dei fatti — proprio come in aritmetica un errore che in sé non ha valore, alla fine, moltiplicandosi da un punto all’altro del procedimento, produce un risultato lontanissimo dal vero.

Ma questo sistema sembrava poter calcolare ogni variazione, conoscendo la condizione iniziale. Dando cosí anche una prova a chi credeva in un grande burattinaio cosciente. Ma c’era qualche indizio che suggeriva una soluzione diversa dell’enigma. Il fumo d’una sigaretta, la dinamica dei fluidi o il flusso dell’acqua mostravano un moto vorticoso e disordinato. Era dovuto alla turbolenza, imprevedibile. Si racconta che Heisenberg, premio Nobel per la fisica, pochi minuti prima di morire abbia detto: «Quando nell’aldilà avrò l’opportunità d’interrogare il Creatore, gli voglio domandare due cose: perché la relatività, e perché la turbolenza. Almeno sulla prima spero d’ottenere una risposta».

L’approccio conoscitivo del caos deterministico sembrava scemare già nel Novecento, fino all’arrivo del filosofo e fisico Henri Poincaré, soprannominato «l’ultimo universalista», che rinunciò a una conoscenza analitico-numerica in favore di soluzioni geometrico-visive. Questo genio scriteriato avversava l’idea che la matematica fosse una branca della logica, come sosteneva Bertrand Russell, e pensava che fosse l’intuizione la via per la matematica; per lui la logica serviva solo a strutturare le idee, non a trovarle. Poincaré descriveva cosí il caos deterministico:

Una causa piccolissima che sfugga alla nostra attenzione determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l’effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell’universo all’istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo. Ma, se pure accadesse che le leggi naturali non avessero piú alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione, non ci occorrerebbe di piú, e dovremmo dire che il fenomeno è stato previsto. Ma non è sempre cosí; può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diviene impossibile.

Semplificando brutalmente, la teoria del caos studia l’imprevedibilità dei sistemi complessi.

«Anche se le leggi della natura determinano quel che facciamo e pensiamo, possiamo comunque ritenerci liberi se teniamo in considerazione le costrizioni proprie d’ogn’individuo. In questo senso, siamo liberi proprio quando riusciamo ad agire secondo le nostre convinzioni. Un tale concetto di libertà presuppone, ma ritiene anche possibili, delle riflessioni e delle scelte consapevoli, e quindi non s’oppone al determinismo. L’idea d’una libertà assoluta che si contrappone al determinismo è, infatti, incoerente dal punto di vista concettuale» (Pascal Mercier).

Ebbene, c’è un tratto comune, per gli occhi letterari, tra queste due teorie: la convinzione dell’importanza fondamentale dell’imprevedibilità. Ciò comporta la diretta responsabilità d’ognuno di noi, anche restando fermi, con la possibilità d’incidere sul motore del mondo, proprio come i programmatori GNU vogliono poter accedere al cervello del loro computer per renderlo piú personale e quindi piú intimo.

Oggi il capitalismo non sembra piú capace di permettere alle persone il passaggio dalla potenza all’atto, come direbbe Cacciari. Tra te e la tua opera ci sono ancora troppe intermediazioni. L’autodeterminazione nell’azione diretta alla maniera stallmaniana di metter mano nei motori di ciò che ti governa, non i politici, ma la tecnica, sembra sempre piú spersonalizzante. Sembrerebbe che il capitalismo risponda alle esigenze dell’imprevedibilità, ma ne è solo una forma allo stato brado.

La fase di stagnazione odierna aspetta probabilmente una fase calante, un’èra glaciale, un po’ da Grande Depressione, con un inasprimento dispotico delle regole, ma che potrebbe far convergere in nuove cooperazioni dalle macerie del sistema precedente e da attori non statuali cresciuti dal basso. Saranno le circostanze a obbligarci verso la cooperazione di competenze comuni o di comunità locali perfettamente bilanciate in un organismo costruibile solo in piccole realtà, dov’è piú facile il controllo e la disposizione delle funzioni. E questo modello assomiglia sempre di piú al sogno di Spinelli o Miglio o Salvemini, il federalismo.

La democrazia ha mostrato i propri limiti anni fa, con la sua finta messinscena di scegliere tutti assieme, coll’universalismo livellatore, non riuscendo a capire che il meglio è nemico del giusto. Oggi ci strappiamo i capelli come se stessimo perdendo un sistema che ha funzionato perfettamente. Scordando, con la solita memoria da pesciolini rossi, che abbiamo avuto la peggior democrazia occidentale d’Europa, che ha visto qualsiasi tipo di porcheria incostituzionale attuarsi, però con una democrazia teoricamente irreprensibile, la «piú bella del mondo» — nella pratica, un guazzabuglio di legislazioni in contraddizione tra loro che manderebbero ai matti perfino un calcolatore tecnologico. Se ciò non bastasse, c’è il piccolo particolare che siamo dentro un quadro di globalizzazione, dove le decisioni devono essere veloci, precise e velocemente derogabili se fatte male — ossia l’esatto opposto dei titanici tempi democratici.

Ciò non significa auspicare un meccanismo dispotico: al contrario, ci s’augura che il potere venga «spalmato» in un decentramento fatto di pesi e contrappesi, fortemente sanzionatorio qualora ci siano disguidi, e che possa reggere tale flusso nel rispetto dei diritti. Un federalismo serio avrebbe la capacità d’aprirsi e schiudersi a fisarmonica in modo da poter regolare questi flussi intermedi a seconda delle esigenze. Naturalmente, tenendo sempre ben presente l’unico assioma dell’Universo, la legge di Murphy: «Se qualcosa può andar male, lo farà». C’è anche la versione burocratica: «Se qualcosa può andar male, lo farà in triplice copia». Ma non ti preoccupare: «Sorridi; domani sarà molto peggio». E ricorda: «Se è impossibile che piova, grandinerà». Insomma: la prima regola di questo sistema è non fidarsi di questo sistema. Perché? «La miglior approssimazione delle condizioni d’uso in laboratorio non andrà nemmeno vicina alle condizioni d’uso reale.»

Designed by Daniele Bertoli. Developed by Pixelperfect