Luddismo e luddismi nel nuovo millennio

 

«La prima macchina intelligente che inventeremo sarà anche l’ultima cosa che ci sarà permesso d’inventare.» (Arthur C. Clarke)

No, non siamo ancora giunti all’intelligenza artificiale, se non in forme minime di sistemi auto-apprendenti funzionali a determinati settori, però cominciano già a levarsi allarmi su come questo impatterà sulla società futura. Non siamo certo al livello del primo movimento luddista, che predicava la distruzione delle macchine in quanto sarebbero andate a distruggere il lavoro umano, né del Beppe Grillo pre-Movimento 5 Stelle che distruggeva i computer sul palco dei suoi spettacoli, ma entriamo in un mondo più velato, molto più terrificante, dove c’è chi, come Elon Musk, patron di Tesla, immagina che le macchine pensanti possano arrivare a comandare o quantomeno a sostituire l’uomo nel lavoro. Non è un appello singolo, però, a sostenere le tesi di Musk, che chiederebbe una rigida regolamentazione nelle ricerche di sviluppo delle AI: ci sono anche personaggi come Bill Gates o Stephen Hawking.

In effetti un timore sullo sviluppo di macchine pensanti è ovvio che possa nascere. Chi non ha mai visto (o almeno sentito parlare) la saga di Matrix? Ben prima, poi, Frank Herbert immaginò una guerra tra gli esseri umani e le macchine pensanti che, dopo la sconfitta, furono sostituite da particolari computer umani, i mentat, nella creazione della mitologia di riferimento della sua opera più famosa, Dune. Anche in 2001: Odissea nello spazio, tra l’altro, la trama gira intorno a un’intelligenza artificiale impazzita, il computer Hal 9000. Tutto questo per indicare che il topos della pericolosità delle macchine è ben radicato nella produzione di SF da almeno cinquant’anni e che i timori che oggi si concretizzano negli allarmi dati dai “padri” dell’IT non sono assolutamente campati per aria.

Sicuramente non vedremo rivolte come quella dei framework-knitters che a inizio Ottocento assaltarono le fabbriche per distruggere i moderni arcolai e i telai meccanici, accusati di “rubare lavoro”; ma la retorica su come la “rivoluzione digitale” stia distruggendo il mercato del lavoro sta avendo un momento di gloria, ripetuta costantemente da industriali, che usano le moderne tecnologie per ridurre il costo del lavoro, e dai movimenti populisti che la indicano come la piaga del nuovo millennio, foriera della creazione di una nuova classe proletaria e sotto la soglia di povertà.

I moderni Hobsbawm non scrivono più che «la vita delle classi lavoratrici era misera, meschina, sordida, bestiale, breve e soprattutto malsicura», ma discettano di disoccupazione giovanile, del fenomeno dei NEET o della delocalizzazione delle industrie; alla fine il messaggio, però, resta identico nel descrivere il disagio delle persone appartenenti alla working class o alla classe media, oggi falcidiata da quasi dieci anni di crisi (almeno in Italia), che vedono le occupazioni tradizionali sempre più sostituite da costrutti tecnologici.

Ma tutto questo è vero? La risposta è “più o meno”. Sicuramente alcuni impieghi a scarso valore aggiunto sono stati o saranno ridimensionati nel breve termine, alcune funzioni di segreteria sono state rimpiazzate dall’uso esteso di sistemi di database e i cassieri nelle banche e nei supermercati sono destinati a essere sostituiti da sistemi automatizzati col conseguente venir meno delle relative mansioni lavorative; ma non è detto che tutto questo comporti una riduzione di “posti di lavoro”, almeno nell’aggregato.

Già la rivoluzione industriale dell’Ottocento non ha causato la riduzione della forza lavoro, anzi ha creato impiego e, nel lungo periodo, ha anche aumentato considerevolmente il reddito disponibile pro capite a livello mondiale, portando il modello economico mondiale da economia di sussistenza a economia di consumo. È vero che l’avvento della meccanizzazione ha portato alla scomparsa di tante professioni di basso livello, così come altre, anche di precisione, sono state sostituite da lavorazioni meccaniche, ma si è assistito a una vera e propria riqualificazione della forza lavoro.

Oggi un “operaio generico” è sicuramente molto più professionale del suo omologo di 150 anni fa, esattamente come il contabile che non ha più le “mezze maniche” nere a evitare macchie sulla camicia, ma è diventato un operatore molto più formato, a livello sia normativo sia tecnologico, dovendo rapportarsi a una continua evoluzione non solo degli strumenti fisici, ma anche dei software dedicati. I lavori che andranno a scomparire con la cosiddetta rivoluzione industriale 4.0 sono quelli a più basso livello di specializzazione e a minor valore aggiunto, e obbligheranno a una nuova evoluzione professionale degli esseri umani, che passeranno dall’essere meri “ingranaggi” produttivi, come nelle prime catene di montaggio ad esempio, a essere motori integranti dei processi, con un livello di competenze nemmeno immaginato solo vent’anni fa. Non aspettate scenari simili a Blade Runner o a Neuromante, il capolavoro di William Gibson, però.

La rivoluzione digitale andrà obbligatoriamente a trasformare il mondo del lavoro e a creare nuove professioni, anche perché un sistema economico non può svilupparsi o auto-replicarsi senza consumi. La mera politica di contenimento dei costi, andando a incidere sul personale, è miope e auto-castrante, poiché la continua riduzione dei posti di lavoro si tramuterebbe, nel medio-lungo periodo, in una riduzione strutturale dei redditi e della domanda aggregata, il che significherebbe una riduzione crescente della redditività delle imprese fino all’azzeramento dei profitti se non anche oltre.

Quello della dinamica dei redditi e del rapporto con la curva di domanda sembra un concetto banale, in effetti, ma è la base su cui si snoda l’evoluzione del sistema economico. Semplificando al massimo, il mercato tende verso un equilibrio tra domanda e offerta, laddove la prima incontri la seconda su un livello di prezzo giudicato congruo per consumatori e produttori. Il livello dei prezzi che il consumatore è disposto ad accettare è quello che massimizza la sua utilità personale e, per questo, non è errato considerarlo estremamente elastico al reddito percepito. Maggiori sono le aspettative di miglioramento reddituale, minore, poi, è la propensione al risparmio e, quindi, i consumi aumenterebbero o per quantità o per qualità. Specularmente dal lato dell’offerta il livello congruo dei prezzi sarebbe quello che portasse a una massimizzazione dei profitti che potrebbero, poi, essere delineati o per qualità (alti prezzi e profitto marginale elevato) o per quantità venduta (prezzi contenuti e profitto marginale ridotto e, in prospettiva, tendente a zero). Ovviamente il livello dei prezzi, a livello assolutamente intuitivo, potrebbe essere scomposto in tre fattori: costi fissi (energia, materie prime, lavorazione), costi variabili (costo del personale) e quota di profitto. Ipotizzando un sistema che tenda alla libera concorrenza (mai esistito, ovviamente, anche per le rigidità strutturali date dallo Stato che, fiscalmente, rende mediamente anelastico il costo finale di energia, materie prime e lavorazione) il livello dei prezzi tenderebbe a uniformarsi per non perdere quote di mercato (non si considera l’effetto brand, ovviamente, per non complicare il modello) e per massimizzare i profitti occorrerebbe agire sul costo del lavoro, unica variabile indipendente. Anche il costo marginale del lavoro, però, in un sistema di mercato tende a essere uniforme, quindi occorre ridurre lo stock di lavoratori, scegliendo lavorazioni più efficienti dovute a un progresso tecnologico, per aumentare i profitti. Sempre ipotizzando un sistema che tenda alla concorrenza perfetta, se un operatore si comportasse in questa maniera anche i concorrenti, non potendo accettare livelli di profitto più bassi per non finire fuori mercato, inizierebbero a ridurre lo stock di lavoratori sostituendoli con sistemi più evoluti. A livello aggregato questo si tradurrebbe in una riduzione del reddito disponibile e a un nuovo posizionamento del livello d’equilibrio a un punto più basso, dovuto alle minori disponibilità economiche che porterebbero i consumi verso succedanei meno costosi o riducendo le quantità acquistate. Parimenti il peggioramento delle aspettative reddituali sposterebbe verso il risparmio, se possibile, una maggior quota del reddito disponibile, sottraendolo ai consumi. Il nuovo livello d’equilibrio, quindi, tenderebbe a volumi di consumo ridotti e a una caduta del livello dei prezzi per permettere di coprire almeno i costi di produzione spingendo i profitti lungo un tendenziale che andrebbe ad annullarli.

Si tratta di un’illustrazione fatta con l’accetta, ovviamente, ma che illustra bene quanto sia assurdo ipotizzare che la tecnologia porti a una situazione di disoccupazione di massa. La storia insegna che a ogni salto tecnologico corrisponde un periodo di turbolenze occupazionali che, poi, si tramuterà in un volano per la creazione di nuovo impiego e di crescente potere d’acquisto, cosa che, in seguito, andrà a incrementare ulteriormente investimenti e consumi, permettendo un’ulteriore crescita del sistema. Sicuramente ci saranno occupazioni che scompariranno, sostituite da lavorazioni meccaniche, ma il lavoro, mediamente, subirà un’evoluzione verso un maggior livello di specializzazione, riducendo sempre di più gli impieghi generici e di scarso valore aggiunto e spingendo gli esseri umani a dover ottenere un livello culturale più alto.

Qualcuno crede veramente che l’operaio d’oggi sia uguale a quello ottocentesco o a quello mostrato da Charlie Chaplin in Tempi moderni? La realtà è ben diversa e, pur lavorando in catene di montaggio, gli operai odierni sembrerebbero dei tecnici specializzati agli occhi dei loro predecessori d’inizio Novecento.

La nascita delle macchine pensanti, quindi, a che cosa potrebbe portare? Innanzitutto non è così sicura la possibilità di replicare in un qualche modo l’intelligenza umana; altrimenti sì che si rischierebbe uno scenario come quello ipotizzato in Matrix (dove, però, si era realizzata la piena occupazione dell’umanità, trasformata in fonti energetiche organiche). Ma è più probabile che, col tempo, vedremo una sempre maggiore integrazione tra uomo e macchine, una possibilità d’interazione ben più diretta rispetto all’uso d’interfacce come tastiere, mouse o touch pad, per arrivare magari al collegamento neuronale.

Dobbiamo immaginarci, quindi, nel futuro come dei novelli Inverno Muto o Neuromante, per citare due dei personaggi cyberpunk più celebri di William Gibson? È fantascienza oggi, anche se qualcuno crede ai chip sottocutanei per il controllo delle masse, ma del futuro nulla è certo, e i cellulari, apparsi per la prima volta nella serie storica di Star Trek nel 1966 (da cui Motorola prese l’idea per sviluppare il suo celebre Startac), erano considerati dei gadget impossibili, così come solo nel 1990 un device con CPU da 2.4 Ghz tascabile non era nemmeno immaginato, mentre i computer portatili, non ancora laptop e con CPU da 1 Mhz massimo, pesavano 10 kg e dovevano essere trasportati in una valigia.

Uomo e tecnologia sono strettamente interconnessi, così come l’evoluzione del primo è sempre stata accompagnata dall’evoluzione della seconda e viceversa. È stupido temere lo sviluppo scientifico e tecnologico, perché oltre a facilitare l’azione umana, è anche prodromo di nuove e grandi opportunità che vanno solo sapute cogliere.

Designed by Daniele Bertoli. Developed by Pixelperfect