nuovo banner vecchio
01
Maggio 2010

home - indice

Coscienza di classe e consenso oggi

PROGRAMMAZIONE COGNITIVA

Alessandro D’Aloia

 

«Fine della Neolingua non era soltanto quella di fornire un mezzo di espressione per la concezione del mondo e per le abitudini mentali proprie ai seguaci del Socing, ma soprattutto quella di rendere impossibile ogni altra forma di pensiero. Era sottinteso come, una volta che la Neolingua fosse stata definitivamente adottata, e l’Archeolingua, per contro, dimenticata, un pensiero eretico (e cioè un pensiero in contrasto con i principi del Socing) sarebbe stato letteralmente impensabile, per quanto almeno il pensiero dipende dalle parole con cui è suscettibile di essere espresso. Il suo lessico era costituito in modo tale da fornire espressione esatta e spesso assai sottile a ogni significato che un membro del Partito potesse desiderare propriamente di intendere. Ma escludeva, nel contempo, tutti gli altri possibili significati, così come la possibilità di arrivarvi con metodi indiretti. Ciò era stato ottenuto in parte mediante l’invenzione di nuove parole, ma soprattutto mediante la soppressione di parole indesiderabili e l’eliminazione di quei significati eterodossi che potevano essere restati e, per quanto possibile, dei significati in qualche modo secondari. Daremo un unico esempio. La parola libero esisteva ancora in Neolingua, ma poteva essere usata solo in frasi come «Questo cane è libero da pulci» ovvero, «Questo campo è libero da erbacce». […] La Neolingua era intesa non ad estendere, ma a diminuire le possibilità del pensiero; si veniva incontro a questo fine appunto, indirettamente, col ridurre al minimo la scelta di parole. […] Le parole in Neolingua erano distinte in tre classi distinte, che prendevano il nome di Vocabolario «A», Vocabolario «B», (detto anche delle parole composte), e infine Vocabolario «C».

(George Orwell, 1984, appendice I principi della neolingua).

 (torna su)

L’avvento della Neolingua

Orwell non riesce ad immaginare un potere totalitario senza conseguenze sul modo di esprimersi e di pensare della massa. Il totalitarismo come affermazione dell’assurdo non può persistere senza la distruzione della razionalità nello stesso luogo in cui questa si forma, ovvero nella mente umana sotto forma di pensiero. I concetti si manifestano mediante la comunicazione del loro significato con parole. Il linguaggio è in tal senso lo strumento attraverso il quale i concetti possono essere comunicati.

Un pensiero povero non ha bisogno di molte parole o di parole complicate. Da questo punto di vista si può senz’altro stabilire una relazione diretta fra impoverimento linguistico e regressione socio-politica. Se in Orwell la relazione suddetta viene portata agli estremi, trattando di un regime totalitario che mira al dominio permanente, la questione della degenerazione linguistica non attiene per forza solo ai regimi classici. Per questo motivo molti autori, oltre Orwell, hanno dedicato attenzione critica alle modificazioni del linguaggio e dei vocabolari. Non è a caso che Gramsci nella trattazione delle forme in cui si presenta la coscienza comune pone l’accento, fra le altre cose, alle strutture ricorrenti con cui si esprime il linguaggio delle masse. Dopo Gramsci, si può fare riferimento a quanto sostenuto da Marcuse in proposito nella parte finale della sua opera L’uomo a una dimensione nella quale afferma con chiarezza che: «Le parole si rivelano come termini […]; vale a dire, come limiti che definiscono il significato ed il suo sviluppo - i termini che la società impone al discorso, ed al comportamento. […] Nel parlare il proprio linguaggio, la gente parla altresì il linguaggio dei suoi padroni, dei benefattori, degli agenti pubblicitari. Cosicché gli individui non esprimono soltanto se stessi, […] ma anche qualcos’altro diverso da sé»[1].

Con Gilles Deleuze, in collaborazione osmotica con Felix Guattari, abbiamo infine l’approdo alla tesi che «Si mette il linguaggio nella bocca dei bambini esattamente come si mettono pale e picconi nelle mani degli operai», dato che esso rappresenta: «un sistema d’ordine, un sistema di comando, che permetterà o costringerà, gli individui a formare enunciati conformi agli enunciati dominanti. […] Quindi il linguaggio deve essere in primo luogo concepito non in termini di informazione, ma in termini d’ordine. […]»[2] [3].

Il linguaggio è cioè, prima di tutto, un sistema volto a permettere l’impartizione di ordini (comandi) e solo in seconda istanza uno strumento di trasmissione di informazioni.

Questa posizione va intesa in tutte le sue sfumature. Se il linguaggio fosse «solo» uno strumento di comando, come spiegare la filosofia, la poesia e la letteratura? È chiaro che esso presenta diversi livelli. Un livello elementare esprimibile con poche parole e utilizzabile per le operazioni più banali in cui le proposizioni più semplici conservano una loro efficacia piuttosto netta e definita (come nel vocabolario A della Neolingua) e via via livelli più articolati in cui la comunicazione di concetti meno immediati e imperativi necessita di un aumento di quantità di informazioni in una determinata direzione di senso generale. Deleuze parla di «ridondanza» come del mezzo attraverso il quale nel linguaggio si può aumentare la quantità di informazione volta a superare il contenuto informativo minimo dell’imperatività del discorso, ridondando appunto gli enunciati. Cioè se si deve dare un ordine o un comando, il linguaggio nelle sue forme elementari risulta già sufficiente (vai là, prendi questo, chiudi quello ecc..), non appena diventa necessario esprimere un’intenzione diversa da un ordine, bisogna aggiungere parole, articolare frasi, costruire senso. Queste complicazioni necessarie denunciano l’inadeguatezza del linguaggio al di fuori del suo ambito primario (funzionale) del comando. Il linguaggio nella sua forma storica essendo il mezzo di comunicazione principale di società gerarchiche esprime in se stesso tali gerarchie e implica una società in cui se c’è chi comanda deve esserci chi esegue.

Se in Marcuse abbiamo l’invito esplicito alla definizione di termini di analisi distaccati dai termini analizzati, quindi alla creazione di termini necessariamente esterni al linguaggio comune, per poter capire cosa c’è dietro tale apparato linguistico, con Deleuze l’invito implicito alla sua posizione è quello di superare completamente la concezione di un linguaggio come sistema di comando. Se la comunicazione è alla base stessa della società ed esso è sostanzialmente ordine dall’alto, nessuna società potrà essere definitivamente liberata dai comandi, dunque dalle gerarchie a meno che, una nuova società non sia capace di costruirsi a partire dalla rivoluzione del linguaggio stesso, a meno che cioè una società non sappia inventarsi un nuovo linguaggio. Un nuovo modo di comunicare e di esprimere il pensiero è dunque in qualche modo un fatto connaturato alla nascita di una nuova società, mentre al contrario qualsiasi semplificazione di un linguaggio per sua natura già inadeguato ad esprimere sentimenti diversi dal comando (ammesso che questo sia un sentimento) denuncia nient’altro che una regressione di umanità nella comunicazione stessa.

La Neolingua orwelliana è la prima lingua in cui l’assottigliamento dei vocabolari, anziché il loro arricchimento, costituisce un obiettivo politico dichiarato. Oggi non è il controllo statale sull’uso delle parole e dei loro significati, ma la prassi informativa quotidiana a produrre lo stesso effetto, in combinazione con l’aumento puramente quantitativo dell’informazione. L’accrescimento degli strumenti mediatici, causa per riflesso, un impoverimento qualitativo delle informazioni circolanti. Analisti di linguistica concordano nell’affermare, anche se è difficile fornire cifre esatte, che l’utilizzo concreto dei vocaboli contenuti nei dizionari si impoverisce progressivamente[4].

Se una statistica è possibile rispetto al numero di parole utilizzate, più difficile è fare conteggi in relazione ai significati che esse veicolano. Quello che si può intravedere è una tendenza al ribasso.

Non solo diminuisce il numero di parole utilizzate, ma i vocaboli si tecnologizzano degradandosi per l’effetto di diversi fattori. Cioè la difficoltà crescente di utilizzare correttamente il linguaggio in tutte le sue sfumature e potenzialità è direttamente legata alla presenza di più tecnologia nelle attività quotidiane. Un primo fattore è la limitazione dei caratteri nell’utilizzo di sms, dove l’articolazione corretta di un pensiero qualsiasi semplicemente costa di più in termini monetari qualora venga superato il limite di caratteri stabilito. Il controllo ortografico non è mai stata una preoccupazione delle multinazionali della telefonia mobile, la monetizzazione al contrario sì. Un secondo fattore è la mancanza di tempo, (corollario della moltiplicazione puramente quantitativa dei contatti) così le mail sono scritte sempre di fretta e furia senza rilettura, con una quantità di refusi impressionante e costruzioni sintattiche per lo più malsicure. Quando si scriveva a mano le proposizioni erano prima pensate e poi trascritte, la possibilità di scrivere e poi correggere, semplicemente si traduce nello scrivere senza pensare, men che meno correggere. Un terzo fattore è la verbalizzazione della scrittura nelle chat, dove si scrive per parlare, combinando insieme i problemi sia del primo che del secondo fattore (ridurre al minimo i caratteri, scrivere senza pensare) aggravata dall’incapacità di massa di utilizzare la tastiera con 10 dita invece che con 2 o 3. Un quarto fattore, ma probabilmente ve ne sono altri, è rappresentato dall’inquietante presenza dei testi automatici, che non sono frutto della «scrittura automatica» surrealista, ma molto più spesso dell’altrettanto «artistica» traduzione automatica di Google o dell’intera costellazione di traduttori meccanici. Neanche i futuristi avrebbero potuto desiderare tanto e perfino il Joyce del Finnegans Wake sarebbe in imbarazzo di fronte a tanta creatività. Google il nuovo genio del non-sense.

Infine si può evidenziare un fattore, forse quello più preoccupante, legato alla presunta «pesantezza» dei discorsi. Gli scambi verbali sono nella stragrande maggioranza, prettamente funzionali o al contrario semplicemente ornamentali, come le frasi fatte di cortesia. Quasi mai il linguaggio viene davvero utilizzato per comunicare idee e farle crescere nel percorso verbale. Ogni discorso che evada dalla pura funzionalità o dalla cortesia è subito etichettato come «pesante», ogni domanda a cui dovrebbe seguire una relativa risposta, rischia sempre di restare isolata. Così si configura una costellazione di domande senza risposte, tanto che sembra sempre più scontato che le risposte siano confinate nel silenzio. I dialoghi sono una forma dialettica in scomparsa di fronte al trionfo dei monologhi, che per questo stesso motivo diventano progressivamente più deliranti. La conclusione è che nonostante l’invasione di varie forme di mezzi di comunicazione, per stare sempre in contatto con gli amici, questi amici se comunicano più di prima (e anche questo sarebbe da dimostrare) di certo non discutono, mentre realizzano un narcisistico berciare a senso unico come riflesso collettivo del grande monologo del capitale.

Se poi è vero che i libri stampati li legge sempre meno gente sarà anche lecito aspettarsi che qualcuno legga invece questa vastissima produzione letteraria in Neolingua. Siccome la macchina fa tutto in meno tempo dell’uomo, c’è da stare sicuri che la produzione di testi meccanici supererà in breve tempo quella umana, che a sua volta, per i motivi visti, va via via meccanizzandosi. L’orizzonte naturale di questa tendenza è l’opera letteraria prodotta dalla macchina senza mediazione umana, esattamente come accadeva in Nuovo mondo di Aldous Huxley. Nella coesistenza uomo-macchina, non è la macchina ad umanizzarsi, ma l’uomo che comincia sempre più a parlare e a pensare come una macchina. Non a caso negli studi sull’intelligenza l’analogia con la macchina è diventata un vero e proprio paradigma[5]. La macchina si umanizzerà solo dopo aver reso l’uomo simile a sé. Nel mezzo di questo processo in atto non ha senso sforzarsi di determinare forzosamente la nascita e il dominio di una Neolingua quando questa vive già di vita propria e soppianterà naturalmente l’Archeolingua nel giro di una generazione.

Una seconda caratteristica dei linguaggi attuali è quella della loro progressiva separazione e cioè la nascita di vocabolari separati, settoriali, adeguati ad utilizzi specifici e professionali, ma non alla normale comunicazione. Se la Neolingua era basata su tre vocabolari, le nostre lingue ne presentano di fatto già più di tre. Per Deleuze-Guattari il «crollo semiologico» è appunto quel processo di confinamento del linguaggio nelle sue varie famiglie, nei suoi diversi codici: il linguaggio convenzionale, quello scolastico, accademico, professionale, professorale, politico e via dicendo. Questo settorializzarsi del linguaggio, la sua segmentazione progressiva in più dialetti professionali, coincide con un impoverimento delle possibilità espressive e generaliste dello stesso. Quindi assottigliamento e divisione dei vocabolari come sintomo del crollo semiologico, che rimanda ad un inaridimento complessivo dei pensieri e delle idee comunicate fra gli uomini. La divisione del lavoro non poteva restare senza conseguenze sugli stessi modi di pensare, almeno non a lungo.

Ammirevole, da questo punto di vista, la produzione di quelle che si configurano come vere e proprie «macchine concettuali», da parte del duo Deleuze-Guattari, capaci di attraversare queste barriere linguistiche, di innescare ragionamenti trasversali, prendendo a prestito concetti di discipline specifiche per spiegare fenomeni extradisciplinari e generali, per infrangere letteralmente le barriere artificiali imposte al pensiero, insomma tutto quello che la politica dovrebbe fare e che non fa.

Questa trasversalità concettuale del pensiero è un attributo profondamente politico di un ragionare che si oppone ostinatamente al confinamento specialistico dei saperi contemporanei, mentre quest’ultimo oggi si istituzionalizza perfino nelle Università, in cui le formazioni sono in piena divaricazione.

Viviamo un’epoca in cui all’estrema preparazione in un settore professionale qualsiasi corrisponde la speculare e disarmante incapacità di collegare le esperienze, di capitalizzare le cognizioni. Alla raffinatezza analitica specialistica fa eco un vero e proprio tribalismo intellettuale della società nell’insieme. «Gli specialisti agiscono in un ambito già codificato sulla loro specialità, se si chiede qualcosa agli specialisti è escluso che sappiano rispondere. Gli specialisti sono terribili» [6], ci dice Deleuze.

«Assume il suo pieno significato il duplice ritratto che Andrè Gorz traccia del «lavoratore scientifico e tecnico», padrone d’un flusso di conoscenza, d’informazione e di formazione, ma così ben assorbito nel capitale da coincidere con il riflusso d’una fesseria organizzata, assiomatizzata; cosicché, la sera, rientrando a casa, trova le sue macchinette desideranti armeggiando su un televisore, […]»[7].

 (torna su)

Linguaggio espressione cosciente

Ma perché tanta attenzione al linguaggio? L’unica risposta interessante è che esso rappresenta una parte importante della formazione stessa della coscienza umana intesa come luogo di definizione del rapporto attivo fra intenzioni ed azioni. Coscienza come luogo di formazione dell’azione consapevole, e quindi del senso stesso dell’agire. Un’azione razionale è tale quando si è capaci di definirne le motivazioni che la determinano e gli effetti attesi (e nulla è definibile senza il linguaggio). La razionalizzazione degli eventi, vale a dire la consapevolezza dell’agire (anche politico), implica la possibilità di spiegarne il senso verbalmente. Ciò che non si sa spiegare esula dal dominio del razionale. Per questo motivo il linguaggio è la soglia della coscienza, inteso come termine (limite) dell’inconscio, il luogo in cui si forma il senso dell’operare, la sua parte consapevole.

Impoverimento dei vocabolari e loro divisione sono elementi che militano contro una corretta autocoscienza dell’azione, dunque contro qualsiasi pratica guidata dalla teoria. Ma a questo punto siamo ancora solo alla creazione di caos, siamo ancora nella pars destruens della coscienza. Infatti limitare il pensiero sfasciando il linguaggio comune rappresenta ancora un livello arretrato del controllo. Più arguto e attuale è il passo successivo, quello dell’incanalare l’azione umana nella macchina e mediante il controllo totale di quest’ultima limitare la prima. Qui l’obiettivo non è neanche più la coscienza, ma direttamente l’azione cosciente, cioè l’eventuale effetto della coscienza.

Proviamo a ragionare. Da un lato l’umano viene macchinizzato, erodendo progressivamente le facoltà raziocinanti della mente attraverso una lenta ma continua sottrazione concettuale. Da un lato, cioè, si distrugge con aggiunta e non sottrazione di tecnologia (la perversione del capitalismo è in effetti nella sovrapproduzione non nella sottoproduzione) il linguaggio comune, dall’altro si monopolizza il più settoriale dei saperi, il più specialistico e meccanico dei linguaggi, quello delle macchine, appunto.

Si obietterà che il linguaggio delle macchine non è interessante per l’uomo, dato che il problema è nel degrado del pensiero, non nel monopolio del non-pensiero, ma le cose purtroppo stanno in modo un po’ diverso.

Il problema infatti è nel rapporto che intercorre fra non-pensiero e pensiero, nei termini in cui il primo condiziona effettivamente il secondo e non viceversa (il non-pensiero non è «condizionabile»).

 (torna su)

La costruzione delle conoscenze

Ma prima di affrontare questo tema è necessario soffermarsi sul concetto di «artefatto cognitivo», introdotto da Seymour Papert, un matematico sudafricano impegnato da pioniere negli studi riguardo l’intelligenza artificiale negli anni sessanta e sostenitore di un utilizzo critico dei computer in opposizione ad un modo di pensare «tecnocentrico». Su Wikipedia a suo proposito si legge quanto segue:

«[…] secondo Papert, il processo di apprendimento è un processo di costruzione di rappresentazioni più o meno corrette e funzionali del mondo con cui si interagisce. Rispetto al «costruttivismo», il «costruzionismo» introduce il concetto di artefatti cognitivi, ovvero oggetti e dispositivi che facilitano lo sviluppo di specifici apprendimenti.

L’essere umano, a prescindere dall’età, ha bisogno di avere a disposizione materiali concreti affinché la conoscenza acquisita sia tanto più vicina alla realtà.

Papert parte dall’osservazione di attività di alcune civiltà africane in cui i bambini costruivano case in scala o manufatti in giunco. Secondo Papert, la mente ha bisogno di materiali da costruzione appropriati, esattamente come un costruttore: il prodotto concreto può essere mostrato, discusso, esaminato, sondato e ammirato.

La lentezza dello sviluppo di un particolare concetto da parte del bambino non è dovuta alla maggiore complessità o formalità, ma alla povertà della cultura di quei materiali che renderebbero il concetto semplice e concreto. Il bambino apprende così con l’aiuto di artefatti cognitivi. In particolare, Papert sostiene l’uso del computer come supporto all’istruzione e ambiente d’apprendimento che aiuta a costruirsi nuove idee. Il computer viene così usato come macchina per simulare. Realizza anche il logo, un linguaggio di programmazione formalmente molto rigoroso, derivato dal lisp, orientato alla gestione delle liste ed alla grafica della tartaruga (mutuata dal Pascal), comprensibile ed usabile anche da bambini delle scuole elementari, dimostrando tra l’altro l’utilità del computer come supporto per l’apprendimento anche per i più piccoli. […] È un modo per dare ai bambini, e anche a chiunque altro, il controllo del computer».

In sostanza un artefatto cognitivo è un qualsiasi strumento capace di stimolare l’apprendimento, qualsiasi mezzo attraverso il quale l’uomo impara ad agire. Il computer non è certo l’unico artefatto cognitivo, per secoli l’uomo ne ha fatto a meno apprendendo comunque, esso rappresenta oggi però sicuramente l’artefatto cognitivo per eccellenza. Nessun’altro strumento è in grado di fornire esperienza concreta su un panorama tanto, e sempre più, vasto di fenomeni. Da un punto di vista storico la tecnologia informatica odierna, che è nel presente sempre la più attuale, ci sembra il massimo ottenibile, ma è evidente che siamo solo alla preistoria dell’era informatica, pensando in prospettiva storica. Tuttavia l’estrema velocità con cui la tecnologia si sviluppa, nel soppiantare secolari modi di fare e di apprendere, pone nuovi problemi. Già oggi l’esistenza di una grossa fetta di operatori e di settori lavorativi è inimmaginabile senza l’ausilio del computer. Praticamente, fatto salvo ciò che sopravvive dei lavori manuali e di quelli squisitamente artigianali, in cui la manualità è proprio l’elemento di valore, niente si realizza senza computer, dalla banale scrittura di un testo alla realizzazione delle opere colossali, ogni processo produttivo concreto, e ogni merce, dall’immateriale al materiale, passano attraverso il computer. I lavori manuali sono, nella grande maggioranza dei casi, soltanto pezzi di processi produttivi controllati digitalmente. Se da un lato un pc estende esponenzialmente le possibilità individuali (e potenzialmente quelle sociali), dall’altro proprio per questo assume una posizione via via più centrale nell’esistenza quotidiana. La versatilità d’impiego che un pc offre lo rende una sorta di «macchina universale», la macchina per eccellenza, e in definitiva una vera e propria estensione delle facoltà coscienti dell’uomo, un suo organo esterno, un’estensione della sua mente, ma anche dei suoi arti (e quindi delle sua arti).

«Da una parte, Butler non si accontenta di dire che le macchine prolungano l’organismo, ma aggiunge che sono realmente membra e organi che giacciono sul corpo senza organi della società, che gli uomini si appropriano secondo la loro potenza e la loro ricchezza, e di cui sono privati dalla povertà come se fossero organismi mutilati. […]»[8].

Si ci provi ad immaginare la propria attività quotidiana privata all’improvviso dei computer, o la perdita improvvisa di tutti i dati accumulati negli ultimi anni. Sarebbe una situazione da vero e proprio panico esistenziale. La memoria rigida del proprio pc è diventata la propria memoria, perdere l’hard disk senza aver salvato i dati su altri supporti, sarebbe come perdere una parte di sé, come un’amputazione. Il pc non è allora una macchina come le altre, ma una macchina attraverso la quale la nostra esistenza lascia tracce del suo passaggio, anche senza che questo sia un obiettivo, un’intenzione consapevole di chi lo utilizza. Fra qualche anno le nuove generazioni non riusciranno neanche a concepire un’era pre-informatica, in cui l’uomo ricordava il suo passato «a mente», invece di affidarlo ad una memoria esterna al suo cervello, oggettiva e dotata di precisione fotografica. C’è del male in questo? Probabilmente no, per quanto non si possa affermare semplicemente che alcune facoltà di memorizzazione mentali possano risentirne, anche se non è questo il punto centrale.

Il punto centrale è che tutti utilizziamo una macchina così totalizzante e potente da poter essere considerata un nostro organo esterno, senza però averne il controllo. In sostanza il computer funziona e funziona sempre in un qualche modo, ma il suo modo di funzionare, e attraverso di esso il nostro, non dipende da noi. Il problema è che quando un prodotto dell’uomo funziona al di fuori del suo controllo individuale, questo crea contraddizioni e soprattutto dipendenza.

In sostanza quello che ancora non facciamo con un pc è ciò che ancora non si può fare, il che significa per converso che quello che invece ci facciamo è appunto ciò che è consentito fare. La domanda è: ciò che è consentito fare tecnicamente? Cioè il limite è puramente tecnico o al limite tecnico sono coestensivi altri tipi di limite? La risposta non è certo semplice, tuttavia ci sono degli elementi abbastanza evidenti che permettono di abbozzare una parziale risposta.

 (torna su)

La programmazione del controllo

La questione di interesse in tutto questo discorso è rappresentata dal fatto che attraverso il controllo informatico dei processi produttivi, cui il capitalismo post-analogico sottopone la produzione, si ottiene come corollario necessario il controllo digitale delle facoltà creative della società. Non è in discussione il fatto che l’uso dei pc aumenti la creatività sociale, ma che tale aumento di creatività sia sostanzialmente possibile solo secondo direzioni precostituite. Deleuze e Guattari nella critica della società del controllo usano l’esempio dell’autostrada dove, in opposizione ad esempio alle ferrovie, la gente viaggia in «totale ed autonoma libertà» lungo percorsi perfettamente irreggimentati.

In che modo il capitalismo ottiene questa possibilità di controllo, offrendo in definitiva maggiori  e non minori potenzialità di azione alla società? Nel caso delle autostrade è indubbio che la loro esistenza permette all’uomo motorizzato di muoversi infinitamente di più che in passato, ma comunque solo in ambiti particolari non decisi dagli automobilisti, bensì dalle politiche infrastrutturali. Nel caso dei computer, il controllo dall’alto è ottenuto in ragione del sostanziale monopolio dei linguaggi di programmazione. È l’industria a decidere quali applicazioni mettere o non mettere sul mercato oltre che le facoltà stesse delle applicazioni concesse. Se per andare in alcuni luoghi non serviti dall’autostrada si può alla fine accontentarsi di andarvi a piedi, non si potrà fare lo stesso nell’ambito dei sistemi informatici. Da un punto di vista sociale ha poca importanza, ad esempio, che il sistema operativo ed il programma che permette il funzionamento di una «macchina a controllo numerico» per la produzione di artefatti industriali sia questione specialistica, ma i termini di interesse cambiano del tutto quando si parla delle possibilità di far funzionare delle macchine che utilizzano tutti in un ambito sempre crescente delle proprie occupazioni quotidiane, da quelle lavorative a quelle del tempo libero.

L’obiezione che tutti potrebbero imparare a programmare i loro pc è infondata, dato che la programmazione informatica è considerata una formazione professionale, cioè specialistica e non una «cultura generale», come il leggere e lo scrivere, mentre non è operazione diversa dal leggere e lo scrivere. In sostanza nella questione della programmazione informatica il problema particolare della separazione del lavoro evidenzia la sua generalità, cioè il suo costituire ormai un limite che colpisce tutte le discipline a partire da una di esse in particolare. Vale a dire che siamo ad un punto in cui la specializzazione di una disciplina professionale crea problemi alle altre discipline e per estensione alle facoltà cognitive degli utenti/operatori, portando, a cascata, a tutta una serie di distorsioni corollarie.

 (torna su)

Le promesse di prima dell’alba

Ma non doveva essere così. Chi infatti ricordi ancora l’alba della diffusione di massa del pc, ricorderà bene che all’inizio il lancio sul mercato di queste strane macchine, di cui era difficile capire il senso dato che potevano fare niente di particolare ma tante cose a seconda degli interessi di chi le acquistava, accanto alla vendita dell’hardware (il mitico commodore 64, ad esempio), si promuoveva la conoscenza del linguaggio di programmazione in basic, poiché se non venivano programmate tali macchine potevano servire a ben poco. Nelle scuole medie superiori, di taglio tecnico, accanto alla matematica e la fisica, venivano introdotti corsi sperimentali di programmazione, (ad esempio in pascal) mai avviati in modo serio, del resto. Da un certo punto in poi, sono nate, in sordina, le software house che fornendo esse i programmi specifici, permettevano la vendita e della macchina e dei sistemi per farle funzionare, fino ad arrivare al punto che l’allora nascente industria della programmazione informatica è divenuta addirittura più potente di quella della produzione dei componenti rigidi dei pc, in funzione della quale è nata. Oggi i computer non funzionano senza uno dei due o tre sistemi operativi in circolazione a livello mondiale. Anche qui l’obiezione in merito all’esistenza di un sistema operativo «aperto», come linux, che «tutti» possono implementare, è priva di fondamento concreto, dato che è difficilissimo pensare, in una società spaccata dagli specialismi, che un utente/operatore medio, magari anche espertissimo in un suo settore particolare, possa sapere dove mettere le mani per gestire e migliorare i propri utensili informatici, senza conoscere neanche l’abc della programmazione. Inoltre chi pure volesse installare un sistema operativo aperto sul proprio pc, dovrebbe poi fare i conti con il fatto che molti programmi sono fatti in modo da non «girare» su sistemi operativi liberi. Inoltre al di là del sistema operativo la soglia principale del problema è nell’operatività a valle, cioè quella permessa dalle applicazioni, non nell’ambiente di tali applicazioni (il sistema operativo appunto).

È utile notare, di passata, come nel mondo attuale, le funzioni sociali dei fenomeni di interesse collettivo al momento della loro affermazione siano sempre diverse, e spesso opposte, a quelle che questi avevano alla loro comparsa. Un’industria nata per consentire la vendita dei pc, è diventata un’agenzia che permette agli Stati di ottenere il controllo sociale spontaneo da parte dei controllati, così come una macchina che serve a liberare potenzialità umane, quindi a fornire autonomia operativa finisce per creare dipendenza operativa. 

L’esempio che Semyor Papert fa per spiegare il modo corretto di utilizzare gli strumenti è quello della canna da pesca. «Se un uomo ha fame gli puoi dare un pesce, ma meglio ancora è dargli una lenza e insegnargli a pescare. Naturalmente, oltre ad avere conoscenze sulla pesca, è necessario anche disporre di buone lenze, ed è per questo che abbiamo bisogno di computer e di sapere dove si trovano le acque più ricche [...]»[9].

Si può aggiungere che possedere un’automobile per andare da A a B implica la capacità di guidare, ma anche la conoscenza del percorso fra A e B, inteso come l’insieme di vari fattori fra cui la conoscenza delle diverse possibilità per giungere dal luogo di partenza a quello di arrivo, la valutazione critica delle diverse possibilità per la scelta migliore a seconda del caso, le insidie potenziali e, volendo, l’interesse diverso che i vari percorsi possibili offrono. Se ho l’autista, posso andare da A a B senza porre attenzione a tutti questi aspetti del contorno, quindi più comodamente, ma anche più disinteressatamente, con la contropartita che ad un certo punto diventerò incapace di fare un qualsiasi percorso in autonomia quando l’autista (o il moderno surrogato artificiale: il navigatore) non sia disponibile. La presenza dell’autista mi rende passivo rispetto ai problemi connessi ai miei spostamenti.

Allo stesso modo l’utilizzo del pc unicamente attraverso pacchetti software già belli e fatti, mi permette, ad esempio, di risolvere problemi attraverso l’utilizzo di concetti matematici e di cognizioni scientifiche che posso anche ignorare completamente mentre però le utilizzo. Da questo punto di vista la potenza operativa cresce a scapito della conoscenza dei fenomeni che la sottendono. Questa interposizione dell’industria informatica fra i problemi specifici delle attività quotidiane e gli operatori, costituisce a tutti gli effetti una sottrazione di conoscenza generale dei fenomeni trattati e delle relazioni che intercorrono fra essi. Non dovrai occuparti di comprendere il perché delle cose, basterà che tu sappia far eseguire determinate procedure alla macchina. Non è necessario che tu conosca le soluzioni dei tuoi problemi, te le forniremo noi. È in questo modo che l’accrescimento delle possibilità offerte dalla presenza del pc si ripercuote potentemente sul processo di disgregazione delle coscienze, che è un fenomeno non indotto unicamente dall’industria informatica, ma da essa sfruttato ed aggravato. Ed è ancora in questo modo che la macchina mentre offre più possibilità operative in generale, allo stesso tempo reintroduce l’alienazione non propriamente fra l’operatore ed il suo prodotto intellettuale, ma fra l’operatore e le sue conoscenze riguardo la realtà, le sue cognizioni circa i fenomeni materiali della vita, la sua percezione del mondo.

 (torna su)

La realtà della clava informatica

Si potrebbero fare svariati banalissimi esempi di come l’interposizione informatica rappresenti ormai un problema pratico in molti settori lavorativi, a dispetto di un’apparentemente aumentata varietà di possibilità offerte dall’elettronica. Nella normale attività professionale ogni problema specifico prevede una particolare applicazione valida solo per quel determinato ambito. Così le attività fortemente specializzate sono avvantaggiate dalla necessità di acquistare un numero limitato di applicazioni che formano un certo pacchetto software, mentre le attività più generaliste avrebbero necessità di acquistare svariati pacchetti per far fronte alle mille richieste che un mercato impazzito fa al professionista, per di più solamente una tantum. In pratica nelle attività più generaliste, comunque in scomparsa, il concetto di ammortamento del software acquistato è privo di fondamento. Inoltre specializzare all’estremo l’offerta software serve anche ad innovare il prodotto continuamente ad ogni nuova aggiunta di qualche piccola funzione, o al momento dei cambi di normativa, come accade per i manuali di diritto che diventano sempre vecchi molto in fretta. Qui però il problema è che un cambio di normativa significa l’impasse tecnica di una certa attività professionale almeno fino a quando il software non sia adeguato alle nuove direttive. Cioè l’operatore non può operare prima che gli sia restituita questa facoltà dall’esterno e i suoi pacchetti, per quanto funzionanti, non possono essere utilizzati a causa di un loro 1% da modificare.

Ma almeno un altro esempio può essere utile. Le automobili moderne sono piene all’inverosimile di elettronica, con menù e schermi sempre più ricchi di funzioni e controlli. Ma si provi ad andare da un normale elettrauto quando un bottone di accesso ad un menù non funzioni più. Il poveretto sarà costretto a fare spallucce e a dirottare chiunque alla concessionaria ufficiale, la quale è l’unica in grado di individuare il problema software che non fa funzionare un qualche congegno vitale dell’automobile. La conseguenza è che tutto un cosmo di piccole attività di meccanica legate alla motorizzazione della società saranno costrette a chiudere e gli automobilisti costretti a sborsare cifre indicibili per sostituire una centralina o semplicemente un bottone che non funziona più, ma che non si vende mai separatamente da tutta la plancia. Qui si osserva la progressiva sofisticazione di tutti i funzionamenti meccanici mediante controlli elettronici centralizzati in complicatissimi cervelletti software da cui passa il controllo anche di funzioni secondarie banalissime che non necessiterebbero di nessun controllo computerizzato.

Si noterà come questa dipendenza dalla tecnologia industriale sia un combinato di due movimenti opposti. Da un lato la separazione esasperata dei pacchetti software, dall’altra l’accorpamento crescente delle parti hardware. Scissione del soft ma fusione dell’hard, mentre la cosa ragionevole sarebbe quella esattamente opposta.

Nelle automobili di oggi, se il lettore cd non funziona più si è costretti a lasciare l’autoveicolo intero dal concessionario per un paio di giorni, perché questo meraviglioso (ma banalissimo) lettore è integrato nella plancia e non è estraibile.

In questa situazione ridicola da dipendenza tecnologica senza precedenti, l’atteggiamento generale è di crescente e meravigliata compiacenza per la tecnologia. I tg sono colmi di notizie/pubblicità degli ultimi progressi/prodotti, e non esiste uno straccio di critica dei processi in corso. Non si nota che nella maggioranza dei casi non si tratta di progressi tecnologici sostanziali, ma semplicemente di un rivestimento tecnologista della merce in generale. Magari le novità importanti sono completamente lasciate in sordina. Tutto ciò che è tecnologico è meraviglioso a prescindere. La tecnologia è l’ultima indiscutibile e fascinosa autorità che il capitale vuole indossare.

Gli esempi fatti sono tuttavia delle conseguenze abbastanza innocenti di questo dominio tecnologico sulle attività umane, in un rapporto in cui l’attività è subordinata alla tecnologia mentre il contrario non è neanche immaginabile. La mitizzazione tecnologica implicita in questo tipo di rapporto è però alla base anche di altre distorsioni sociali soprattutto in campo giovanile, che è quello assolutamente più sovraesposto ad una vera e propria dipendenza. La prima e più evidente distorsione è quella che subisce il gioco. Il gioco tradizionalmente inteso è il principale fattore di socializzazione giovanile libero, cioè svolto in ambienti non controllati e reclusivi come la scuola. Oggi la tecnologizzazione del gioco virtualizza la socializzazione e nel migliore dei casi i giovani giocano insieme senza stare insieme, oppure rifiutano consapevolmente il rapporto con l’esterno per ripiegare tutto il tempo libero disponibile sul gioco individuale che assorbe sempre più completamente la loro energia creativa e i loro desideri, in molti casi raggiungendo forme antisociali patologiche. Se i giovani realizzano le proprie pulsioni desideranti nel mondo virtuale dei giochi tecnologici e solo in esso, la conseguenza è che il mondo reale perde progressivamente interesse per loro. Non è che essi siano all’improvviso diventati apatici, semplicemente il loro interesse viene canalizzato massicciamente in un mondo immateriale, in una specie di metafisica però molto concreta e colorata che assorbe completamente le energie mentali[10]. L’esempio più calzante, ma non l’unico di quanto detto è rappresentato da Second life, spesso pubblicizzato perfino dai tg. Il videogioco è probabilmente il principale strumento di programmazione del tempo libero giovanile, con conseguenze però proprio sulle facoltà «fisiche» dei giovani reclusi in cameretta e sempre più estranei ad un mondo materiale fatto di relazioni corporali con l’altro, di odori, sforzi muscolari, sensazioni ed emozioni non relegate nel «purovisibilismo» di uno schermo virtuale. Il secondo livello di occupazione virtuale del tempo libero è rappresentato da tutto l’insieme di attività di fruizione della rete mediante applicazioni «sociali» ad alto assorbimento temporale, che mentre affollano le linee sfollano le vie.

 (torna su)

La rete in questo contesto. Monkey’s net.

Anni prima dell’avvento di internet Deleuze e Guattari parlavano di strutturazione «rizomatica» in contrapposizione alla strutturazione ad albero. Il «rizoma» in botanica è una modificazione del fusto con principale funzione di riserva. È ingrossato, sotterraneo con decorso generalmente orizzontale. «Deleuze-Guattari contrappongono la concezione rizomatica del pensiero a una concezione arborescente, tipica della filosofia tradizionale, la quale procede gerarchicamente e linearmente, seguendo rigide categorie binarie ovvero dualistiche; il pensiero rizomatico, invece, è in grado di stabilire connessioni produttive in qualsiasi direzione». (da Wikipedia alla voce: rizoma).

Il rizoma ha dunque un significato più ampio di quello di rete, fatto sta però che è una metafora abbastanza calzante del funzionamento di internet.

La rete è un flusso continuo di informazioni e di varie forme mediatiche in cui una parte da leone è svolta appunto dai testi. Ci sono però almeno due forme parallele di flussi testuali che viaggiano in rete. Il primo è il contenuto manifesto, la forma evidente in cui le pagine web si rendono visibili e fruibili agli utenti, la seconda è la struttura in codice (htlm) che rende possibile il trasferimento di tutte le informazioni visualizzate nel browser, che noi utilizziamo per navigare in rete. Ogni pagina ha una struttura in codice, che è un testo con una propria sintassi e proprie regole. Esso è in qualche modo il linguaggio per eccellenza, quello che serve a nient’altro che ad impartire comandi alla macchina, comandi logici circa le operazioni da eseguire al fine di comunicare il contenuto (il significato) della pagina all’utente, che di certo non può desumerlo dalla lettura diretta del codice, come non si può valutare una musica da uno spartito a meno di non essere un musicista diplomato al conservatorio. In rete tutto è un flusso ininterrotto di codici, proprio letteralmente. Accanto al flusso di informazioni per gli uomini, vi è dunque un parallelo flusso, praticamente invisibile, di codici informatici, informazioni per la macchina, del quale l’utenza finale ignora le regole, se non l’esistenza. Si può senz’altro dire che i contenuti mediatici che viaggiano in rete stanno al codice informatico che li sottende, nello stesso rapporto generale che intercorre nel linguaggio tradizionale fra significato e significante[11].

Da questo punto di vista utilizzare la rete mediante un pc, senza padroneggiare gli elementi di codice non è molto diverso dal voler comunicare concetti senza conoscere parole, vocaboli e sintassi corrette per esprimerli. Cioè si può fare, ma non è una bella cosa. La situazione è simile a quella di chiunque abbia una conoscenza solo parziale di una lingua, ad esempio qualcuno che può ascoltare una discussione in lingua straniera, comprendendo anche una buona percentuale di significati, ma che tuttavia non ha la padronanza per esprimere esso stesso dei concetti in quella lingua. Questo qualcuno potrà ascoltare quanto gli pare, ma non parlare, ricevere informazioni ma non darne, anche se nessuno glielo impedisce fisicamente, infatti è proprio lui ad esservi impedito.

I codici informatici servono sì a comunicare ordini alla macchina ma al fine di trasmettere informazioni fra gli uomini, non per instaurare un «discorso» con la macchina, per questo non si possono ritenere indifferenti.

Se quindi la rete è un mezzo di socializzazione della produzione immateriale dell’uomo senza precedenti e potenzialmente rivoluzionario, è anche vero che tale mezzo è fortemente limitato e qualitativamente diverso da ciò che potrebbe essere nel caso tutti i suoi utenti fossero messi sullo stesso piano di partecipazione. In una divisione fra utenti dotati di padronanza di codici informatici e utenti sprovvisti di questa padronanza, anche ciò che sembra il massimo delle potenzialità va in definitiva a fondarsi su un’estrema sperequazione delle possibilità espressive che la rete come medium offre alla società intera. Questo è qualcosa di diverso dal «digitale divide», esso è un «cognitive divide», una divisione cioè fra chi è messo nelle condizioni di avere un rapporto cognitivo attivo con la rete e chi sostanzialmente è costretto ad un rapporto cognitivo passivo con essa, una camicia di forza calata sul funzionamento stesso della rete una volta superato il problema materiale della sua assenza.

«La scrittura non è mai stata retaggio del capitalismo. Il capitalismo è profondamente analfabeta. La morte della scrittura, come la morte di Dio o del padre, è cosa fatta da un pezzo, benché l’avvenimento ci metta un pezzo a giungere a noi, e benché sopravviva in noi il ricordo di segni scomparsi coi quali continuiamo a scrivere»[12].

Se è vero che la scrittura e il linguaggio storicamente conosciuti sono sostanzialmente già in stato catatonico con l’avvento della Neolingua, d’altra parte è prevedibile che l’unica lingua scritta con prospettiva di crescita esponenziale nel futuro prossimo sarà proprio quella informatica, cioè quella costituita dall’insieme dei linguaggi di programmazione per le macchine, per i computer intesi come estensione mentale e manuale dell’uomo. Se questa prospettiva è reale, è ancora possibile pensare che le facoltà di comunicazione con la macchina possano restare prerogativa di un settore specialistico della società come i programmatori informatici? Questa situazione non rappresenta invece un vizio, non della rete ma del modo di utilizzarla, che fin dalla sua origine lavora contro la sua natura stessa, in cui i contenuti viaggeranno, a dispetto della multi direzionalità potenziale, sempre e comunque in una direzione mediata professionalmente e dunque determinata gerarchicamente?

Nei cortei del nuovo potere giuristi, sacerdoti, sindacalisti e portavoce letterati saranno scalzati dai nuovi divinatori del dio tecnologico. Il futuro delle nostre facoltà operative è in mano a terribili specialisti.

Sembra perciò necessario elaborare una critica dei costumi informatici attuali (una computer criticism) allo stesso modo di come la rivoluzione industriale ha avuto la sua critica con l’analisi del capitale, e quella informativa dell’avvento dei media monodirezionali la propria con l’analisi dello spettacolarizzazione dei rapporti sociali. È possibile ritenere che i linguaggi che permettono al cosmo tecnologico attuale e futuro di funzionare non debbano essere oggetto di analisi critica e posizionarsi all’esterno di qualsiasi linguistica? Si può dare per scontato che l’utilizzo affermato dei pc e delle sovrastrutture che questi rendono possibile, sia e debba restare l’unico concepibile? È normale che i linguaggi di programmazione vadano babelizzandosi progressivamente senza che si possa giungere a degli standard facilmente trasmissibili e utilizzabili in massa come si fa per il leggere e lo scrivere tradizionali?

Pare che tutto questo equivalga a ripiantare alberi al posto di rizomi, rappresentando indirettamente la reintroduzione traversa delle dinamiche spettacolari nel funzionamento intimo della rete, anche se ad un livello diverso. A ben pensare le varie applicazioni fornite in tutte le salse per l’utilizzo passivo del pc e della rete si configurano sostanzialmente come i vecchi canali sul telecomando della televisione, con la differenza che lo schermo di un pc è infinitamente più calamitante verso l’attività dell’uomo che quello di un televisore.

Non secondario nello scenario attuale è il problema delle tracce informatiche. È noto come i motori di ricerca, Google in primis, siano ormai capaci di presentare offerte pubblicitarie su misura dell’utenza. In sostanza la pubblicità che giunge nelle cartelle delle mail, ma le stesse icone laterali che lampeggiano in modi fastidiosi, rallentando le connessioni e apparendo sempre per prime, sono ormai pensate ad hoc per l’utente sulla base delle sue ultime navigazioni in rete. È evidente che i motori di ricerca, o addirittura i browser installati sui propri pc (in modo da sfruttare la memoria a valle) conservino tracce dei movimenti in rete che ognuno fa, i quali dicono di noi molto più di quanto non crediamo e creano per ognuno dei «profili» molto dettagliati, circa i nostri interessi e aspirazioni nel tempo, anche se non siamo noi stessi a spubblicarci spontaneamente tramite questo o quel «social network». Il grande fratello orwelliano controllava la vita di ogni membro del partito attraverso schermi installati dappertutto, sempre funzionanti i quali avevano la caratteristica di guardare ed ascoltare la vita che vi scorreva al di là. Noi oggi passiamo gran parte della nostra giornata direttamente di fronte ad uno schermo che non ascolta e non vede (siamo sicuri?), ma traccia la nostra attività grazie ai software che gli permettono di funzionare. Siamo tutti schedati. Un regime fascista oggi non avrebbe bisogno di spie umane per individuare i propri nemici politici. Da questo punto di vista è interessante capire i risvolti dell’utilizzo della rete in paesi a regime politico ancora fortemente ideologizzati, come i paesi fondamentalisti, o come la Cina, ad esempio, dove ancora recentemente le grandi multinazionali informatiche sono state costrette a contrattare la loro presenza sul territorio. In particolare in Cina il governo ha manifestato l’interesse a poter accedere al controllo dei motori di ricerca per poter imporre la censura ad informazioni ritenute scomode, ma non ad impedire tout court l’accesso alla rete alla propria popolazione, la qual cosa sarebbe stata controproducente per gli stessi interessi della burocrazia politica al potere[13].

 (torna su)

La micro nicchia dell’open source per amatori

La scomparsa progressiva della scrittura e della frequentazione della logica, la conseguente invasione delle «app» (applicazioni, c’è un’applicazione praticamente per tutto, come recita la pubblicità di una nota marca di prodotti informatici) sta popolando il mondo di una nuova categoria: gli operatori. Fino a poco tempo fa la conoscenza informatica veniva divisa in due livelli, c’erano quelli che sapevano armeggiare con i computer da semplici operatori e quelli che sapevano farlo da programmatori. Questi erano in grado di far fare alla macchina ciò che essi desideravano, quelli di desiderare di fare ciò che la macchina gli permette. Questa distinzione è ancora valida, ma perde progressivamente significato, dato che con la monopolizzazione dei linguaggi di programmazione anche i programmatori devono sottostare a ciò che il mercato decide di offrire, visto che essi non programmano più per sé come all’origine, ma per gli altri, di cui magari non conoscono le esigenze e le cognizioni specifiche. Anche qui il mercato lungi dal dare a tutti piuttosto toglie ad ognuno.

In effetti la diffusione dei pc ha permesso l’irrompere sulla scena della rete e della sua potenza virtuale, ma in un contesto già viziato ed irreggimentato dal mercato. Così il concetto dell’open source è già una riforma necessaria e non un attributo naturale della rete, per cui si è costretti a doverne parlare. Se la rete avesse preceduto o fosse nata contestualmente alla diffusione dei pc su larga scala, probabilmente l’industria software non esisterebbe. Quest’ultima invece preesiste alla rete e la condiziona, facendola vivere di luce riflessa. Così anche dove in potenza la rete potrebbe essere veicolo della condivisione universale della produzione immateriale dell’uomo (come dell’immagine digitale della produzione materiale), quindi anche dei codici informatici alla base del funzionamento dei pc e della rete stessa, la circolazione di quest’ultimo tipo particolare di contenuti (che rendono possibile il mezzo) è ciò che in essa meno interessa, di fronte alla circolazione di tutto ciò che si offre come già dato. Cioè l’open source sarebbe sì possibile su larga scala, ma in una società di specialisti la questione è appunto di interesse specialistico e non assume la centralità che meriterebbe. Esso infatti presuppone un’alfabetizzazione informatica di massa per poter avere efficacia e per liberare in pieno la propria potenza.

La rete è virtualmente la vera e propria concretizzazione dell’intellettuale collettivo, il cervello della società, il luogo in cui il pensiero dei singoli può elaborare socialmente la materia del proprio progresso culturale accumulando contributi parziali come mattoni di una progettualità collettiva. Purtroppo però i pezzi individuali di questo potenziale intellettuale collettivo sono sempre di più abituati a trovare tutto pronto e disponibile e a prendere ciò che il mercato offre senza pensare, si tratti delle gomme da masticare al supermercato o dei programmi con cui si lavora o ci si svaga. Si dirà che il mercato offre ampia scelta e che la critica si applica appunto nell’acquisto di un prodotto piuttosto che di un altro, ma è evidente che si tratta di una falsa democrazia della merce che ricalca perfettamente la falsità della democrazia parlamentare dove si è costretti a scegliere fra i politici offerti senza possibilità di intervento attivo nel processo di formazione dell’offerta. Poter scegliere fra una gomma da masticare piuttosto che un’altra non mette in discussione l’utilità presunta della gomma da masticare. Per di più l’irrompere sulla scena dell’interesse sociale, di un mondo virtuale e l’implicita perdita di senso della tecnologia come strumento di intervento sull’esistente, svuota a monte di intenzionalità progettuale le potenzialità di insieme offerte dalla rete e dalla possibilità di generalizzazione dell’open source. A che pro implementare socialmente processi creativi se il mondo dato è il migliore possibile e se tutto ciò che esso non offre in forma materiale lo si può avere in forma immateriale mediante la rete?

Incidere sulla realtà (incidere la realtà) è sostanzialmente una forma di scrittura, un linguaggio materiale dell’uomo. Tornare a progettare il mondo è operazione che passa necessariamente attraverso il recupero della scrittura e dei linguaggi in tutte le loro forme e quindi attraverso l’inversione in generale del rapporto esistente fra tecnologia e società. Questo significa che è necessario recuperare un rapporto attivo con gli artefatti cognitivi, per farne il mezzo con cui recuperare l’autonomia della propria coscienza, ma conoscenze, coscienza, e progettualità sono tutti processi complessi fondati sul linguaggio in generale, impossibili senza di esso considerato in tutte le sue forme, e il quale necessita di una riappropriazione di massa. In questo senso il controllo sui linguaggi è parte fondamentale del controllo della propria esistenza. In questo senso il monopolio dell’informatica, come la stessa esistenza di un’industria software è da un punto di vista razionale del tutto inaccettabile. Il linguaggio informatico è solo il tassello più periferico e sofisticato della detenzione in ostaggio della tecnologia da parte di una classe sociale precisa e dominante e la tecnologia non è, in generale, cosa diversa rispetto ai «mezzi di produzione». Il pc stesso è in definitiva un mezzo di produzione che per quanto domestico non è sotto il pieno controllo di chi lo possiede.

 (torna su)

Quale rete. Quale cultura.

Insomma la rete rappresenta la potenziale estinzione dell’industria informatica, ma il presupposto per questa liberazione della rete e dell’immensa capacità di calcolo diffusa ed intrinseca ai milioni di computer disseminati nella società, è l’alfabetizzazione di massa nel campo dei linguaggi di programmazione, il cui monopolio è all’opposto esattamente funzionale alla conservazione di una sovrastruttura industriale completamente inutile dal punto di vista dell’utenza finale, cioè dell’umanità intera (in prospettiva), ma del tutto connaturata ad una società del controllo sempre più sofisticata e totalizzante. All’opposto data l’attuale dipendenza completa dell’intera attività operativa da un’industria informatica non è possibile pensare alla sua distruzione in assenza di una preparazione minima dell’utenza all’assunzione di un proprio ruolo attivo nei confronti delle cognizioni informatiche alla base delle loro attività da operatori. La battaglia di Papert per l'insegnamento dei linguaggi informatici, funzionali ad un utilizzo consapevole delle risorse tecnologiche, a partire dalle scuole inferiori, è un obiettivo estremamente avanzato rispetto ad una realtà in cui neanche al livello universitario vengono ancora introdotti percorsi formativi volti a mettere in grado i professionisti laureati di fabbricarsi da sé i propri utensili informatici. Questo discorso non rappresenta un problema settoriale, ma si configura a pieno titolo, e in modo sempre crescente, come un problema culturale di massa, dai caratteri spiccatamente socio-politici. In sostanza qualsiasi discorso versus l’industria informatica e versus un utilizzo classista della tecnologia passa, tra le altre cose, necessariamente attraverso l’espropriazione del monopolio dei linguaggi di programmazione, come presupposto culturale e tecnologico necessario al controllo sociale dei mezzi di produzione.

Il mondo virtuale e quello materiale sono oggi invece messi in parallelo, e non in contrapposizione dialettica, nel senso che la virtualità si configura non come una simulazione delle possibilità di cambiare il reale, quindi non come strumento di intervento sul materiale, se non in forme controllate dall’alto e per conto del capitale, ma come universo in sé, sorta di buco nero della creatività sociale in cui dirottare e far scaricare la libido collettiva. Proprio quando la creatività sociale acquisisce una potenza mai avuta prima essa perde però di vista qualsiasi obiettivo di interesse collettivo, una forza tecnologica incredibile senza ricadute concrete sul mondo in cui viviamo che invece langue nella dismissione e nel degrado.

In uno scenario non condizionato dal mercato, che è determinato dall’offerta industriale, si avrebbe una massa di utenza alfabetizzata anche nei confronti della programmazione, capace di compilare programmi come scrivere temi a scuola o risolvere problemi di aritmetica e così via, senza differenze di rapporto (attivo-passivo) con il mezzo e in grado di condividere in rete la propria produzione informatica. L’open source sarebbe naturalmente generalizzato e nel breve volgere di qualche anno l’industria informatica sarebbe completamente superata. Qualsiasi applicazione sarebbe liberamente scaricabile ed emendabile, ognuna di esse si formerebbe direttamente nell’attività per mezzo di chi la utilizza concretamente e non in laboratori astratti dalle attività per cui fabbricano software, i quali necessitano poi di essere collaudati da chi li utilizza senza che questi possano intervenire attivamente sul loro funzionamento.

Si potrebbe facilmente prevedere la nascita non di recensioni di questo o quel programma, ma il dibattito attivo su quali programmi sviluppare, in funzione di quali processi produttivi, e per quali obiettivi sociali, sul modo di renderli più efficaci, logici e facili da apprendere, il dibattito investirebbe direttamente la natura stessa dei linguaggi di programmazione, la loro critica, la loro democratizzazione ed il loro valore pedagogico, aspetti oggi del tutto negati. È anche chiaro che fine farebbe, in tale scenario, il diritto d'autore, foglia di fico demagogica per tutte le industrie che a diverso titolo si appropriano la creatività sociale.

L’allargamento del dibattito invertirebbe il rapporto fra utenza e mezzo eliminando gli operatori e restituendoci una massa di potenziali programmatori, nella quale la semplice operatività possa essere una scelta libera e non un condizionamento imposto, così come non necessariamente tutti quelli che imparano a scrivere vogliono essere scrittori.

Questo scenario non ha un interesse specifico solo in ragione della trasformazione positiva dei modi di utilizzo delle macchine e della rete, che è un effetto, ma fonda il suo valore nel fatto che la trasformazione positiva del rapporto fra uomo e macchina ha come presupposto l’effetto positivo, in senso anti-disgregante, sulla formazione della coscienza individuale nelle attività umane, quale premessa comunque necessaria al progresso socio-politico.

I linguaggi informatici entrerebbero nel novero della linguistica al pari degli altri, ed essendo di interesse generale restituirebbero all’uomo un rapporto attivo con la logica, la riflessione e la scrittura, contribuendo sensibilmente a guarire lo strisciante analfabetismo capitalista e a combattere la dissociazione sempre maggiore fra i vari strati della struttura psichica dell’uomo, dissociazione che è oggi alla base della sua incapacità di stabilire una relazione di causalità diretta fra le sue cognizioni individuali e la propria condizione esistenziale costringendolo a considerare naturalmente separate (per quale motivo?) queste diverse sfere della personalità.

La tecnologia detenuta dalla classe dominante, verrebbe depurata dalle sue applicazioni ridicole e socialmente nefaste, per assumere un senso non contrapposto ai bisogni della società in generale, ma ad essi subordinato. Il problema è che nella misura in cui l’utilizzo distorto di questa potenza tecnologica si afferma radicandosi nella prassi operativa  quest’ultima finisce per strutturare una coscienza individuale fondata sull’utilizzo cieco delle conoscenze, in favore di un loro crescente tecno-centrismo ma a scapito del loro potenziale politico.

 

APRILE 2010

(torna su)



[1] H. Marcuse, L’uomo a una dimensione, Einaudi.

[2] Una testimonianza diretta di questa tesi è contenuta nei filmati delle lezioni di G. Deleuze (in collaborazione con Felix Guattari) tenute all’Università di Vincennes (fondata nel 1969, vedi nota successiva), fra il 1975-1976 e trasmesse sulla Rai, nell’ambito della programmazione notturna di Fuori orario nelle notti fra il 19 ed il 27 Maggio del 2006 con il titolo: Chi pensa il cinema. Il senso in meno. Sottotitolo: Gilles Deleuze a Vincennes (1975-1975).

[3] A proposito dell’Università di Vincennes su Wikipedia si legge quanto segue:

«La storia di Paris VIII cominciò a Vincennes, alla fine degli anni ’60 con l’installazione di una facoltà sperimentale dove insegnarono intellettuali all’avanguardia come Michel Foucault, Gilles Deleuze, Jean-François Lyotard, Frank Popper. L’idea di aprire un’università fuori dal centro di Parigi fu una conseguenza dei fatti del maggio ’68 e fu avanzata da un collettivo di professori della Sorbona impegnati politicamente. Il generale De Gaulle e il ministro dell’educazione Edgar Faure videro di buon occhio la proposta, probabilmente perché permetteva di allontanare gli studenti dal centro della città e controllare meglio l’ordine pubblico dopo i recenti moti di piazza. Il decreto di creazione di un centro di studi sperimentale fu firmato nel dicembre 1968 e l’università cominciò a funzionare dal gennaio 1969 a Vincennes.

L’istituzione era progettata in modo da rivoluzionare i tradizionali rapporti fra professori e studenti e fra università e mondo esterno. L’ambiente di insegnamento era marcato da una forte volontà anti-accademica e con una grande apertura al politico e al sociale. Gli ambienti universitari erano aperti agli stranieri e a chi lavorava e a questo scopo vennero istituiti numerosi corsi serali. I corsi insegnati a Paris VIII erano spesso innovativi per la Francia: si aprirono dipartimenti di cinema, psicanalisi, arti plastiche, teatro, urbanistica e anche intelligenza artificiale. Anche le scelte pedagogiche erano innovative: introduzione dei crediti, eguaglianza dei servizi tra diverse classi di professori, niente lezioni di massa, etc.. L’innovazione più importante fu certamente l’interdisciplinarità che permetteva la collaborazione fra insegnanti e ricercatori di discipline molto diverse come filosofia, matematica, sociologia, letteratura e storia.

Uno dei tratti caratteristici dell’università di Vincennes era la sua forte politicizzazione, a volte con eccessi ideologici. Comunisti, maoisti e altre correnti di sinistra si trovavano ben radicate nei diversi dipartimenti universitari, particolarmente a filosofia e sociologia, il che non restò senza conseguenze per quanto riguarda i rapporti fra professori, fra studenti, fra dipartimenti e con lo stesso ministero dell’educazione. All’inizio degli anni ’70 il dipartimento di lingue e letterature anglo-americane si strutturò sul modello delle università americane, con unità didattiche e corsi con programmi definiti. Le lauree concesse dall’università furono finalmente riconosciute a livello nazionale. La linguistica cominciò ad occupare un ruolo importante per merito di studiosi come John Lyons, Noam Chomsky e Julia Kristeva».

[4] Alcuni numeri che circolano sparsi in rete sullo stato di cose in fatto di lingua e sua conoscenza sono i seguenti, da prendere con le dovute accortezze: un lessico della lingua italiana che include circa 150.000 parole di uso consolidato, con alcuni dizionari che arrivano addirittura ad 800.000 lemmi (Treccani); una conoscenza media dei vocaboli della propria lingua, intorno al 55-58 % (da uno studio danese in materia); con non più di 5.000 parole di uso quotidiano nella lingua parlata; uso che se si considerano gli adolescenti scende a circa il 12%. 

[5] «Il successo crescente dei computer ha incoraggiato l’uso di linguaggi orientati al computer e i paragoni mente-computer. La metafora computazionale – la comparazione biunivoca fra mente/cervello e programma/computer – è al momento lo strumento di analisi dominante della maggioranza delle scienze comportamentali. Con il successo del computer, sono aumentati anche i rapporti circa disturbi fisici legati al suo utilizzo e disfunzioni psico-sociali fra utenti di computer e lavoratori. Questo scritto sostiene che le relazioni fra uomo e computer sono diventate problematiche, principalmente a causa della confusione fra ciò che è umano è ciò che è meccanico. La metafora computazionale ha catturato l’immaginazione di molti al punto che essi rifiutano il presente meno perfetto del mondo attuale per il futuro perfetto del mondo del computer. Il problema è esacerbato dall’accettazione della metafora computazionale nella maggioranza dei trattamenti e utilizzi circa i computer da parte di operatori e lavoratori. Alcuni scienziati e pensatori hanno cominciato ad esplorare e suggerire metafore alternative al fine di comprendere meglio l’intelligenza umana e la sua struttura con l’obiettivo di migliorare l’insegnamento e l’abilità nel pensare degli studenti. Comunque, la metafora computazionale non può essere superata facilmente. Essa ha un supporto teorico e scientifico formidabile, come testimoniato dalla forza del movimento dell’intelligenza artificiale e del dibattito irrisolto sull’AI. Questo scritto conclude che la nuova disciplina del computer criticism offre la possibilità di cominciare a situare il dibattito circa il  computer e la metafora computazionale all’interno del più largo ambito culturale relativo al linguaggio ed al pensiero».

Tratto da: Ronald M. Biron, The computational metaphor and computer criticism

[6] La fonte è la stessa specificata nella nota 3

[7] G. Deleuze, F. Guattari, L’anti-Edipo. Capitalismo e schizofrenia, Einaudi, Torino 2002

[8] Ibidem.

[9] Silvano Tagliagambe, Dal cognitivismo al Costruzionismo.

Fonte: http://www.mce-fimem.it/ricerca/eduscientifica/Silvano%20Tagliagambe/Costruzionismo(1).doc

[10] «I paesaggi virtuali del digitale divide (divario digitale) contemporaneo promettono la realizzazione della felicità (intesa come una perfetta integrazione nell’universo della comunicazione) e sostengono l’idea del cyberspace come luogo di perfetta equità e totale libertà, mettendo tra parentesi il suo essere, innanzitutto, uno spazio economico o, almeno, regolato dalle leggi dell’economia e del controllo degli accessi. Nella pretesa dell’architettura digitale di offrirsi come totalmente visibile e di trasformare l’opacità della realtà in un rendering «trasparente» e lucido, l’esperienza fisica (a cominciare dal corpo) si configura come pratica di rottura, perché le sue reazioni non possono essere controllate o previste in maniera determinata e lo stesso desiderio – al di fuori dei canoni suggeriti dal format digitale – non può essere automaticamente deviato verso semplici forme di consumo.

La tecnologia rende oggi possibile l’utopia, ma non ne spiega le ragioni: resa praticabile nelle sue forme esteriori, l’utopia si rivela priva di speranza, cioè di ogni possibilità di  «incontro con se stessi». Prefigura un paesaggio idilliaco da cui è cancellato lo sforzo, rimossa ogni traccia di difficoltà: lungo le sue superfici traslucide, tutto scorre senza essere veramente trattenuto. Lo «sporco» del disegno non ne contamina la persuasiva suggestione di levigatezza e le sue promesse di libertà cadono come suadenti parole in un vuoto non più modificabile, ma solo occupabile».

Testo tratto da: Fulvio Irace, La nuova Utopia, Domus n. 935, Aprile 2010.

[11] Ferdinand de Saussure chiama semiologia la «scienza che studia la vita dei segni nel quadro della vita sociale». Il segno linguistico non unisce una cosa ed un nome ma «un concetto ed un’immagine acustica». Concetto ed immagine acustica sono entità psichiche unite strettamente tra loro. Per evitare ambiguità terminologiche, Ferdinand de Saussure chiama queste due entità psichiche significato e significante […].

Hjelmslev introduce, inoltre, i concetti di espressione e contenuto al posto di quelli di significante e significato. Espressione e contenuto sono piani legati solidarmente tra loro, sono funtivi di una funzione segnica. Secondo Hielmslev, il pensiero, se non espresso, non è contenuto linguistico e dei suoni emessi senza pensare non sono espressione linguistica.

Tratto da: www.bolognadue.it/angelorizzi/tecap21.htm.

[12] G. Deleuze, F. Guattari, L’anti-Edipo. Capitalismo e schizofrenia, Einaudi, Torino 2002.