Coscienza di classe e consenso oggi
PROGRAMMAZIONE
COGNITIVA
Alessandro D’Aloia
«Fine della Neolingua
non era soltanto quella di fornire un mezzo di espressione per la
concezione del mondo e per le abitudini mentali proprie ai seguaci del
Socing, ma soprattutto quella di rendere impossibile ogni altra forma di
pensiero. Era sottinteso come, una volta che
(George Orwell, 1984,
appendice I principi della
neolingua).
L’avvento della
Neolingua
Orwell non riesce ad immaginare un potere totalitario senza
conseguenze sul modo di esprimersi e di pensare della massa. Il
totalitarismo come affermazione dell’assurdo non può persistere senza la
distruzione della razionalità nello stesso luogo in cui questa si forma,
ovvero nella mente umana sotto forma di pensiero. I concetti si
manifestano mediante la comunicazione del loro significato con parole.
Il linguaggio è in tal senso lo strumento attraverso il quale i concetti
possono essere comunicati.
Un pensiero povero non ha bisogno di molte parole o di parole
complicate. Da questo punto di vista si può senz’altro stabilire una
relazione diretta fra impoverimento linguistico e regressione
socio-politica. Se in Orwell la relazione suddetta viene portata agli
estremi, trattando di un regime totalitario che mira al dominio
permanente, la questione della degenerazione linguistica non attiene per
forza solo ai regimi classici. Per questo motivo molti autori, oltre
Orwell, hanno dedicato attenzione critica alle modificazioni del
linguaggio e dei vocabolari. Non è a caso che Gramsci nella trattazione
delle forme in cui si presenta la coscienza comune pone l’accento, fra
le altre cose, alle strutture ricorrenti con cui si
esprime il linguaggio delle masse. Dopo Gramsci, si può fare
riferimento a quanto sostenuto da Marcuse in proposito nella parte
finale della sua opera L’uomo a
una dimensione nella quale afferma con chiarezza che: «Le parole si rivelano come termini […]; vale a dire, come limiti che
definiscono il significato ed il suo sviluppo - i termini che la società
impone al discorso, ed al comportamento. […] Nel parlare il proprio
linguaggio, la gente parla altresì il linguaggio dei suoi padroni, dei
benefattori, degli agenti pubblicitari. Cosicché gli individui non
esprimono soltanto se stessi, […] ma anche qualcos’altro diverso da sé»[1].
Con Gilles Deleuze, in collaborazione osmotica con Felix
Guattari, abbiamo infine l’approdo alla tesi che «Si mette il linguaggio nella bocca dei bambini esattamente come si
mettono pale e picconi nelle mani degli operai», dato che esso
rappresenta: «un sistema d’ordine,
un sistema di comando, che permetterà o costringerà, gli individui a
formare enunciati conformi agli enunciati dominanti. […] Quindi il
linguaggio deve essere in primo luogo concepito non in termini di
informazione, ma in termini d’ordine.
[…]»[2]
[3].
Il linguaggio è cioè, prima di tutto, un sistema volto a
permettere l’impartizione di ordini (comandi) e solo in seconda istanza
uno strumento di trasmissione di informazioni.
Questa posizione va intesa in tutte le sue sfumature. Se il
linguaggio fosse «solo» uno strumento di comando, come spiegare la
filosofia, la poesia e la letteratura? È chiaro che esso presenta
diversi livelli. Un livello elementare esprimibile con poche parole e
utilizzabile per le operazioni più banali in cui le proposizioni più
semplici conservano una loro efficacia piuttosto netta e definita (come
nel vocabolario A della Neolingua) e via via livelli più articolati in
cui la comunicazione di concetti meno immediati e imperativi necessita
di un aumento di quantità di informazioni in una determinata direzione
di senso generale. Deleuze parla di «ridondanza» come del mezzo
attraverso il quale nel linguaggio si può aumentare la quantità di
informazione volta a superare il contenuto informativo minimo
dell’imperatività del discorso, ridondando appunto gli enunciati. Cioè
se si deve dare un ordine o un comando, il linguaggio nelle sue forme
elementari risulta già sufficiente (vai là, prendi questo, chiudi quello
ecc..), non appena diventa necessario esprimere un’intenzione diversa da
un ordine, bisogna aggiungere parole, articolare frasi, costruire senso.
Queste complicazioni necessarie denunciano l’inadeguatezza del
linguaggio al di fuori del suo ambito primario (funzionale) del comando.
Il linguaggio nella sua forma storica essendo il mezzo di comunicazione
principale di società gerarchiche esprime in se stesso tali gerarchie e
implica una società in cui se c’è chi comanda deve esserci chi esegue.
Se in Marcuse abbiamo l’invito esplicito alla definizione di
termini di analisi distaccati dai termini analizzati, quindi alla
creazione di termini necessariamente esterni al linguaggio comune, per
poter capire cosa c’è dietro tale apparato linguistico, con Deleuze
l’invito implicito alla sua posizione è quello di superare completamente
la concezione di un linguaggio come sistema di comando. Se la
comunicazione è alla base stessa della società ed esso è sostanzialmente
ordine dall’alto, nessuna società potrà essere definitivamente liberata
dai comandi, dunque dalle gerarchie a meno che, una nuova società non
sia capace di costruirsi a partire dalla rivoluzione del linguaggio
stesso, a meno che cioè una società non sappia inventarsi un nuovo
linguaggio. Un nuovo modo di comunicare e di esprimere il pensiero è
dunque in qualche modo un fatto connaturato alla nascita di una nuova
società, mentre al contrario qualsiasi semplificazione di un linguaggio
per sua natura già inadeguato ad esprimere sentimenti diversi dal
comando (ammesso che questo sia un sentimento) denuncia nient’altro che
una regressione di umanità nella comunicazione stessa.
Se una statistica è possibile rispetto al numero di parole
utilizzate, più difficile è fare conteggi in relazione ai significati
che esse veicolano. Quello che si può intravedere è una tendenza al
ribasso.
Non solo diminuisce il numero di parole utilizzate, ma i
vocaboli si tecnologizzano degradandosi per l’effetto di diversi
fattori. Cioè la difficoltà crescente di utilizzare correttamente il
linguaggio in tutte le sue sfumature e potenzialità è direttamente
legata alla presenza di più tecnologia nelle attività quotidiane. Un
primo fattore è la limitazione dei caratteri nell’utilizzo di
sms, dove l’articolazione
corretta di un pensiero qualsiasi semplicemente costa di più in termini
monetari qualora venga superato il limite di caratteri stabilito. Il
controllo ortografico non è mai stata una preoccupazione delle
multinazionali della telefonia mobile, la monetizzazione al contrario
sì. Un secondo fattore è la mancanza di tempo, (corollario della
moltiplicazione puramente quantitativa dei contatti) così le mail sono
scritte sempre di fretta e furia senza rilettura, con una quantità di
refusi impressionante e costruzioni sintattiche per lo più malsicure.
Quando si scriveva a mano le proposizioni erano prima pensate e poi
trascritte, la possibilità di scrivere e poi correggere, semplicemente
si traduce nello scrivere senza pensare, men che meno correggere. Un
terzo fattore è la verbalizzazione della scrittura nelle chat, dove si
scrive per parlare, combinando insieme i problemi sia del primo che del
secondo fattore (ridurre al minimo i caratteri, scrivere senza pensare)
aggravata dall’incapacità di massa di utilizzare la tastiera con 10 dita
invece che con 2 o 3. Un quarto fattore, ma probabilmente ve ne sono
altri, è rappresentato dall’inquietante presenza dei testi automatici,
che non sono frutto della «scrittura automatica» surrealista, ma molto
più spesso dell’altrettanto «artistica» traduzione automatica di Google
o dell’intera costellazione di traduttori meccanici. Neanche i futuristi
avrebbero potuto desiderare tanto e perfino il Joyce del
Finnegans Wake sarebbe in
imbarazzo di fronte a tanta creatività. Google il nuovo genio del
non-sense.
Infine si può evidenziare un fattore, forse quello più
preoccupante, legato alla presunta «pesantezza» dei discorsi. Gli scambi
verbali sono nella stragrande maggioranza, prettamente funzionali o al
contrario semplicemente ornamentali, come le frasi fatte di cortesia.
Quasi mai il linguaggio viene davvero utilizzato per comunicare idee e
farle crescere nel percorso verbale. Ogni discorso che evada dalla pura
funzionalità o dalla cortesia è subito etichettato come «pesante», ogni
domanda a cui dovrebbe seguire una relativa risposta, rischia sempre di
restare isolata. Così si configura una costellazione di domande senza
risposte, tanto che sembra sempre più scontato che le risposte siano
confinate nel silenzio. I dialoghi sono una forma dialettica in
scomparsa di fronte al trionfo dei monologhi, che per questo stesso
motivo diventano progressivamente più deliranti. La conclusione è che
nonostante l’invasione di varie forme di mezzi di comunicazione,
per stare sempre in contatto con
gli amici, questi amici se comunicano più di prima (e anche questo
sarebbe da dimostrare) di certo non discutono, mentre realizzano un
narcisistico berciare a senso unico come riflesso collettivo del grande
monologo del capitale.
Se poi è vero che i libri stampati li legge sempre meno gente
sarà anche lecito aspettarsi che qualcuno legga invece questa vastissima
produzione letteraria in Neolingua. Siccome la macchina fa tutto in meno
tempo dell’uomo, c’è da stare sicuri che la produzione di testi
meccanici supererà in breve tempo quella umana, che a sua volta, per i
motivi visti, va via via meccanizzandosi. L’orizzonte naturale di questa
tendenza è l’opera letteraria prodotta dalla macchina senza mediazione
umana, esattamente come accadeva in
Nuovo mondo di Aldous Huxley.
Nella coesistenza uomo-macchina, non è la macchina ad umanizzarsi, ma
l’uomo che comincia sempre più a parlare e a pensare come una macchina.
Non a caso negli studi sull’intelligenza l’analogia con la macchina è
diventata un vero e proprio paradigma[5]. La macchina si
umanizzerà solo dopo aver reso l’uomo simile a sé. Nel mezzo di questo
processo in atto non ha senso sforzarsi di determinare forzosamente la
nascita e il dominio di una Neolingua quando questa vive già di vita
propria e soppianterà naturalmente l’Archeolingua nel giro di una
generazione.
Una seconda caratteristica dei linguaggi attuali è quella
della loro progressiva separazione e cioè la nascita di vocabolari
separati, settoriali, adeguati ad utilizzi specifici e professionali, ma
non alla normale comunicazione. Se
Ammirevole, da questo punto di vista, la produzione di quelle
che si configurano come vere e proprie «macchine concettuali», da parte
del duo Deleuze-Guattari, capaci di attraversare queste barriere
linguistiche, di innescare ragionamenti trasversali, prendendo a
prestito concetti di discipline specifiche per spiegare fenomeni
extradisciplinari e generali, per infrangere letteralmente le barriere
artificiali imposte al pensiero, insomma tutto quello che la politica
dovrebbe fare e che non fa.
Questa trasversalità concettuale del pensiero è un attributo
profondamente politico di un ragionare che si oppone ostinatamente al
confinamento specialistico dei saperi contemporanei, mentre quest’ultimo
oggi si istituzionalizza perfino nelle Università, in cui le formazioni
sono in piena divaricazione.
Viviamo un’epoca in cui all’estrema preparazione in un
settore professionale qualsiasi corrisponde la speculare e disarmante
incapacità di collegare le esperienze, di capitalizzare le cognizioni.
Alla raffinatezza analitica specialistica fa eco un vero e proprio
tribalismo intellettuale della società nell’insieme. «Gli
specialisti agiscono in un ambito già codificato sulla loro specialità,
se si chiede qualcosa agli specialisti è escluso che sappiano
rispondere. Gli specialisti sono terribili»
[6],
ci dice Deleuze.
«Assume il suo pieno
significato il duplice ritratto che Andrè Gorz traccia del «lavoratore
scientifico e tecnico», padrone d’un flusso di conoscenza,
d’informazione e di formazione, ma così ben assorbito nel capitale da
coincidere con il riflusso d’una fesseria organizzata, assiomatizzata;
cosicché, la sera, rientrando a casa, trova le sue macchinette
desideranti armeggiando su un televisore, […]»[7].
Linguaggio espressione
cosciente
Ma perché tanta attenzione al linguaggio? L’unica risposta
interessante è che esso rappresenta una parte importante della
formazione stessa della coscienza umana intesa come luogo di definizione
del rapporto attivo fra intenzioni ed azioni. Coscienza come luogo di
formazione dell’azione consapevole, e quindi del senso stesso
dell’agire. Un’azione razionale è tale quando si è capaci di definirne
le motivazioni che la determinano e gli effetti attesi (e nulla è
definibile senza il linguaggio). La razionalizzazione degli eventi, vale
a dire la consapevolezza dell’agire (anche politico), implica la
possibilità di spiegarne il senso verbalmente. Ciò che non si sa
spiegare esula dal dominio del razionale. Per questo motivo il
linguaggio è la soglia della coscienza, inteso come termine (limite)
dell’inconscio, il luogo in cui si forma il senso dell’operare, la sua
parte consapevole.
Impoverimento dei vocabolari e loro divisione sono elementi
che militano contro una corretta autocoscienza dell’azione, dunque
contro qualsiasi pratica guidata dalla teoria. Ma a questo punto siamo
ancora solo alla creazione di caos, siamo ancora nella
pars destruens della
coscienza. Infatti limitare il pensiero sfasciando il linguaggio comune
rappresenta ancora un livello arretrato del controllo. Più arguto e
attuale è il passo successivo, quello dell’incanalare l’azione umana
nella macchina e mediante il controllo totale di quest’ultima limitare
la prima. Qui l’obiettivo non è neanche più la coscienza, ma
direttamente l’azione cosciente, cioè l’eventuale effetto della
coscienza.
Proviamo a ragionare. Da un lato l’umano viene macchinizzato,
erodendo progressivamente le facoltà raziocinanti della mente attraverso
una lenta ma continua sottrazione concettuale. Da un lato, cioè, si
distrugge con aggiunta e non sottrazione di tecnologia (la perversione
del capitalismo è in effetti nella sovrapproduzione non nella
sottoproduzione) il linguaggio comune, dall’altro si monopolizza il più
settoriale dei saperi, il più specialistico e meccanico dei linguaggi,
quello delle macchine, appunto.
Si obietterà che il linguaggio delle macchine non è
interessante per l’uomo, dato che il problema è nel degrado del
pensiero, non nel monopolio del non-pensiero, ma le cose purtroppo
stanno in modo un po’ diverso.
Il problema infatti è nel rapporto che intercorre fra
non-pensiero e pensiero, nei termini in cui il primo condiziona
effettivamente il secondo e non viceversa (il non-pensiero non è
«condizionabile»).
La costruzione delle
conoscenze
Ma prima di affrontare questo tema è necessario soffermarsi
sul concetto di «artefatto cognitivo», introdotto da Seymour Papert, un
matematico sudafricano impegnato da pioniere negli studi riguardo
l’intelligenza artificiale negli anni sessanta e sostenitore di un
utilizzo critico dei computer in opposizione ad un modo di pensare
«tecnocentrico». Su Wikipedia a suo proposito si legge quanto segue:
«[…] secondo Papert, il processo di
apprendimento è un processo di costruzione di rappresentazioni più o
meno corrette e funzionali del mondo con cui si interagisce. Rispetto al
«costruttivismo», il «costruzionismo» introduce il concetto di artefatti
cognitivi, ovvero oggetti e dispositivi che facilitano lo sviluppo di
specifici apprendimenti.
L’essere umano, a prescindere dall’età,
ha bisogno di avere a disposizione materiali concreti affinché la
conoscenza acquisita sia tanto più vicina alla realtà.
Papert parte dall’osservazione di
attività di alcune civiltà africane in cui i bambini costruivano case in
scala o manufatti in giunco. Secondo Papert, la mente ha bisogno di
materiali da costruzione appropriati, esattamente come un costruttore:
il prodotto concreto può essere mostrato, discusso, esaminato, sondato e
ammirato.
La lentezza dello sviluppo di un
particolare concetto da parte del bambino non è dovuta alla maggiore
complessità o formalità, ma alla povertà della cultura di quei materiali
che renderebbero il concetto semplice e concreto. Il bambino apprende
così con l’aiuto di artefatti cognitivi. In particolare, Papert sostiene
l’uso del computer come supporto all’istruzione e ambiente
d’apprendimento che aiuta a costruirsi nuove idee. Il computer viene
così usato come macchina per simulare. Realizza anche il
logo, un linguaggio di
programmazione formalmente molto rigoroso, derivato dal
lisp, orientato alla
gestione delle liste ed alla grafica della tartaruga (mutuata dal
Pascal), comprensibile ed usabile anche da bambini delle scuole
elementari, dimostrando tra l’altro l’utilità del computer come supporto
per l’apprendimento anche per i più piccoli. […] È un modo per dare ai
bambini, e anche a chiunque altro, il controllo del computer».
In sostanza un artefatto cognitivo è un qualsiasi strumento
capace di stimolare l’apprendimento, qualsiasi mezzo attraverso il quale
l’uomo impara ad agire. Il computer non è certo l’unico artefatto
cognitivo, per secoli l’uomo ne ha fatto a meno apprendendo comunque,
esso rappresenta oggi però sicuramente l’artefatto cognitivo per
eccellenza. Nessun’altro strumento è in grado di fornire esperienza
concreta su un panorama tanto, e sempre più, vasto di fenomeni. Da un
punto di vista storico la tecnologia informatica odierna, che è nel
presente sempre la più attuale, ci sembra il massimo ottenibile, ma è
evidente che siamo solo alla preistoria dell’era informatica, pensando
in prospettiva storica. Tuttavia l’estrema velocità con cui la
tecnologia si sviluppa, nel soppiantare secolari modi di fare e di
apprendere, pone nuovi problemi. Già oggi l’esistenza di una grossa
fetta di operatori e di settori lavorativi è inimmaginabile senza
l’ausilio del computer. Praticamente, fatto salvo ciò che sopravvive dei
lavori manuali e di quelli squisitamente artigianali, in cui la
manualità è proprio l’elemento di valore, niente si realizza senza
computer, dalla banale scrittura di un testo alla realizzazione delle
opere colossali, ogni processo produttivo concreto, e ogni merce,
dall’immateriale al materiale, passano attraverso il computer. I lavori
manuali sono, nella grande maggioranza dei casi, soltanto pezzi di
processi produttivi controllati digitalmente. Se da un lato un
pc estende esponenzialmente
le possibilità individuali (e potenzialmente quelle sociali), dall’altro
proprio per questo assume una posizione via via più centrale
nell’esistenza quotidiana. La versatilità d’impiego che un
pc offre lo rende una sorta
di «macchina universale», la macchina per eccellenza, e in definitiva
una vera e propria estensione delle facoltà coscienti dell’uomo, un suo
organo esterno, un’estensione della sua mente, ma anche dei suoi arti (e
quindi delle sua arti).
«Da una parte, Butler
non si accontenta di dire che le macchine prolungano l’organismo, ma
aggiunge che sono realmente membra e organi che giacciono sul corpo
senza organi della società, che gli uomini si appropriano secondo la
loro potenza e la loro ricchezza, e di cui sono privati dalla povertà
come se fossero organismi mutilati. […]»[8].
Si ci provi ad immaginare la propria attività quotidiana
privata all’improvviso dei computer, o la perdita improvvisa di tutti i
dati accumulati negli ultimi anni. Sarebbe una situazione da vero e
proprio panico esistenziale. La memoria rigida del proprio
pc è diventata la propria
memoria, perdere l’hard disk senza aver salvato i dati su altri
supporti, sarebbe come perdere una parte di sé, come un’amputazione. Il
pc non è allora una
macchina come le altre, ma una macchina attraverso la quale la nostra
esistenza lascia tracce del suo passaggio, anche senza che questo sia un
obiettivo, un’intenzione consapevole di chi lo utilizza. Fra qualche
anno le nuove generazioni non riusciranno neanche a concepire un’era
pre-informatica, in cui l’uomo ricordava il suo passato «a mente»,
invece di affidarlo ad una memoria esterna al suo cervello, oggettiva e
dotata di precisione fotografica. C’è del male in questo? Probabilmente
no, per quanto non si possa affermare semplicemente che alcune facoltà
di memorizzazione mentali possano risentirne, anche se non è questo il
punto centrale.
Il punto centrale è che tutti utilizziamo una macchina così
totalizzante e potente da poter essere considerata un nostro organo
esterno, senza però averne il controllo. In sostanza il computer
funziona e funziona sempre in un qualche modo, ma il suo modo di
funzionare, e attraverso di esso il nostro, non dipende da noi. Il
problema è che quando un prodotto dell’uomo funziona al di fuori del suo
controllo individuale, questo crea contraddizioni e soprattutto
dipendenza.
In sostanza quello che ancora non facciamo con un
pc è ciò che ancora non si
può fare, il che significa per converso che quello che invece ci
facciamo è appunto ciò che è consentito fare. La domanda è: ciò che è
consentito fare tecnicamente? Cioè il limite è puramente tecnico o al
limite tecnico sono coestensivi altri tipi di limite? La risposta non è
certo semplice, tuttavia ci sono degli elementi abbastanza evidenti che
permettono di abbozzare una parziale risposta.
La programmazione del
controllo
La questione di interesse in tutto questo discorso è
rappresentata dal fatto che attraverso il controllo informatico dei
processi produttivi, cui il capitalismo post-analogico sottopone la
produzione, si ottiene come corollario necessario il controllo digitale
delle facoltà creative della società. Non è in discussione il fatto che
l’uso dei pc aumenti la
creatività sociale, ma che tale aumento di creatività sia
sostanzialmente possibile solo secondo direzioni precostituite. Deleuze
e Guattari nella critica della società del controllo usano l’esempio
dell’autostrada dove, in opposizione ad esempio alle ferrovie, la gente
viaggia in «totale ed autonoma libertà» lungo percorsi perfettamente
irreggimentati.
In che modo il capitalismo ottiene questa possibilità di
controllo, offrendo in definitiva maggiori
e non minori potenzialità di azione alla società? Nel caso delle
autostrade è indubbio che la loro esistenza permette all’uomo
motorizzato di muoversi infinitamente di più che in passato, ma comunque
solo in ambiti particolari non decisi dagli automobilisti, bensì dalle
politiche infrastrutturali. Nel caso dei computer, il controllo
dall’alto è ottenuto in ragione del sostanziale monopolio dei linguaggi
di programmazione. È l’industria a decidere quali applicazioni mettere o
non mettere sul mercato oltre che le facoltà stesse delle applicazioni
concesse. Se per andare in alcuni luoghi non serviti dall’autostrada si
può alla fine accontentarsi di andarvi a piedi, non si potrà fare lo
stesso nell’ambito dei sistemi informatici. Da un punto di vista sociale
ha poca importanza, ad esempio, che il sistema operativo ed il programma
che permette il funzionamento di una «macchina a controllo numerico» per
la produzione di artefatti industriali sia questione specialistica, ma i
termini di interesse cambiano del tutto quando si parla delle
possibilità di far funzionare delle macchine che utilizzano tutti in un
ambito sempre crescente delle proprie occupazioni quotidiane, da quelle
lavorative a quelle del tempo libero.
L’obiezione che tutti potrebbero imparare a programmare i
loro pc è infondata, dato
che la programmazione informatica è considerata una formazione
professionale, cioè specialistica e non una «cultura generale», come il
leggere e lo scrivere, mentre non è operazione diversa dal leggere e lo
scrivere. In sostanza nella questione della programmazione informatica
il problema particolare della separazione del lavoro evidenzia la sua
generalità, cioè il suo costituire ormai un limite che colpisce tutte le
discipline a partire da una di esse in particolare. Vale a dire che
siamo ad un punto in cui la specializzazione di una disciplina
professionale crea problemi alle altre discipline e per estensione alle
facoltà cognitive degli utenti/operatori, portando, a cascata, a tutta
una serie di distorsioni corollarie.
Le promesse di prima
dell’alba
Ma non doveva essere così. Chi infatti ricordi ancora l’alba
della diffusione di massa del pc,
ricorderà bene che all’inizio il lancio sul mercato di queste strane
macchine, di cui era difficile capire il senso dato che potevano fare
niente di particolare ma tante cose a seconda degli interessi di chi le
acquistava, accanto alla vendita dell’hardware (il mitico commodore 64,
ad esempio), si promuoveva la conoscenza del linguaggio di
programmazione in basic,
poiché se non venivano programmate tali macchine potevano servire a ben
poco. Nelle scuole medie superiori, di taglio tecnico, accanto alla
matematica e la fisica, venivano introdotti corsi sperimentali di
programmazione, (ad esempio in
pascal) mai avviati in modo serio, del resto. Da un certo punto
in poi, sono nate, in sordina, le software house che fornendo esse i
programmi specifici, permettevano la vendita e della macchina e dei
sistemi per farle funzionare, fino ad arrivare al punto che l’allora
nascente industria della programmazione informatica è divenuta
addirittura più potente di quella della produzione dei componenti rigidi
dei pc, in funzione della
quale è nata. Oggi i computer non funzionano senza uno dei due o tre
sistemi operativi in circolazione a livello mondiale. Anche qui
l’obiezione in merito all’esistenza di un sistema operativo «aperto»,
come linux, che «tutti»
possono implementare, è priva di fondamento concreto, dato che è
difficilissimo pensare, in una società spaccata dagli specialismi, che
un utente/operatore medio, magari anche espertissimo in un suo settore
particolare, possa sapere dove mettere le mani per gestire e migliorare
i propri utensili informatici, senza conoscere neanche l’abc
della programmazione. Inoltre chi pure volesse installare un sistema
operativo aperto sul proprio pc,
dovrebbe poi fare i conti con il fatto che molti programmi sono fatti in
modo da non «girare» su sistemi operativi liberi. Inoltre al di là del
sistema operativo la soglia principale del problema è nell’operatività a
valle, cioè quella permessa dalle applicazioni, non nell’ambiente di
tali applicazioni (il sistema operativo appunto).
È utile notare, di passata, come nel mondo attuale, le
funzioni sociali dei fenomeni di interesse collettivo al momento della
loro affermazione siano sempre diverse, e spesso opposte, a quelle che
questi avevano alla loro comparsa. Un’industria nata per consentire la
vendita dei pc, è diventata
un’agenzia che permette agli Stati di ottenere il controllo sociale
spontaneo da parte dei controllati, così come una macchina che serve a
liberare potenzialità umane, quindi a fornire autonomia operativa
finisce per creare dipendenza operativa.
L’esempio che Semyor Papert fa per spiegare il modo corretto
di utilizzare gli strumenti è quello della canna da pesca.
«Se un uomo ha fame gli puoi dare un pesce, ma meglio ancora è dargli
una lenza e insegnargli a pescare. Naturalmente, oltre ad avere
conoscenze sulla pesca, è necessario anche disporre di buone lenze, ed è
per questo che abbiamo bisogno di computer e di sapere dove si trovano
le acque più ricche [...]»[9].
Si può aggiungere che possedere un’automobile per andare da A
a B implica la capacità di guidare, ma anche la conoscenza del percorso
fra A e B, inteso come l’insieme di vari fattori fra cui la conoscenza
delle diverse possibilità per giungere dal luogo di partenza a quello di
arrivo, la valutazione critica delle diverse possibilità per la scelta
migliore a seconda del caso, le insidie potenziali e, volendo,
l’interesse diverso che i vari percorsi possibili offrono. Se ho
l’autista, posso andare da A a B senza porre attenzione a tutti questi
aspetti del contorno, quindi più comodamente, ma anche più
disinteressatamente, con la contropartita che ad un certo punto
diventerò incapace di fare un qualsiasi percorso in autonomia quando
l’autista (o il moderno surrogato artificiale: il navigatore) non sia
disponibile. La presenza dell’autista mi rende passivo rispetto ai
problemi connessi ai miei spostamenti.
Allo stesso modo l’utilizzo del
pc unicamente attraverso pacchetti software già belli e
fatti, mi permette, ad esempio, di risolvere problemi attraverso
l’utilizzo di concetti matematici e di cognizioni scientifiche che posso
anche ignorare completamente mentre però le utilizzo. Da questo punto di
vista la potenza operativa cresce a scapito della conoscenza dei
fenomeni che la sottendono. Questa interposizione dell’industria
informatica fra i problemi specifici delle attività quotidiane e gli
operatori, costituisce a tutti gli effetti una sottrazione di conoscenza
generale dei fenomeni trattati e delle relazioni che intercorrono fra
essi. Non dovrai occuparti di comprendere il perché delle cose, basterà
che tu sappia far eseguire determinate procedure alla macchina. Non è
necessario che tu conosca le soluzioni dei tuoi problemi, te le
forniremo noi. È in questo modo che l’accrescimento delle possibilità
offerte dalla presenza del pc
si ripercuote potentemente sul processo di disgregazione delle
coscienze, che è un fenomeno non indotto unicamente dall’industria
informatica, ma da essa sfruttato ed aggravato. Ed è ancora in questo
modo che la macchina mentre offre più possibilità operative in generale,
allo stesso tempo reintroduce l’alienazione non propriamente fra
l’operatore ed il suo prodotto intellettuale, ma fra l’operatore e le
sue conoscenze riguardo la realtà, le sue cognizioni circa i fenomeni
materiali della vita, la sua percezione del mondo.
La realtà della clava
informatica
Si potrebbero fare svariati banalissimi esempi di come
l’interposizione informatica rappresenti ormai un problema pratico in
molti settori lavorativi, a dispetto di un’apparentemente aumentata
varietà di possibilità offerte dall’elettronica. Nella normale attività
professionale ogni problema specifico prevede una particolare
applicazione valida solo per quel determinato ambito. Così le attività
fortemente specializzate sono avvantaggiate dalla necessità di
acquistare un numero limitato di applicazioni che formano un certo
pacchetto software, mentre le attività più generaliste avrebbero
necessità di acquistare svariati pacchetti per far fronte alle mille
richieste che un mercato impazzito fa al professionista, per di più
solamente una tantum. In pratica nelle attività più generaliste,
comunque in scomparsa, il concetto di ammortamento del software
acquistato è privo di fondamento. Inoltre specializzare all’estremo
l’offerta software serve anche ad innovare il prodotto continuamente ad
ogni nuova aggiunta di qualche piccola funzione, o al momento dei cambi
di normativa, come accade per i manuali di diritto che diventano sempre
vecchi molto in fretta. Qui però il problema è che un cambio di
normativa significa l’impasse tecnica di una certa attività
professionale almeno fino a quando il software non sia adeguato alle
nuove direttive. Cioè l’operatore non può operare prima che gli sia
restituita questa facoltà dall’esterno e i suoi pacchetti, per quanto
funzionanti, non possono essere utilizzati a causa di un loro 1% da
modificare.
Ma almeno un altro esempio può essere utile. Le automobili
moderne sono piene all’inverosimile di elettronica, con menù e schermi
sempre più ricchi di funzioni e controlli. Ma si provi ad andare da un
normale elettrauto quando un bottone di accesso ad un menù non funzioni
più. Il poveretto sarà costretto a fare spallucce e a dirottare chiunque
alla concessionaria ufficiale, la quale è l’unica in grado di
individuare il problema software che non fa funzionare un qualche
congegno vitale dell’automobile. La conseguenza è che tutto un cosmo di
piccole attività di meccanica legate alla motorizzazione della società
saranno costrette a chiudere e gli automobilisti costretti a sborsare
cifre indicibili per sostituire una centralina o semplicemente un
bottone che non funziona più, ma che non si vende mai separatamente da
tutta la plancia. Qui si osserva la progressiva sofisticazione di tutti
i funzionamenti meccanici mediante controlli elettronici centralizzati
in complicatissimi cervelletti software da cui passa il controllo anche
di funzioni secondarie banalissime che non necessiterebbero di nessun
controllo computerizzato.
Si noterà come questa dipendenza dalla tecnologia industriale
sia un combinato di due movimenti opposti. Da un lato la separazione
esasperata dei pacchetti software, dall’altra l’accorpamento crescente
delle parti hardware. Scissione del soft ma fusione dell’hard, mentre la
cosa ragionevole sarebbe quella esattamente opposta.
Nelle automobili di oggi, se il lettore cd non funziona più
si è costretti a lasciare l’autoveicolo intero dal concessionario per un
paio di giorni, perché questo meraviglioso (ma banalissimo) lettore è
integrato nella plancia e non è estraibile.
In questa situazione ridicola da dipendenza tecnologica senza
precedenti, l’atteggiamento generale è di crescente e meravigliata
compiacenza per la tecnologia. I
tg sono colmi di notizie/pubblicità degli ultimi
progressi/prodotti, e non esiste uno straccio di critica dei processi in
corso. Non si nota che nella maggioranza dei casi non si tratta di
progressi tecnologici sostanziali, ma semplicemente di un rivestimento
tecnologista della merce in generale. Magari le novità importanti sono
completamente lasciate in sordina. Tutto ciò che è tecnologico è
meraviglioso a prescindere. La tecnologia è l’ultima indiscutibile e
fascinosa autorità che il capitale vuole indossare.
Gli esempi fatti sono tuttavia delle conseguenze abbastanza
innocenti di questo dominio tecnologico sulle attività umane, in un
rapporto in cui l’attività è subordinata alla tecnologia mentre il
contrario non è neanche immaginabile. La mitizzazione tecnologica
implicita in questo tipo di rapporto è però alla base anche di altre
distorsioni sociali soprattutto in campo giovanile, che è quello
assolutamente più sovraesposto ad una vera e propria dipendenza. La
prima e più evidente distorsione è quella che subisce il gioco. Il gioco
tradizionalmente inteso è il principale fattore di socializzazione
giovanile libero, cioè svolto in ambienti non controllati e reclusivi
come la scuola. Oggi la tecnologizzazione del gioco virtualizza la
socializzazione e nel migliore dei casi i giovani giocano insieme senza
stare insieme, oppure rifiutano consapevolmente il rapporto con
l’esterno per ripiegare tutto il tempo libero disponibile sul gioco
individuale che assorbe sempre più completamente la loro energia
creativa e i loro desideri, in molti casi raggiungendo forme antisociali
patologiche. Se i giovani realizzano le proprie pulsioni desideranti nel
mondo virtuale dei giochi tecnologici e solo in esso, la conseguenza è
che il mondo reale perde progressivamente interesse per loro. Non è che
essi siano all’improvviso diventati apatici, semplicemente il loro
interesse viene canalizzato massicciamente in un mondo immateriale, in
una specie di metafisica però molto concreta e colorata che assorbe
completamente le energie mentali[10].
L’esempio più calzante, ma non l’unico di quanto detto è rappresentato
da Second life, spesso
pubblicizzato perfino dai tg.
Il videogioco è probabilmente il principale strumento di programmazione
del tempo libero giovanile, con conseguenze però proprio sulle facoltà
«fisiche» dei giovani reclusi in cameretta e sempre più estranei ad un
mondo materiale fatto di relazioni corporali con l’altro, di odori,
sforzi muscolari, sensazioni ed emozioni non relegate nel
«purovisibilismo» di uno schermo virtuale. Il secondo livello di
occupazione virtuale del tempo libero è rappresentato da tutto l’insieme
di attività di fruizione della rete mediante applicazioni «sociali» ad
alto assorbimento temporale, che mentre affollano le linee sfollano le
vie.
La rete in questo
contesto. Monkey’s net.
Anni prima
dell’avvento di internet Deleuze e Guattari parlavano di strutturazione
«rizomatica» in contrapposizione alla strutturazione ad albero. Il
«rizoma» in botanica è una modificazione del
fusto con principale
funzione di riserva. È ingrossato, sotterraneo con decorso generalmente
orizzontale. «Deleuze-Guattari
contrappongono la concezione rizomatica del pensiero a una concezione
arborescente, tipica della filosofia tradizionale, la quale procede
gerarchicamente e linearmente, seguendo rigide categorie binarie ovvero
dualistiche; il pensiero rizomatico, invece, è in grado di stabilire
connessioni produttive in qualsiasi direzione». (da Wikipedia alla
voce: rizoma).
Il rizoma ha dunque un significato più ampio di quello di
rete, fatto sta però che è una metafora abbastanza calzante del
funzionamento di internet.
La rete è un flusso continuo di informazioni e di varie forme
mediatiche in cui una parte da leone è svolta appunto dai testi. Ci sono
però almeno due forme parallele di flussi testuali che viaggiano in
rete. Il primo è il contenuto manifesto, la forma evidente in cui le
pagine web si rendono visibili e fruibili agli utenti, la seconda è la
struttura in codice (htlm)
che rende possibile il trasferimento di tutte le informazioni
visualizzate nel browser, che noi utilizziamo per navigare in rete. Ogni
pagina ha una struttura in codice, che è un testo con una propria
sintassi e proprie regole. Esso è in qualche modo il linguaggio per
eccellenza, quello che serve a nient’altro che ad impartire comandi alla
macchina, comandi logici circa le operazioni da eseguire al fine di
comunicare il contenuto (il significato) della pagina all’utente, che di
certo non può desumerlo dalla lettura diretta del codice, come non si
può valutare una musica da uno spartito a meno di non essere un
musicista diplomato al conservatorio. In rete tutto è un flusso
ininterrotto di codici, proprio letteralmente. Accanto al flusso di
informazioni per gli uomini, vi è dunque un parallelo flusso,
praticamente invisibile, di codici informatici, informazioni per la
macchina, del quale l’utenza finale ignora le regole, se non
l’esistenza. Si può senz’altro dire che i contenuti mediatici che
viaggiano in rete stanno al codice informatico che li sottende, nello
stesso rapporto generale che intercorre nel linguaggio tradizionale fra
significato e significante[11].
Da questo punto di vista utilizzare la rete mediante un
pc, senza padroneggiare gli
elementi di codice non è molto diverso dal voler comunicare concetti
senza conoscere parole, vocaboli e sintassi corrette per esprimerli.
Cioè si può fare, ma non è una bella cosa. La situazione è simile a
quella di chiunque abbia una conoscenza solo parziale di una lingua, ad
esempio qualcuno che può ascoltare una discussione in lingua straniera,
comprendendo anche una buona percentuale di significati, ma che tuttavia
non ha la padronanza per esprimere esso stesso dei concetti in quella
lingua. Questo qualcuno potrà ascoltare quanto gli pare, ma non parlare,
ricevere informazioni ma non darne, anche se nessuno glielo impedisce
fisicamente, infatti è proprio lui ad esservi impedito.
I codici informatici servono sì a comunicare ordini alla
macchina ma al fine di trasmettere informazioni fra gli uomini, non per
instaurare un «discorso» con la macchina, per questo non si possono
ritenere indifferenti.
Se quindi la rete è un mezzo di socializzazione della
produzione immateriale dell’uomo senza precedenti e potenzialmente
rivoluzionario, è anche vero che tale mezzo è fortemente limitato e
qualitativamente diverso da ciò che potrebbe essere nel caso tutti i
suoi utenti fossero messi sullo stesso piano di partecipazione. In una
divisione fra utenti dotati di padronanza di codici informatici e utenti
sprovvisti di questa padronanza, anche ciò che sembra il massimo delle
potenzialità va in definitiva a fondarsi su un’estrema sperequazione
delle possibilità espressive che la rete come medium offre alla società
intera. Questo è qualcosa di diverso dal «digitale divide», esso è un
«cognitive divide», una divisione cioè fra chi è messo nelle condizioni
di avere un rapporto cognitivo attivo con la rete e chi sostanzialmente
è costretto ad un rapporto cognitivo passivo con essa, una camicia di
forza calata sul funzionamento stesso della rete una volta superato il
problema materiale della sua assenza.
«La scrittura non è mai
stata retaggio del capitalismo. Il capitalismo è profondamente
analfabeta. La morte della scrittura, come la morte di Dio o del padre,
è cosa fatta da un pezzo, benché l’avvenimento ci metta un pezzo a
giungere a noi, e benché sopravviva in noi il ricordo di segni scomparsi
coi quali continuiamo a scrivere»[12].
Se è vero che la scrittura e il linguaggio storicamente
conosciuti sono sostanzialmente già in stato catatonico con l’avvento
della Neolingua, d’altra parte è prevedibile che l’unica lingua scritta
con prospettiva di crescita esponenziale nel futuro prossimo sarà
proprio quella informatica, cioè quella costituita dall’insieme dei
linguaggi di programmazione per le macchine, per i computer intesi come
estensione mentale e manuale dell’uomo. Se questa prospettiva è reale, è
ancora possibile pensare che le facoltà di comunicazione con la macchina
possano restare prerogativa di un settore specialistico della società
come i programmatori informatici? Questa situazione non rappresenta
invece un vizio, non della rete ma del modo di utilizzarla, che fin
dalla sua origine lavora contro la sua natura stessa, in cui i contenuti
viaggeranno, a dispetto della multi direzionalità potenziale, sempre e
comunque in una direzione mediata professionalmente e dunque determinata
gerarchicamente?
Nei cortei del nuovo potere giuristi, sacerdoti, sindacalisti
e portavoce letterati saranno scalzati dai nuovi divinatori del dio
tecnologico. Il futuro delle nostre facoltà operative è in mano a
terribili specialisti.
Sembra perciò necessario elaborare una critica dei costumi
informatici attuali (una computer
criticism) allo stesso modo di come la rivoluzione industriale ha
avuto la sua critica con l’analisi del capitale, e quella informativa
dell’avvento dei media monodirezionali la propria con l’analisi dello
spettacolarizzazione dei rapporti sociali. È possibile ritenere che i
linguaggi che permettono al cosmo tecnologico attuale e futuro di
funzionare non debbano essere oggetto di analisi critica e posizionarsi
all’esterno di qualsiasi linguistica? Si può dare per scontato che
l’utilizzo affermato dei pc
e delle sovrastrutture che questi rendono possibile, sia e debba restare
l’unico concepibile? È normale che i linguaggi di programmazione vadano
babelizzandosi progressivamente senza che si possa giungere a degli
standard facilmente trasmissibili e utilizzabili in massa come si fa per
il leggere e lo scrivere tradizionali?
Pare che tutto questo equivalga a ripiantare alberi al posto
di rizomi, rappresentando indirettamente la reintroduzione traversa
delle dinamiche spettacolari nel funzionamento intimo della rete, anche
se ad un livello diverso. A ben pensare le varie applicazioni fornite in
tutte le salse per l’utilizzo passivo del
pc e della rete si
configurano sostanzialmente come i vecchi canali sul telecomando della
televisione, con la differenza che lo schermo di un
pc è infinitamente più
calamitante verso l’attività dell’uomo che quello di un televisore.
Non secondario nello scenario attuale è il problema delle
tracce informatiche. È noto come i motori di ricerca, Google in primis,
siano ormai capaci di presentare offerte pubblicitarie su misura
dell’utenza. In sostanza la pubblicità che giunge nelle cartelle delle
mail, ma le stesse icone laterali che lampeggiano in modi fastidiosi,
rallentando le connessioni e apparendo sempre per prime, sono ormai
pensate ad hoc per l’utente sulla base delle sue ultime navigazioni in
rete. È evidente che i motori di ricerca, o addirittura i browser
installati sui propri pc
(in modo da sfruttare la memoria a valle) conservino tracce dei
movimenti in rete che ognuno fa, i quali dicono di noi molto più di
quanto non crediamo e creano per ognuno dei «profili» molto dettagliati,
circa i nostri interessi e aspirazioni nel tempo, anche se non siamo noi
stessi a spubblicarci spontaneamente tramite questo o quel «social network».
Il grande fratello orwelliano controllava la vita di ogni membro del
partito attraverso schermi installati dappertutto, sempre funzionanti i
quali avevano la caratteristica di guardare ed ascoltare la vita che vi
scorreva al di là. Noi oggi passiamo gran parte della nostra giornata
direttamente di fronte ad uno schermo che non ascolta e non vede (siamo
sicuri?), ma traccia la nostra attività grazie ai software che gli
permettono di funzionare. Siamo tutti schedati. Un regime fascista oggi
non avrebbe bisogno di spie umane per individuare i propri nemici
politici. Da questo punto di vista è interessante capire i risvolti
dell’utilizzo della rete in paesi a regime politico ancora fortemente
ideologizzati, come i paesi fondamentalisti, o come
La micro nicchia
dell’open source per amatori
La scomparsa progressiva della scrittura e della
frequentazione della logica, la conseguente invasione delle «app»
(applicazioni, c’è un’applicazione
praticamente per tutto, come recita la pubblicità di una nota marca
di prodotti informatici) sta popolando il mondo di una nuova categoria:
gli operatori. Fino a poco tempo fa la conoscenza informatica veniva
divisa in due livelli, c’erano quelli che sapevano armeggiare con i
computer da semplici operatori e quelli che sapevano farlo da
programmatori. Questi erano in grado di far fare alla macchina ciò che
essi desideravano, quelli di desiderare di fare ciò che la macchina gli
permette. Questa distinzione è ancora valida, ma perde progressivamente
significato, dato che con la monopolizzazione dei linguaggi di
programmazione anche i programmatori devono sottostare a ciò che il
mercato decide di offrire, visto che essi non programmano più per sé
come all’origine, ma per gli altri, di cui magari non conoscono le
esigenze e le cognizioni specifiche. Anche qui il mercato lungi dal dare
a tutti piuttosto toglie ad ognuno.
In effetti la diffusione dei
pc ha permesso l’irrompere
sulla scena della rete e della sua potenza virtuale, ma in un contesto
già viziato ed irreggimentato dal mercato. Così il concetto dell’open
source è già una riforma necessaria e non un attributo naturale della
rete, per cui si è costretti a doverne parlare. Se la rete avesse
preceduto o fosse nata contestualmente alla diffusione dei
pc su larga scala,
probabilmente l’industria software non esisterebbe. Quest’ultima invece
preesiste alla rete e la condiziona, facendola vivere di luce riflessa.
Così anche dove in potenza la rete potrebbe essere veicolo della
condivisione universale della produzione immateriale dell’uomo (come
dell’immagine digitale della produzione materiale), quindi anche dei
codici informatici alla base del funzionamento dei
pc e della rete stessa, la
circolazione di quest’ultimo tipo particolare di contenuti (che rendono
possibile il mezzo) è ciò che in essa meno interessa, di fronte alla
circolazione di tutto ciò che si offre come già dato. Cioè l’open source
sarebbe sì possibile su larga scala, ma in una società di specialisti la
questione è appunto di interesse specialistico e non assume la
centralità che meriterebbe. Esso infatti presuppone un’alfabetizzazione
informatica di massa per poter avere efficacia e per liberare in pieno
la propria potenza.
La rete è virtualmente la vera e propria concretizzazione
dell’intellettuale collettivo, il cervello della società, il luogo in
cui il pensiero dei singoli può elaborare socialmente la materia del
proprio progresso culturale accumulando contributi parziali come mattoni
di una progettualità collettiva. Purtroppo però i pezzi individuali di
questo potenziale intellettuale collettivo sono sempre di più abituati a
trovare tutto pronto e disponibile e a prendere ciò che il mercato offre
senza pensare, si tratti delle gomme da masticare al supermercato o dei
programmi con cui si lavora o ci si svaga. Si dirà che il mercato offre
ampia scelta e che la critica si applica appunto nell’acquisto di un
prodotto piuttosto che di un altro, ma è evidente che si tratta di una
falsa democrazia della merce che ricalca perfettamente la falsità della
democrazia parlamentare dove si è costretti a scegliere fra i politici
offerti senza possibilità di intervento attivo nel processo di
formazione dell’offerta. Poter scegliere fra una gomma da masticare
piuttosto che un’altra non mette in discussione l’utilità presunta della
gomma da masticare. Per di più l’irrompere sulla scena dell’interesse
sociale, di un mondo virtuale e l’implicita perdita di senso della
tecnologia come strumento di intervento sull’esistente, svuota a monte
di intenzionalità progettuale le potenzialità di insieme offerte dalla
rete e dalla possibilità di generalizzazione dell’open source. A che pro
implementare socialmente processi creativi se il mondo dato è il
migliore possibile e se tutto ciò che esso non offre in forma materiale
lo si può avere in forma immateriale mediante la rete?
Incidere sulla realtà
(incidere la realtà) è sostanzialmente una forma di scrittura, un
linguaggio materiale dell’uomo. Tornare a progettare il mondo è
operazione che passa necessariamente attraverso il recupero della
scrittura e dei linguaggi in tutte le loro forme e quindi attraverso
l’inversione in generale del rapporto esistente fra tecnologia e
società. Questo significa che è necessario recuperare un rapporto attivo
con gli artefatti cognitivi, per farne il mezzo con cui recuperare
l’autonomia della propria coscienza, ma conoscenze, coscienza, e
progettualità sono tutti processi complessi fondati sul linguaggio in
generale, impossibili senza di esso considerato in tutte le sue forme, e
il quale necessita di una riappropriazione di massa. In questo senso il
controllo sui linguaggi è parte fondamentale del controllo della propria
esistenza. In questo senso il monopolio dell’informatica, come la stessa
esistenza di un’industria software è da un punto di vista razionale del
tutto inaccettabile. Il linguaggio informatico è solo il tassello più
periferico e sofisticato della detenzione in ostaggio della tecnologia
da parte di una classe sociale precisa e dominante e la tecnologia non
è, in generale, cosa diversa rispetto ai «mezzi di produzione». Il
pc stesso è in definitiva
un mezzo di produzione che per quanto domestico non è sotto il pieno
controllo di chi lo possiede.
Quale rete. Quale
cultura.
Insomma la rete rappresenta la potenziale estinzione
dell’industria informatica, ma il presupposto per questa liberazione
della rete e dell’immensa capacità di calcolo diffusa ed intrinseca ai
milioni di computer disseminati nella società, è l’alfabetizzazione di
massa nel campo dei linguaggi di programmazione, il cui monopolio è
all’opposto esattamente funzionale alla conservazione di una
sovrastruttura industriale completamente inutile dal punto di vista
dell’utenza finale, cioè dell’umanità intera (in prospettiva), ma del
tutto connaturata ad una società del controllo sempre più sofisticata e
totalizzante. All’opposto data l’attuale dipendenza completa dell’intera
attività operativa da un’industria informatica non è possibile pensare
alla sua distruzione in assenza di una preparazione minima dell’utenza
all’assunzione di un proprio ruolo attivo nei confronti delle cognizioni
informatiche alla base delle loro attività da operatori. La battaglia di
Papert per l'insegnamento dei linguaggi informatici, funzionali ad un
utilizzo consapevole delle risorse tecnologiche, a partire dalle scuole
inferiori, è un obiettivo estremamente avanzato rispetto ad una realtà
in cui neanche al livello universitario vengono ancora introdotti
percorsi formativi volti a mettere in grado i professionisti laureati di
fabbricarsi da sé i propri utensili informatici. Questo discorso non
rappresenta un problema settoriale, ma si configura a pieno titolo, e in
modo sempre crescente, come un problema culturale di massa, dai
caratteri spiccatamente socio-politici. In sostanza qualsiasi discorso
versus l’industria informatica e versus un utilizzo classista della
tecnologia passa, tra le altre cose, necessariamente attraverso
l’espropriazione del monopolio dei linguaggi di programmazione, come
presupposto culturale e tecnologico necessario al controllo sociale dei
mezzi di produzione.
Il mondo virtuale e quello materiale sono oggi invece messi
in parallelo, e non in contrapposizione dialettica, nel senso che la
virtualità si configura non come una simulazione delle possibilità di
cambiare il reale, quindi non come strumento di intervento sul
materiale, se non in forme controllate dall’alto e per conto del
capitale, ma come universo in sé, sorta di buco nero della creatività
sociale in cui dirottare e far scaricare la libido collettiva. Proprio
quando la creatività sociale acquisisce una potenza mai avuta prima essa
perde però di vista qualsiasi obiettivo di interesse collettivo, una
forza tecnologica incredibile senza ricadute concrete sul mondo in cui
viviamo che invece langue nella dismissione e nel degrado.
In uno scenario non condizionato dal mercato, che è
determinato dall’offerta industriale, si avrebbe una massa di utenza
alfabetizzata anche nei confronti della programmazione, capace di
compilare programmi come scrivere temi a scuola o risolvere problemi di
aritmetica e così via, senza differenze di rapporto (attivo-passivo) con
il mezzo e in grado di condividere in rete la propria produzione
informatica. L’open source sarebbe naturalmente generalizzato e nel
breve volgere di qualche anno l’industria informatica sarebbe
completamente superata. Qualsiasi applicazione sarebbe liberamente
scaricabile ed emendabile, ognuna di esse si formerebbe direttamente
nell’attività per mezzo di chi la utilizza concretamente e non in
laboratori astratti dalle attività per cui fabbricano software, i quali
necessitano poi di essere collaudati da chi li utilizza senza che questi
possano intervenire attivamente sul loro funzionamento.
Si potrebbe facilmente prevedere la nascita non di recensioni
di questo o quel programma, ma il dibattito attivo su quali programmi
sviluppare, in funzione di quali processi produttivi, e per quali
obiettivi sociali, sul modo di renderli più efficaci, logici e facili da
apprendere, il dibattito investirebbe direttamente la natura stessa dei
linguaggi di programmazione, la loro critica, la loro democratizzazione
ed il loro valore pedagogico, aspetti oggi del tutto negati. È anche
chiaro che fine farebbe, in tale scenario, il diritto d'autore, foglia
di fico demagogica per tutte le industrie che a diverso titolo si
appropriano la creatività sociale.
L’allargamento del dibattito invertirebbe il rapporto fra
utenza e mezzo eliminando gli operatori e restituendoci una massa di
potenziali programmatori, nella quale la semplice operatività possa
essere una scelta libera e non un condizionamento imposto, così come non
necessariamente tutti quelli che imparano a scrivere vogliono essere
scrittori.
Questo scenario non ha un interesse specifico solo in ragione
della trasformazione positiva dei modi di utilizzo delle macchine e
della rete, che è un effetto, ma fonda il suo valore nel fatto che la
trasformazione positiva del rapporto fra uomo e macchina ha come
presupposto l’effetto positivo, in senso anti-disgregante, sulla
formazione della coscienza individuale nelle attività umane, quale
premessa comunque necessaria al progresso socio-politico.
I linguaggi informatici entrerebbero nel novero della
linguistica al pari degli altri, ed essendo di interesse generale
restituirebbero all’uomo un rapporto attivo con la logica, la
riflessione e la scrittura, contribuendo sensibilmente a guarire lo
strisciante analfabetismo capitalista e a combattere la dissociazione
sempre maggiore fra i vari strati della struttura psichica dell’uomo,
dissociazione che è oggi alla base della sua incapacità di stabilire una
relazione di causalità diretta fra le sue cognizioni individuali e la
propria condizione esistenziale costringendolo a considerare
naturalmente separate (per quale motivo?) queste diverse sfere della
personalità.
La tecnologia detenuta dalla classe dominante, verrebbe
depurata dalle sue applicazioni ridicole e socialmente nefaste, per
assumere un senso non contrapposto ai bisogni della società in generale,
ma ad essi subordinato. Il problema è che nella misura in cui l’utilizzo
distorto di questa potenza tecnologica si afferma radicandosi nella
prassi operativa
quest’ultima finisce per strutturare una coscienza individuale fondata
sull’utilizzo cieco delle conoscenze, in favore di un loro crescente
tecno-centrismo ma a scapito del loro potenziale politico.
APRILE 2010
[1]
H. Marcuse, L’uomo a una
dimensione, Einaudi.
[2]
Una testimonianza diretta di questa tesi è contenuta nei filmati
delle lezioni di G. Deleuze (in collaborazione con Felix
Guattari) tenute all’Università di Vincennes (fondata nel 1969,
vedi nota successiva), fra il 1975-1976 e trasmesse sulla Rai,
nell’ambito della programmazione notturna di Fuori orario nelle
notti fra il 19 ed il 27 Maggio del 2006 con il titolo:
Chi pensa il cinema. Il
senso in meno. Sottotitolo:
Gilles Deleuze a Vincennes
(1975-1975).
[3]
A proposito dell’Università di Vincennes su Wikipedia si legge
quanto segue:
«La storia di Paris VIII cominciò a Vincennes,
alla fine degli anni ’60 con l’installazione di una facoltà
sperimentale dove insegnarono intellettuali all’avanguardia come
Michel Foucault, Gilles Deleuze, Jean-François Lyotard, Frank
Popper. L’idea di aprire un’università fuori dal centro di
Parigi fu una conseguenza dei fatti del maggio ’68 e fu avanzata
da un collettivo di professori della Sorbona impegnati
politicamente. Il generale De Gaulle e il ministro
dell’educazione Edgar Faure videro di buon occhio la proposta,
probabilmente perché permetteva di allontanare gli studenti dal
centro della città e controllare meglio l’ordine pubblico dopo i
recenti moti di piazza. Il decreto di creazione di un centro di
studi sperimentale fu firmato nel dicembre 1968 e l’università
cominciò a funzionare dal gennaio
L’istituzione era progettata in modo da
rivoluzionare i tradizionali rapporti fra professori e studenti
e fra università e mondo esterno. L’ambiente di insegnamento era
marcato da una forte volontà anti-accademica e con una grande
apertura al politico e al sociale. Gli ambienti universitari
erano aperti agli stranieri e a chi lavorava e a questo scopo
vennero istituiti numerosi corsi serali. I corsi insegnati a
Paris VIII erano spesso innovativi per
Uno dei tratti caratteristici dell’università di
Vincennes era la sua forte politicizzazione, a volte con eccessi
ideologici. Comunisti, maoisti e altre correnti di sinistra si
trovavano ben radicate nei diversi dipartimenti universitari,
particolarmente a filosofia e sociologia, il che non restò senza
conseguenze per quanto riguarda i rapporti fra professori, fra
studenti, fra dipartimenti e con lo stesso ministero
dell’educazione. All’inizio degli anni ’70 il dipartimento di
lingue e letterature anglo-americane si strutturò sul modello
delle università americane, con unità didattiche e corsi con
programmi definiti. Le lauree concesse dall’università furono
finalmente riconosciute a livello nazionale. La linguistica
cominciò ad occupare un ruolo importante per merito di studiosi
come John Lyons, Noam Chomsky e Julia Kristeva».
[4]
Alcuni numeri che circolano sparsi in rete sullo stato di cose
in fatto di lingua e sua conoscenza sono i seguenti, da prendere
con le dovute accortezze: un lessico della lingua italiana che
include circa 150.000 parole di uso consolidato, con alcuni
dizionari che arrivano addirittura ad 800.000 lemmi (Treccani);
una conoscenza media dei vocaboli della propria lingua, intorno
al 55-58 % (da uno studio danese in materia); con non più di
5.000 parole di uso quotidiano nella lingua parlata; uso che se
si considerano gli adolescenti scende a circa il 12%.
[5]
«Il
successo crescente dei computer ha incoraggiato l’uso di
linguaggi orientati al computer e i paragoni mente-computer. La
metafora computazionale – la comparazione biunivoca fra
mente/cervello e programma/computer – è al momento lo strumento
di analisi dominante della maggioranza delle scienze
comportamentali. Con il successo del computer, sono aumentati
anche i rapporti circa disturbi fisici legati al suo utilizzo e
disfunzioni psico-sociali fra utenti di computer e lavoratori.
Questo scritto sostiene che le relazioni fra uomo e computer
sono diventate problematiche, principalmente a causa della
confusione fra ciò che è umano è ciò che è meccanico. La
metafora computazionale ha catturato l’immaginazione di molti al
punto che essi rifiutano il presente meno perfetto del mondo
attuale per il futuro perfetto del mondo del computer. Il
problema è esacerbato dall’accettazione della metafora
computazionale nella maggioranza dei trattamenti e utilizzi
circa i computer da parte di operatori e lavoratori. Alcuni
scienziati e pensatori hanno cominciato ad esplorare e suggerire
metafore alternative al fine di comprendere meglio
l’intelligenza umana e la sua struttura con l’obiettivo di
migliorare l’insegnamento e l’abilità nel pensare degli
studenti. Comunque, la metafora computazionale non può essere
superata facilmente. Essa ha un supporto teorico e scientifico
formidabile, come testimoniato dalla forza del movimento
dell’intelligenza artificiale e del dibattito irrisolto sull’AI.
Questo scritto conclude che la nuova disciplina del
computer criticism
offre la possibilità di cominciare a situare il dibattito circa
il computer e la
metafora computazionale all’interno del più largo ambito
culturale relativo al linguaggio ed al pensiero».
[6]
La fonte è la stessa specificata nella nota 3
[7]
G. Deleuze, F. Guattari, L’anti-Edipo. Capitalismo e schizofrenia, Einaudi, Torino 2002
[8]
Ibidem.
[9]
Silvano Tagliagambe, Dal cognitivismo al Costruzionismo.
Fonte:
http://www.mce-fimem.it/ricerca/eduscientifica/Silvano%20Tagliagambe/Costruzionismo(1).doc
[10]
«I paesaggi
virtuali del digitale divide (divario digitale) contemporaneo
promettono la realizzazione della felicità (intesa come una
perfetta integrazione nell’universo della comunicazione) e
sostengono l’idea del cyberspace come luogo di perfetta equità e
totale libertà, mettendo tra parentesi il suo essere,
innanzitutto, uno spazio economico o, almeno, regolato dalle
leggi dell’economia e del controllo degli accessi. Nella pretesa
dell’architettura digitale di offrirsi come totalmente visibile
e di trasformare l’opacità della realtà in un rendering
«trasparente» e lucido, l’esperienza fisica (a cominciare dal
corpo) si configura come pratica di rottura, perché le sue
reazioni non possono essere controllate o previste in maniera
determinata e lo stesso desiderio – al di fuori dei canoni
suggeriti dal format digitale – non può essere automaticamente
deviato verso semplici forme di consumo.
La tecnologia rende oggi possibile
l’utopia, ma non ne spiega le ragioni: resa praticabile nelle
sue forme esteriori, l’utopia si rivela priva di speranza, cioè
di ogni possibilità di
«incontro con se stessi». Prefigura un paesaggio
idilliaco da cui è cancellato lo sforzo, rimossa ogni traccia di
difficoltà: lungo le sue superfici traslucide, tutto scorre
senza essere veramente trattenuto. Lo «sporco» del disegno non
ne contamina la persuasiva suggestione di levigatezza e le sue
promesse di libertà cadono come suadenti parole in un vuoto non
più modificabile, ma solo occupabile».
Testo tratto da: Fulvio Irace,
La nuova Utopia, Domus
n. 935, Aprile 2010.
[11]
Ferdinand de Saussure chiama semiologia la «scienza che studia
la vita dei segni nel quadro della vita sociale». Il segno
linguistico non unisce una cosa ed un nome ma «un concetto ed
un’immagine acustica». Concetto ed immagine acustica sono entità
psichiche unite strettamente tra loro. Per evitare ambiguità
terminologiche, Ferdinand de Saussure chiama queste due entità
psichiche significato e significante […].
Hjelmslev introduce, inoltre, i
concetti di espressione e contenuto al posto di quelli di
significante e significato. Espressione e contenuto sono piani
legati solidarmente tra loro, sono funtivi di una funzione
segnica. Secondo Hielmslev, il pensiero, se non espresso, non è
contenuto linguistico e dei suoni emessi senza pensare non sono
espressione linguistica.
Tratto da:
www.bolognadue.it/angelorizzi/tecap21.htm.
[12]
G. Deleuze, F. Guattari, L’anti-Edipo. Capitalismo e schizofrenia, Einaudi, Torino 2002.