PAGES

Appunti di Sociologia della Comunicazione – A.A.2018-19 – Parte I

SOCIOLOGIA DELLA COMUNICAZIONE

(PARTE PRIMA)

APPUNTI NON REDAZIONATI AD USO SCOLASTICO.   – IED 2018-19.

Appunti di Sociologia della Comunicazione – parte II – versione PDF

Grossomodo tutti sanno o credono di sapere che cosa sono la sociologia o le scienze sociali in generale.

In linea di massima si ritiene che siano delle discipline che studiano l’uomo e la società, le istituzioni, le relazioni sociali e i fondamenti della vita sociale.

 

In particolare la sociologia è comunemente definita come uno studio scientifico della società o, se volete, dell’azione sociale e dei rapporti intersoggettivi al fine di interpretarli.

 

Da un punto di vista storico o, meglio, dei processi che la strutturano e la de-strutturano la sociologia è una delle scienze empiriche (o, prasseologiche) del diciannovesimo secolo, nate, nell’alveo del positivismo come risposta ai cambiamenti innovativi e per buona parte imprevisti introdotti dalla modernità.

 

Davanti a un mondo, che appariva sempre più piccolo e integrato e a un’esperienza interpersonale sempre più parcellizzata e dispersiva, la sociologia rappresentava la speranza non solo di capire che cosa univa tra di loro gli individui e i gruppi sociali, ma anche di rimediare alle molteplici forme di disgregazione e di conflitto sociale e culturale in atto.

 

Va aggiunto e evidenziato che all’inizio e per molto tempo fu una disciplina del mondo occidentale elaborata da una cultura permeata di eurocentrismo e istanze colonialiste, solo dopo due guerre mondiali e l’inizio del fenomeno della globalizzazione si diffuse nel resto del mondo, non senza qualche difficoltà che in alcuni casi giunse fino al suo rifiuto o a una sua radicale revisione.

***

Sapientia prima est stultitia caruisse.
Orazio.

 

La sociologia, un tempo definita come una fisica dei fenomeni sociali, da un lato, rappresenta uno dei più efficaci paradigmi per la comprensione della complessità, che caratterizza il mondo moderno, dall’altro, costituisce uno degli strumenti più utilizzati per conoscere il modo di formarsi della cultura, dei valori, degli stili di vita e dei nuovi mutamenti sociali, come sono la globalizzazione dei mercati, l’affermarsi delle società multietniche, l’incidenza dei mass-media sulle mode, i costumi e le abitudini, l’avanzare delle tecniche digitali.

 

L’obiettivo di questa disciplina è quello di illustrare le dinamiche che conciliano e spiegano il divenire delle esperienze, le passioni e il fare degli uomini con la cultura dei segni, delle forme sociali e delle neo-tecnologie che dominano la modernità e le sue rappresentazioni.

Così come di educare gli uomini a decifrare i significati del mondo reale (vissuto) che si nascondono dietro le architetture della rappresentazione e dei suoi simulacri e essere capaci di governarli.

 

In breve, la sociologia si configura come un punto di vista particolare sulla realtà umana, come una ricerca sull’uomo in quanto individuo sociale che vive in collettività consapevole che è la memoria del vissuto che produce la storia, da un senso al presente e configura la sua identità.

In sostanza la sociologia si occupa della società come un prodotto umano e dell’uomo come un prodotto sociale.  Per questa disciplina, è l’esperienza del vissuto che istituisce il tempo della storia e la sua agenda sociale!

 

Per riassumere, il nostro corso di sociologia esamina:

– il divenire della società e delle sue configurazioni sociali.

– le relazioni e le correlazioni che organizzano i fenomeni della vita corrente.

– i rapporti tra le varie componenti che istituiscono e definiscono i sistemi sociali.

– le interdipendenze tra i valori, i significati e i simboli che compongono la cultura e che sono in continua trasformazione.

– i fattori e le modalità dell’azione sociale e della sociabilità.

– i linguaggi condivisi (Che consentono la costruzione di un senso che orienta i comportamenti).

– la costituzione e il funzionamento – attraverso le forme di governo – dell’organizzazione civile e delle forze che in qualche modo la determinano.

 

Prima di procedere proviamo a descrivere cos’è la società come un prodotto della cultura.

Nell’accezione più comune il termine definisce ogni genere di legami esistente tra gli esseri viventi, solo siano essi animali o umani, considerando però il fatto che la società umana si distingue da tutte le altre perché nasce,vive e si sviluppa tramite un insieme di credenze e di rappresentazioni culturali .

Non va dimenticato, sul filo della storia, che è nella stagione del positivismo – che segue quella dell’Illuminismo francese – cioè, è all’inizio dell’800 che la sociologia nasce e si forma per un accumulo di conoscenze ritenute oggettive e razionali, tanto che la sua storia per molto tempo ha camminato a fianco a quella dell’idea di progresso.

Successivamente, nel corso della seconda metà del diciannovesimo secolo, si formeranno le grandi scuole con le loro teorie e i loro protagonisti.

 

Oggi siamo alla fine di una fase che molti definiscono contestualistica.

Per intenderci le teorie sociologiche sono trattate come se fossero degli strumenti ideologici per adattare il comportamento degli uomini ai bisogni dell’epoca e ai suoi oggetti sociali.

In un’ottica politica è come dire che le diverse sociologie, in cui si divide lo studio della società, sono diventate dei mezzi con i quali si legittima l’ordine sociale, sia esso improntato alla conservazione, che al progresso e all’innovazione.

 

Diciamo che la sociologia è la scienza che studia con i propri metodi e strumenti d’indagine i fondamenti, i fenomeni, i processi di strutturazione e destrutturazione, le manifestazioni della vita associata e le loro trasformazioni.
In questo senso è stata anche definita come la scienza dei fenomeni sociali.

 

Per le scienze sociali un fenomeno sociale è caratterizzato dalla proprietà di esistere al di fuori delle coscienze individuali, così gl’individui se li trovano di fronte come delle realtà che preesistono loro e che sono indifferenti alla loro presenza.

In secondo luogo, i fenomeni sociali sono  anche dotati di un certo potere imperativo e coercitivo in forza del quale s’impongono agli individui con o senza il loro consenso.

 

Il termine di sociologia fu coniato nel 1824 dal filosofo francese Auguste Comte (1798-1857) che, nel suo Corso di filosofia positiva, pubblicato nel 1839, la impiegò al posto di un’espressione allora più popolare, quella di fisica sociale.

Un’espressione che era stata coniata nella seconda metà del ‘700 per definire lo studio positivo delle leggi fondamentali proprie dei fenomeni sociali.

Questa idea di una fisica sociale, come strumento per studiare gli uomini, può sembrare curiosa ma nella seconda metà del diciottesimo secolo serviva a rivoluzionare un certo modo di vedere il mondo, a capovolgere le certezze centenarie, a seminare il dubbio là dove gli antichi saperi costituiti avevano i loro capisaldi, costruiti – il più delle volte – sulla sabbia dei luoghi comuni.

 

Il termine positivismo (che compare nel titolo del libro di Comte) fu impiegato per la prima volta da  Claude Henri conte di Saint-Simon (1760-1825)  per definire un metodo esatto, dal punto di vista scientifico, con il quale fosse possibile affrontare i grandi temi con i quali la società e gli uomini devono in continuazione misurarsi.

L’idea da cui partì la ricerca di questo metodo affonda nelle tesi dell’Illuminismo, in particolare dai lavori di Jean-Baptiste d’Alembert (1717-1783) e Jacques Turgot (1727-1781).

In prospettiva possiamo dire che il positivismo contribuì a divulgare  i principi o la necessità di una organizzazione scientifica della società (soprattutto di quelle industriali) dando un senso ad un grandissimo fenomeno, sociale, politico ed economico, il fenomeno della tecnica, intesa come una scienza dei mezzi, che si materializza nella tecnologia e da vita alla civiltà industriale.

 

Brevemente le tesi fondative del positivismo si possono sintetizzare così:
La scienza è l’unico strumento di conoscenza reale (dunque, possibile) del mondo da cui ne consegue che solo i principi scientifici e le cause analizzabili con il metodo delle scienze possono dare origine alla conoscenza.

 

Come mostra la storia di questa corrente di pensiero oltre che nel discorso delle scienze dell’uomo, il paradigma del positivismo (nel corso dell’Ottocento) penetrò nella medicina, nella politica, nella giurisprudenza, nell’insegnamento, nell’economia, nella filosofia e in molte altre discipline ancora.
La parola sociologia rimanda dunque a un discorso sull’individuo come membro della società, cioè, ad una disciplina che studia il fondamento dei rapporti intersoggettivi (tra soggetti) come se fossero una scienza, cercandone un senso, una ragione, un obiettivo sociale.

 

Nella scia delle teorie formulate da Auguste Comte incontriamo Herbert Spencer (1820-1903), un filosofo inglese di orientamento positivista, con grandi interessi per la psicologia, considerato il padre della filosofia evoluzionistica.

Spencer è l’autore di un trattato di sociologia in cui, per la prima volta, le teorie di Charles Darwin (1809-1892) sull’evoluzione sono applicato alle scienze sociali.

 

L’evoluzionismo – come visione del mondo – ha avuto, nell’ambito del discorso sociologico, il merito di focalizzare l’attenzione sul legame tra passato, presente e futuro.

Possiamo dire che ha sottratto il passato al suo destino di storia morta, facendolo apparire come un materiale vivente, o con un’immagine positivista, come il materiale geologico con cui l’uomo costruisce il suo presente, cerca d’immaginare il suo avvenire e gli dà un senso che non ha l’arbitrio di un destino ineluttabile .

 

Insieme a Spencer possiamo ricordare John Stuart Mill (1806-1873), filosofo ed economista inglese, studioso di un particolare capitolo delle forme economiche, le forme espresse dall’utilitarismo.

L’utilitarismo, in estrema sintesi, è una dottrina che elabora i modelli di comportamento economico che guidano le scelte individuali.
Di per sé le tesi sull’utilitarismo sono molto antiche, si possono far risalire a Epicuro, vale a dire, al quarto secolo circa prima dell’era comune.

L’utilitarismo elaborato da Mill tende a legare il bene con l’utile e a trasformare l’etica e le forme della morale, in una scienza della condotta umana.

Mill in Inghilterra è ricordato con simpatia, soprattutto dalle femministe, perché fu uno strenuo partigiano del diritto delle donne al voto.

 

Sempre per restare nell’ambito dell’utilitarismo inglese ricordiamo un altro suo padre nobile,  Jeremy Bentham (1748-1832).

Bentham è un filosofo riformatore fautore, in sede politica e legislativa, di un grande disegno organico di riforme sociali fondate sull’equità per tutti.
Questo filosofo è conosciuto nei paesi di lingua inglese come il filosofo della felicità, per aver posto questo sentimento a guida e a motore dell’azione degli uomini.
Le sue tesi possono essere riassunte in questo principio: Il dovere dei legislatori, vale a dire dei parlamenti e dei governi, è quello di assicurare il massimo della felicità possibile al maggior numero possibile di individui.

Va ricordato che la parola felicità compare come un diritto inalienabile dei cittadini insieme alla vita e alla libertà nella Dichiarazione d’Indipendenza Americana del 4 luglio 1776.

È una prova indiretta della popolarità delle tesi di Bentham (quando era ancora in vita) nell’area dei paesi di lingua inglese.

 

Tornando a Mill.
Per questo filosofo la sola conoscenza possibile è quella empirica e è il metodo della logica che deve guidarla.

Cioè, un metodo per creare inferenze (l’inferenza in logica è un processo per trarre conclusioni dai fatti presi in esame) fondato sull’induzione e la deduzione e, in sub-ordine, sull’abduzione (che è una sorte di sillogismo debole), improntato ad un certo realismo metodologico.
Temi che Mill affronta in un libro famoso, intitolato Sistema della logica deduttiva e induttiva, uscito a Londra nel 1843.

 

Spostiamo il nostro punto di vista.

 

Nelle cosiddette società primitive o tribali non esisteva il problema di dover conoscere e riflettere sui fondamenti dell’ordine sociale.
I rapporti interpersonali all’interno di queste comunità erano basati principalmente sui vincoli di sangue, di latte, di parentela e, non da ultimo, su legami di natura magica o sacra.

Erano società semplici, con strutture organizzative elementari, poco dinamiche, con scambi e contatti ridotti con le altre realtà sociali esterne ad esse, spesso improntati a una certa conflittualità.

Tutto ciò però andò in crisi per due circostanze:

– La prima è la crescita demografica, che si ebbe grazie alla diffusione delle culture cerealicole a cominciare da quella regione che oggi viene definita della “mezzaluna fertile” e che corrisponde grossomodo al Medio-Oriente e, conseguentemente, con la nuova complessità sociale che questo comportò.

Nella storia dell’uomo la cosiddetta svolta cerealicola anticipa la nascita delle città.  Fece aumentare i tassi di natalità e stabilizzò i nuclei familiari che poterono contare sulla certezza di potersi nutrirsi.

– La seconda circostanza si ebbe con il diffondersi dei commerci, dei viaggi e dei trasporti, che fecero collassare le obsolete strutture di tipo ancestrale.

Questo collasso gli storici lo fanno risalire, per quanto riguarda l’area del Mediterraneo, al settimo/sesto secolo prima dell’era comune, a partire dalla Grecia, che allora esprimeva il modello di società più evoluta.
Sono gli anni che vedono nascere la forma della città-stato, delle polis.
Città che, sia pure in forma embrionale, hanno inventato e sviluppato al loro interno delle configurazioni sociali complesse, in continuo movimento e spesso concorrenti tra di loro.

Da un punto di vista funzionale, in queste città-stato l’organizzazione comunitaria cominciò a formarsi faticosamente intorno a due temi chiave contrapposti, della solidarietà sociale e dell’interesse economico.
La considerazione più importante è che queste micro-società diventarono con il tempo dinamiche, improntate, cioè, a un costante mutamento.

Le società primitive erano invece società statiche, lente, fondate su valori considerati sacri, che si ritenevano divini, eterni e indiscutibili.
La città-stato greca, invece, è estremamente articolata, fluida e in qualche misura laica.
Dalla polis è poi derivata la tà politikà, la scienza degli affari pubblici, la politica, che qui possiamo definire come l’insieme dei problemi che riguardano la polis dal punto di vista dell’esercizio del potere nel quadro della forma di Stato.
Problemi che, nella sostanza, erano la conseguenza e il riflesso di due preoccupazioni principali.
– Elaborare nuove forme di legittimazione e di delega per coloro che dovevano guidare la polis, in pratica, esercitarne il governo.  È il cosiddetto tema della rappresentanza.

– Trovare e definire quelle regole che, se osservate da tutti, garantiscono la pace sociale e fanno prosperare il cosiddetto bene comune.
Diciamo che è dallo sviluppo di queste considerazioni che ha origine la teoria contrattualistica della società.
Ne fu uno degli artefici principali un filosofo inglese, Thomas Hobbes (1588-1679).

Thomas Hobbes studiò a Oxford ma la sua formazione fu caratterizzata dai suoi continui contatti con l’ambiente culturale europeo.

Visse a lungo a Parigi, dove conobbe Cartesio.

La sua opera più importante fu il Leviatano, pubblicato nel 1651.

In linea generale possiamo dire che la filosofia di Hobbes rappresentò, nel XVII secolo, un’alternativa alla filosofia di Cartesio, non solo perché la filosofia di Cartesio era legata alla metafisica, mentre quella di Hobbes era legata a presupposti materialistici, ma anche perché i due filosofi scorgeranno nella ragione capacità cognitive diverse.

La filosofia di Hobbes ha come unico scopo quello di porre i fondamenti per una società pacifica e ordinata che lui pensava fosse possibile solo grazie ad un potere assoluto dello stato.

Era convinto che fosse inutile una filosofia basata sulla metafisica,  per questo cerca di creare una filosofia puramente razionale, che escluda il soprannaturale, che escluda ciò che fu affermato dagli autori antichi e che prenda spunto esclusivamente dalla natura.

Egli fu il primo ad affermare in modo chiaro e convincente l’assoluta necessità di una scienza politica, considerato che l’uomo è un animale egoista.

Il punto di partenza di questa teoria è che il mondo dell’agire umano è retto da leggi analoghe a quelle dell’ordine naturale.
In questo modo, pensava Hobbes, si può arrivare a sviluppare una scienza della società umana che ha la stessa oggettività delle scienze esatte, come la geometria o la fisica, considerazione da cui deriva il convincimento che la società e il potere politico non sono affatto naturali per l’uomo, ma costituiscono una convenzione (un compromesso) per mettere fine allo stato d’insicurezza permanente che caratterizza lo stato di natura.

Per Hobbes le origini della società sono fondate su un patto, su di una specie di contratto liberamente sottoscritto, e, attraverso la rappresentanza politica, condiviso dai cittadini i quali, per sottrarsi al disordine dello stato di natura come stato a-sociale, caratterizzato dalla lotta di tutti contro tutti (homo homini lupus), avrebbero convenuto (come male minore) di sottoporsi al governo di un sovrano assoluto.

Appare – come qui è esposta – una teoria semplicistica, ma non va sottovalutata, soprattutto alla luce delle implicazioni che ha avuto nel suo tempo.

 

Vediamo le due principali.
1 – Pensata in questo modo la società diventa una costruzione storica, un prodotto convenzionale privo di una sua necessità ontologica (a limite anche teleologica) o di un destino, cioè, di “un dover essere così”…per esempio, per volere di Dio o di un ente superiore.

2 – Poi, come sosterranno le correnti illuministiche settecentesche, se la società scaturisce da un patto tra gli uomini, questo patto si può anche rivedere e, magari, riformulare più o meno radicalmente.
Nulla esclude, poi, che la revisione di questo patto possa avvenire anche con una rivoluzione, come sogneranno molti uomini dell’Ottocento europeo e tutti i movimenti riformatori d’ispirazione socialista.

 

L’altro grande protagonista di quel pensiero della politica che trasformerà per sempre la cultura occidentale è Charles-Louis di Montesquieu (1689-1755), filosofo e saggista francese.

Con Hobbes rappresenta il fondatore della dottrina politica moderna, il a formulare la teoria della divisione dei poteri.

La sua opera maggiore, De l’esprit des lois, fu pubblicata a Ginevra nel 1748.

 

Di lui vanno ricordate anche le Lettres persanes, che uscirono anonime a Amsterdam nel 1721, in cui tratta in modo letterario molti motivi tipici del suo pensiero, come la polemica contro le dispute religiose e l’intolleranza, la funzione morale e sociale della religione, il rifiuto del dispotismo, la difesa dei parlamenti come garanzia di libertà.

 

Ne l’Esprit des lois egli scrive, “molte cose guidano gli uomini: il clima, la religione, le leggi, le massime di governo, le tradizioni, i costumi, le usanze. Dalla confluenza di queste cose si forma uno spirito generale, che ne è il risultato”.

Per il suo tempo egli distingue tre tipi di governo possibile: repubblicano, monarchico, dispotico.

Il governo repubblicano, poi, può essere democratico o aristocratico.

L’aristocrazia, però, distingue tra nobili e popolo perchè i nobili formano una classe che per difendere i propri interessi reprime il popolo.

Da qui la necessita di una scienza della politica che distingua e renda autonome i tre poteri che possono difendere la libertà e l’equità.

Sono:

– il potere legislativo.

– il potere esecutivo.

– il potere giurisdizionale o giudiziario. …

::::::::::::::::::::::::::

Il Settecento, come abbiamo detto fu il secolo dell’Illuminismo e degli enciclopedisti francesi che raccolsero e svilupparono l’eredità dell’empirismo inglese.

L’Illuminismo è un movimento di idee caratterizzato dalla convinzione di poter risolvere i problemi della società con i soli lumi della ragione e a dispetto di ogni rivelazione religiosa o di ogni tradizione.

È il secolo di Diderot, D’Alembert, Rousseau, Helvétius, Voltaire e dei primi filosofi materialisti come Paul-Henry barone d’Holbach.

Proviamo adesso, ad intrecciare la domanda relativa a quando è nata la sociologia con quella che si interroga sulle ragioni della sua comparsa.

Questo perché è importante capire, prima di procedere oltre, il motivo per il quale la sociologia e, in generale, tutte le scienze sociali e/o empiriche (o prasseologiche) hanno avuto la loro culla nel corso dell’Ottocento.
Sono scienze che nel loro specifico campo di studi, ereditano, sia pure in misura diversa, il patrimonio della filosofia classica e in un certo modo, i suoi progetti.

Nel complesso queste scienze rappresentano il tentativo di reagire ad una crisi di portata epocale, la crisi della metafisica, cioè, di quel discorso ideale sulle cose del mondo che si pone oltre la fisica e oltre gli aspetti materiali della mondanità.

 

Diciamo che la metafisica è una dottrina filosofica che si auto-definisce come una scienza della realtà assoluta, capace di fornire una spiegazione delle cause prime della realtà prescindendo da qualsiasi dato dell’esperienza.

In breve la metafisica è quella parte della filosofia che, andando oltre gli elementi contingenti dell’esperienza sensibile, si occupa degli aspetti ritenuti più autentici, sacri e fondamentali della realtà.

 

Questa crisi della conoscenza corre parallela alla nascita dell’idea di modernità che, per convenzione, la maggior parte degli storici fa risalire alla Rivoluzione francese, vale a dire al 1789.

Una delle prime definizioni di modernità appare per la prima volta in un testo di Honoré de Balzac (1799-1850) per indicare la presa di coscienza della singolarità dell’epoca, in materia letteraria ed artistica, in rapporto al passato.

Per estensione, poi, la modernità è diventata il carattere proprio di un mondo, una società, un’epoca che sa che il passato non rinvia più a nulla.

C’è però un idea di modernità molto popolare che interessa questo corso di studi. È quella che riguarda il mondo delle arti.

Nasce in Francia con il Secondo Impero (1852-1870) e si oppone all’arte accademica – in seguito definito stile pompier –  un arte indipendente che si proclama realista e che conosciamo meglio nella sua evoluzione impressionista.

 

In nome della modernità, come ci mostrano gli avvenimenti storici, il realismo opera una serie di rotture.

In politica con il radicalismo, perché i pittori realisti o naturalisti sono repubblicani e si oppongono ai disegni imperiali di Napoleone III.

Nell’estetica, perché questi artisti detestano le grandi scenografie mitologiche e le maestose mitografie dei pittori accademici, rivendicando la bellezza semplice della natura.

Nell’ambito della questione sociale, perché essi provengono – salvo qualche eccezione- dal  mondo popolare, difendono la democrazia e detestano l’aristocrazia al potere.

Perfino nel modo di pensare l’ambiente, rivalutando la campagna contro il moltiplicarsi degli appetiti dell’industria e del capitale che sta cambiando la geografia del territorio.

 

Sul tema della modernità ricordiamo che qualche anno fa un sociologo di origini polacche, Zygmunt Bauman ha introdotto il concetto di  modernità liquida (il saggio omonimo Liquid Modernity è del 2000, la traduzione italiana del 2006) nel tentativo di spiegare la post-modernità.

Questa modernità liquida è una metafora di quel potere che è capace di dissolvere le tradizioni, le istituzioni e perfino la stessa morale, tipico del capitalismo globalizzato.

Si caratterizza per l’impossibilità degl’uomini di individuare dei punti di riferimento stabili – necessari  alla costruzione di una propria identità sociale – e nell’ansia che ne consegue, un’ansia che si invera nel concetto di precarietà economica e dei valori morali.

 

Proseguiamo.

Dal punto di vista delle scienze sociali la crisi della conoscenza classica si colloca tra la fine del Settecento e l’inizio dell’Ottocento.

Sono gli anni in cui si conclude anche la parabola dell’Illuminismo, che aveva mostrato come il mondo che abitiamo fosse più complesso di quello che sembrava e ancora per buona parte inspiegabile.

Una inspiegabilità che metteva in luce come, con il proseguire della conoscenza sperimentale, tutte le idee semplici ed astratte e tutte le invocazioni della fede religiosa non servissero più a nulla.
Questa crisi, che inizia con il dissolvimento del pensiero della metafisica, può anche essere interpretata come una crisi dell’idealismo e delle sue speranze e un grande impulso a rivalutare i fatti e le loro logiche.
In altre parole, con la Rivoluzione francese giorno dopo giorno l’antico affresco del mondo che era stato dipinto a cominciare dalla filosofia greca va in pezzi dando vita a tutta una serie di tentativi per porvi rimedio.

Generalmente si chiamano conservatori o reazionari gli sforzi impiegati a ricomporlo e progressisti o rivoluzionari quelli impiegati per approdare a nuovi e più avanzati equilibri.

 

Ma, c’è anche un fatto nuovo, decisivo per il mondo Occidentale, l’avanzare prepotente in tutti i campi della vita corrente, dagli affari alla politica, dalla morale al governo delle nazioni, di una nuova classe sociale, quella che aveva vinto la Rivoluzione francese e che adesso esigeva che le venissero riconosciuti quei diritti per i quali aveva preso le armi: la borghesia.

Il 14 luglio 1789 il popolo di Parigi prende d’assalto la Bastiglia, ma nel suo diario Luigi XVI, quello stesso giorno scrive una sola parola: Rien.

Siccome le idee non cascano dal cielo, ma si formano e si sviluppano tra gli uomini, una tale rottura epocale – che questo aneddoto descrive in modo vivido e che da vita alla modernità e a tutte le sue convulsioni – è soprattutto l’effetto di questa nuova classe in ascesa.

 

La sociologia, dunque, come scienza della società, non poteva nascere in un altro momento.
Questa disciplina era funzionale ad un nuovo modo di vedere il mondo, rispondeva alle aspettative di una classe sociale alla ricerca di un’identità all’altezza della sua storia, fino al punto che non solo ne esprimeva i suoi caratteri, ma arrivava a rafforzarla nelle sue consapevolezze e nelle sue determinazioni e, in prospettiva, nei suoi errori.

La sociologia, soprattutto all’inizio, ha poi contribuito a diffondere, perlomeno tra le classi dominanti, due grandi miti dell’Ottocento:

– il mito della tecnica, più specificatamente, della macchina.

– il mito del progresso (o, dell’idea di progresso), come speranza di un futuro radioso per un numero d’individui sempre più numeroso.

Questo secondo mito rappresenta una fiducia, per molti illimitata, per altri ingenua, nell’avanzamento continuo e instancabile della scienza e con essa delle condizioni materiali e spirituali dell’umanità.

 

Abbiamo accennato a come il positivismo abbia in qualche modo orientato, nel corso dell’Ottocento, le principali ricerche intorno al tema della società e delle sue leggi, mentre alle sue spalle si scolorivano e si dissolvevano le strutture e i valori tradizionali dell’Ancien Régime.

In questo contesto maturarono molte ricerche e si aprirono, spesso in modo esagitato, confronti e dibattiti su concetti, teorie o riflessioni che oggi appaiono popolari, ma che allora sembravano irriverenti, improponibili, blasfemi o addirittura intoccabili.

Per esempio:

Si cominciarono ad affrontare i temi del rispetto culturale dell’Altro, come individuo, e dei popoli come una forma sociale d’identità d’accettare e comprendere.

Della cooperazione internazionale come strumento per un sentire comune delle differenze culturali, sociali e politiche.

Si cominciò a sviluppare l’idea di nazione e di solidarietà sociale.

Si diffuse il principio dell’assistenza agli indigenti e ai malati, l’idea di consenso come base di ogni democrazia, la pratica del suffragio elettorale per eleggere i parlamenti.

Si cominciò a riconoscere il diritto al voto delle donne.

Molti paesi introdussero il divorzio che, implicitamente, trasformava il matrimonio da sacramento divino a semplice contratto tra un uomo e una donna.

Si cominciò a riflettere sul controllo delle nascite.

Sono in buona sostanza temi che ancora oggi costituiscono (o, dovrebbero costituire) la spina dorsale delle democrazie occidentali.

 

Con il nostro secolo, poi, i temi che dominano il mondo sono ancora una volta cambiati radicalmente.

Oggi si parla di contemporaneità.
Secondo i sociologi e i politologi questa società contemporanea si caratterizza per almeno tre aspetti:

– Una spinta globale all’interconnessione attraverso dei sistemi di rete sempre più estesi all’intero pianeta.

– Una evoluzione degli stili di vita sempre più rapidi e profondi che sono, per la prima volta nella storia dell’uomo direttamente legati all’innovazione tecnologica.

– Una trasformazione dell’ambiente e dell’habitat di un’ampiezza senza precedenti dovuta a dei fattori evolutivi di natura sociale, culturale, economica e tecnologica.

Quello che più conta, però, è un’altra cosa ancora.
Si stima che questi mutamenti siano di natura irreversibile e che coinvolgano direttamente tutti, sia pure in modi differenti, a partire dal quotidiano, cioè, dal nostro modo di concepire la convivenza umana.


Alcune note sul concetto di cultura.

Prendiamo in considerazione adesso un concetto chiave degli studi sociologici, il concetto di cultura.

Prima di esaminarlo in dettaglio vediamo come l’UNESCO l’ha definita nella “Dichiarazione di Messico City” sulle politiche culturali del luglio-agosto 1982.
La cultura nel suo significato più ampio è considerata come l’insieme dei tratti distintivi, spirituali, materiali, intellettuali ed affettivi, che caratterizzano una società, un gruppo sociale o un individuo.

Subordinata alla natura essa ingloba, oltre che l’ambiente, le arti e le lettere, i modi di vita, i diritti fondamentali dell’essere umano, i sistemi di valore, le tradizioni, le credenze (in buona sostanza le religioni) e le scienze.
Di fatto, a livello politico internazionale si volle riconoscere che ogni società umana possiede una propria cultura, che si distingue dalle altre.

Questa cultura deve saper ammettere l’esistenza delle altre culture e al limite accoglierle.
In questo ambito, il multiculturalismo è l’espressione di una speranza, che le culture siano riconosciute, s’incontrino, si mescolino, si misurino e, soprattutto, si trasformino e si evolvano.
Quello che è problematico è che in questa fase della mondializzazione (globalizzazione) nessuno sa ancora dire se questa evoluzione si muove verso una maggiore diversità, verso delle nuovediversità o verso unaomologazione più o meno importante.

 

 

 

La definizione di cultura nelle scienze sociali è sempre stata al centro di ampi dibattiti.

Il motivo è facile da comprendere, i suoi diversi significati non riflettono solo una diversa visione del concetto di cultura in sé, ma una differente valutazione della realtà.
Una delle prime definizioni di cultura che si allontana dal paradigma illuminista, cioè da una visione etnocentrica della prima antropologia, e sottolinea il carattere relativo della cultura, è quella di Edward Burnett Tylor (1832-1917) un antropologo inglese che nel 1871 definisce la cultura come il complesso che include le conoscenze, le credenze, l’arte, la morale, il diritto, le abitudini e gli oggetti materiali acquisiti dall’uomo come membro di una comunità.
I successivi sviluppi dell’antropologia (con Bronislaw Malinowski (1884-1942) un antropologo polacco naturalizzato inglese, Marcel Mauss (1872-1950) un sociologo eantropologo francese, il più famoso allievo (nonché nipote) di Durkheim, e Claude Lévi-Strauss (1908-2009) il fondatore dell’antropologia strutturale francese o, meglio, della sua corrente strutturalista, sottolineeranno ancora di più la dimensione relativista, evidenziando il fatto che solo immergendosi senza preconcetti nel tessuto culturale della comunità presa in esame, se ne possono comprendere i suoi significati.
Al centro del significato di cultura ha poi progressivamente guadagnato importanza da una parte il concetto di vita corrente (vale a dire dei ruoli, delle aspettative, delle credenze, dei miti, dei riti e di tutte le pratiche che strutturano l’agire quotidiano), dall’altra, la sua natura di congegno cognitivo per dare un significato al mondo e farne emergere le identità che lo compongono, pur nelle loro diversità.
Gli sviluppi più recenti degli studi sul concetto di cultura hanno poi posto l’attenzione sui limiti delle definizioni di natura statica, perché se da una parte sono in grado di descriverne l’aspetto, dall’altra acuiscono le differenze, facendo sembrare le culture delle entità astratte nelle quali risulta svalutato lo spazio delle autonomie individuali o dei piccoli gruppi.
James Clifford, un antropologo americano della corrente definita de-costruttivista (insegna storia della conoscenza in California) ha introdotto, sulla scia di queste critiche, l’ipotesi che la cultura non è un bagaglio di modelli definiti, ma un insieme di possibilità e vincoli che strutturano la realtà in un processo dinamico, che si nutre di una continua ibridazione anche con altre culture.

In sostanza si è passati da una visione di cultura come “roots” (radici) ad una come “routes” (percorsi).
Un’altra definizione di cultura è quella elaborata dell’antropologo americano Clifford Geertz (1926-2006), il quale accomuna, per analogia, l’idea di cultura a una rete di significati che gli individui hanno creato e continuano incessanemente a ricreare.

Una rete nella quale essi sono allo stesso tempo i protagonisti e i compromessi.

In sostanza si può asserire che la cultura è sempre stata al centro del discorso sociologico anche se l’interesse non è tanto verso la comparazione con le altre culture, ma piuttosto al ruolo che essa gioca all’interno del sistema sociale.

 

Antonio Gramsci (1891-1937) che qui prendiamo in considerazione non come un politico avversato dal fascismo, ma come uno studioso della cultura popolare,  riprendendo l’approccio critico del pensiero marxiano, introdusse il concetto di egemonia culturale per identificare quei processi di dominio da parte di una classe che impone la propria visione del mondo attraverso le pratiche culturali.
Un altro approccio critico alla cultura è quello rappresentato dalla Scuola di Francoforte (tra coloro che ne fecero parte ricordiamo perlomeno Adorno, Horkheimer e Marcuse) che ha elaborato i concetti di industria culturale e di cultura di massa.


La scuola di Francoforte rappresenta un gruppo di studiosi che indirizzarono i loro sforzi intellettuali, intorno agli anni Trenta, verso i temi della filosofia e della sociologia. Il luogo attorno al quale svilupparono le loro ricerche fu l’Istituto di ricerche sociali, con sede appunto a Francoforte.

Il tema principale, oggetto di studio dell’Istituto, fu quello della cosiddetta “teoria critica della società”. Con questa espressione si indica l’elaborazione intellettuale tesa a criticare l’ideologia capitalistica, evidenziandone le falle interne e con l’intento di offrire modelli d’interpretazione alternativi.

 

Theodor Adorno, come la maggior parte dei suoi colleghi, dovette abbandonare Francoforte in seguito alle politiche repressive naziste, per fuggire prima a Parigi e successivamente a New York. Assieme a Horkheimer scrisse il libro Dialettica dell’Illuminismo. Il pensiero sociologico che perseguì ruotò attorno a tre punti:

– il concetto di razionalità strumentale, ovvero l’abuso degli ideali illuministi da parte del capitalismo, con lo scopo di aumentare il consenso e il controllo sull’uomo.

– l’industria culturale, cioè la sistematica opera di omologazione e appiattimento delle diversità degli uomini, al fine creare bisogni sempre più uguali con l’aiuto indispensabile dei massmedia.

– il mito della personalità autoritaria, riprendendo le idee di Horkheimer, che dà alla famiglia la maggiore responsabilità nella creazione del consenso.

 

La Scuola di Francoforte focalizzò la sua attenzione sul concetto di industria culturale per indicare la produzione omologante di modelli culturali attraverso i media e l’industria che favorirebbero una cultura e una società massificata, ossia uniformata, senza stimoli, priva di creatività.

Una cultura destinata a raggiungere il maggior numero di persone, e quindi funzionalmente omogeneizzante.
Un’altra importante scuola di sociologia, quella di Chicago, partendo dall’analisi dei modelli culturali degli emigrati ha studiato i processi d’ibridazione culturale arrivando a mettere in luce la loro relativa dinamicità e autonomia nell’ambito di quel fenomeno che va sotto il nome di melting pot.

La scuola dell’ecologia sociale urbana, meglio nota come scuola di Chicago dalla sua sede, è stata la prima scuola di sociologia urbana negli USA.

Essa comprende un ampio numero di studiosi che operarono a Chicago nei primi tre decenni del XX secolo.

La nascita ufficiale della scuola risale al 1924, quando Robert Park si insediò nel Dipartimento di sociologia dell’università.

Oltre a Park, la scuola ebbe tra i suoi maggiori esponenti Albion W. Small e altri studiosi tra cuiW: Burgess, D. McKenzie.

Essa affrontò per la prima volta uno studio sistematico della città dal punto di vista sociologico attraverso uno studio sul campo della società urbana.

Alla scuola di Chicago si possono aggregare anche altri sociologi successivi, i quali per interessi e metodi appaiono appartenenti allo stesso filone.

Park, studiando la diversa incidenza di fenomeni come la devianza, la criminalità, il divorzio, il suicidio aree urbane ed in quelle rurali, dimostrò che i rapporti sociali e culturali sono strettamente condizionati dall’ambiente di appartenenza.

Dagli anni venti fino agli anni trenta, la sociologia urbana fu prevalentemente sinonimo del lavoro della scuola di Chicago.

I sociologi dalla metà del ventesimo secolo hanno sollevato una serie di critiche sul suo approccio, compresa la nuova sociologia urbana, che enfatizza la dimensione politica.


In linea generale possiamo dire che gli sviluppi più recenti della sociologia della cultura, in relazione soprattutto alle trasformazioni sociali, si concentrano oggi su due concetti fondamentali: globalizzazione e post-modernità.
Di fatto la cultura viene oggi concepita come una rete di significati continuamente riformulata dalle interazioni e dalle pratiche sociali.

 

Un altro approccio recente a questi temi si concentra sull’analisi della cultura all’interno di quel fenomeno definito della post-modernità.

Tra gli autori più attenti a questo tema troviamo Zygmunt Bauman, un filosofo e sociologo polacco oggi molto popolare per le sue tesi sulla società liquida, con le quali arriva a criticare la cultura contemporanea definendola asservita ai consumi e all’immagine/spettacolo.

Com’è facile intuire ogni definizione di cultura riflette gli orientamenti e gli obiettivi di chi la propone, non è dunque un caso che siano un centinaio almeno quelle più conosciute.

A noi, qui, basta elencare alcuni punti salienti.

La cultura, essendo acquisita e non trasmessa biologicamente, non può essere ricondotta ad una base biologica o psicologica, così come non può essere riportata ad una semplice dimensione sociale e questo perché non è tanto la socialità che contraddistingue l’uomo, ma il fatto culturale in sé o, se si preferisce, la sociabilità, che possiamo definire come l’attitudine a vivere in società.

Con la sociabilità, soprattutto in etologia, si studia il modo in cui gli individui della stessa specie si organizzano in società e sviluppano la socialità.
Per le scienze sociali la socializzazione è l’insieme dei processi grazie ai quali gli individui sono integrati nella società in modo tale da condividerne le norme e i valori.
In questa prospettiva l’acculturazione può anche essere definita un modo specifico dei processi di socializzazione.

La socializzazione, in realtà, è un fenomeno complesso che possiamo riassumere dicendo che è un processo di apprendimento che permette agli individui di acquisire i modelli culturali della società nella quale vive.
Di per sé, poi, la socializzazione definisce l’insieme dei meccanismi attraverso i quali l’individuo interiorizza le norme e i valori del suo gruppo di appartenenza e costruisce la sua identità sociale.
Si può distinguere tra una socializzazione primaria ed una secondaria.

La prima è quella che si elabora all’interno della famiglia, della scuola o con i mezzi di comunicazione.

La seconda è quella che si sviluppa a partire dalle grandi tappe della vita, matrimonio, nascite, lutti, eccetera.

La socializzazione è importante perché si interseca sia con i processi d’interazione sociale, che con il fenomeno della riproduzione sociale.

La riproduzione sociale è quel meccanismo sociologico di mantenimento della posizione sociale e dei modi di agire, di pensare e di sentire di una famiglia o di un gruppo chiuso.
Un esempio può illustrarla meglio della definizione.

I figli delle famiglie medio-basse hanno la tendenza a non intraprendere studi molto lunghi o costosi.

Questo fenomeno (di riproduzione sociale) è determinato dalla ineguale ripartizione del capitale economico, culturale e sociale tra le classi.

Di contro, le famiglie delle classi dominanti cercano di mantenere il loro posto nello spazio sociale e, di conseguenza, sono portate a usufruire dell’istruzione migliore o elitaria al fine di riprodurre e aumentare il loro capitale culturale.

 

L’analisi del concetto di cultura, da un punto di vista storiografico, è stato nel corso del Novecento, soprattutto tra gli anni ’30 e la fine della seconda guerra mondiale, uno dei dibattiti centrali delle scienze sociali.

Uno dei libri più interessanti di questo periodo è Patterns of Culture, edito nel 1934 e scritto da Ruth Benedict, un’antropologa americana, allieva di Franz Boas (1858-1942), un etnologo tedesco che lavorò anche negli Stati Uniti, e che, con Edward Burnett Tylor, è considerato uno dei fondatori della moderna antropologia culturale.

 

In sintesi, a quali conclusioni si arrivò in questi anni?
– che il comportamento culturale è determinato socialmente.
– che la natura umana non stabilisce in modo univoco le risposte che l’uomo da ai propri bisogni.
– che la cultura è costituita non tanto da comportamenti individuali, quanto da comportamenti di gruppo, per cui è essenziale, per le scienze sociali, analizzare la struttura e il processo di formazione di questi comportamenti.

È in questo contesto che Ruth Benedict nel 1929 definì la cultura come “la totalità che include tutti gli abiti o i comportamenti acquisiti dall’uomo in quanto membro della società.”

 

Apriamo adesso una parentesi su alcune distinzioni che possiamo fare all’interno del termine cultura dal punto di vista delle sue configurazioni.
La prima è quella che distingue tra cultura dominante, subcultura, controcultura.

Se intendiamo per cultura dominante la cultura egemone in un dato momento in una data area, la subcultura è un aggregato tendenzialmente omogeneo di conoscenze, valori, credenze, stili di vita e modelli di vita capaci di contraddistinguere un gruppo sociale.

Fattori come la classe sociale, l’età, la provenienza etnica, la religione, la lingua, il luogo di residenza e perfino l’orientamento ideologico e politico possono, infatti, combinarsi tra di loro e creare identità culturali in grado di differenziarsi significativamente dalla cultura dominante.

Gli studiosi delle subculture hanno notato che i membri di una subcultura tendono spesso a differenziarsi dal resto della società con uno stile di vita (che si invera nel modo di vestire, mangiare, celebrare le festività, i gerghi, ecc…) simbolici e alternativi a quelli dominanti.

In questo senso lo studio delle subculture si concentra sullo studio dei simbolismi collegati a queste forme di espressione esteriore e sullo studio di come queste vengono percepite dai membri della società dominante.

Di fatto, tanto più una collettività è differenziata tanto più facilmente sarà possibile rintracciare al suo interno delle subculture che producono propri valori.
Tuttavia, più questi valori sviluppandosi si strutturano, più si fa problematico e complesso il fenomeno dell’integrazione sociale, in sostanza, lo sviluppo di una stabilità e di una convivenza pacifica.

In Europa fino a qualche tempo fa si distinguevano principalmente due modelli d’integrazione sociale, quello francese, fondato sui principi laici dell’illuminismo, e quello inglese, basato sul rispetto formale delle differenze.

Negli Stati Uniti d’America, dove da tempo si sono mescolate subculture provenienti dalle più svariate parti del mondo come una conseguenza dei numerosi processi migratori che hanno interessato questa nazione, si definisce melting pot il fenomeno della convivenza che si è realizzata.  Una convivenza con caratteri suoi propri, al tempo stesso fragili e funzionali.

Va notato che l’uso dell’espressione subcultura non implica necessariamente una situazione conflittuale con la cultura dominante, può infatti costituirne soltanto una variante o un elemento ereditato storicamente.

A proposito delle subculture è interessante ricordare questa osservazione di Claude Lévi-Strauss:

Ogni cultura si nutre degli scambi con altre culture, ma occorre che essa opponga una certa resistenza, in mancanza della quale non avrebbe più nulla che le sia proprio da scambiare.

 

L’espressione di controcultura è, invece, più recente, indica una radicalizzazione delle diversità, essa va intesa come un rifiuto etico e comportamentale dell’insieme dei valori e delle norme dominanti.
Nella seconda metà del Novecento è stata soprattutto un fenomeno legato alla contestazione giovanile, oggi invece ha caratteri più ampi e compromissioni linguistiche, religiose, politiche, economiche.

 

Un altro modo di dividere le varie componenti della cultura in sociologia è quello di distinguere tra cultura materiale e cultura non-materiale.
La cultura materiale, in questo contesto, è la cultura delle cose, composta da oggetti, manufatti, prodotti diversi, merci, a cui si possono contrapporre i significati, i valori, i simboli, i linguaggi, e tutti quei prodotti umani non-materiali.

È una distinzione di comodo, perché sia le cose materiali che i valori immateriali hanno senso solo se è noto il significato culturale che viene loro attribuito.

 

Possiamo poi parlare di cultura sostitutiva e cultura non sostitutiva.

La cultura sostitutiva è formata da tutti quegli elementi culturali che nel tempo possono diventare obsoleti o perdere di valore e di utilità.  Dunque, finire per essere socialmente dimenticati.
In genere è una conseguenza diretta dall’accumulazione dei saperi, delle tecniche e dell’esperienza.

Intrecciando questi aspetti possiamo quattro tipologie di “congegni” culturali:
– Degli elementi culturali materiali sostitutivi

– Degli elementi culturali materiali non-sostitutivi

– Degli elementi culturali non-materiali sostitutivi

– Degli elementi culturali non-materiali non-sostitutivi


Vediamo ora più in dettaglio che cos’è la cultura materiale.

In origine era un’espressione coniata dagli studiosi marxisti dell’Europa orientale per definire l’insieme delle conoscenze e delle pratiche relative ai bisogni e ai comportamenti materiali dell’uomo.

Si identificava con un sapere fattivo che si contrapponeva alla cultura intesa in senso tradizionale.

Su questi distinguo nel 1953 venne fondato a Varsavia l’Istituto per la storia della cultura materiale.

Uno dei primi temi che affrontò questo istituto fu se la cultura materiale poteva essere intesa come una disciplina autonoma o non piuttosto come un paradigma in cui potevano convergere diverse discipline e diverse competenze.

Ciò per meglio gestire altre fonti di conoscenza che possono essere utilizzate per questo genere di indagini: fonti documentarie, fonti archeologiche e fonti iconografiche.

In quest’ottica una definizione di “storia della cultura materiale” fu data da Witold Kula:

È la storia dei mezzi e dei metodi impiegati nella produzione e nel consumo.

Il dibattito sul paradigma della cultura materiale si ampliò negli anni Settanta quando il concetto di cultura materiale acquistò una sua popolarità.

Molti studiosi cominciarono a riservare una certa attenzione ai dati di natura materiale nella ricostruzione delle vicende storiche.

In particolare, nell’ambito della storia dell’arte si affermò una tendenza a considerare i fenomeni storico artistici come delle espressioni di cultura materiale, legate all’ambiente in cui questi fenomeni si erano manifestati o erano stati prodotti.

Da qui, poi, il passo verso la visual culture, da una parte, e la nascita dell’antropologia dell’arte dall’altra, fu breve.

In quest’ottica, lo storico dell’arte americano, George Kubler (1912-1996), che per primo ha sviluppato i temi di questa antropologia, considera la storia dell’arte una “storia delle cose”.

In italiano di Kubler la casa editrice Einaudi ha pubblicato i tre volumi della sua storia sulla forma del tempo e sulla storia delle cose.


Ritorniamo a considerare un compito importante che svolge la cultura dal punto di vista della sociologia e che possiamo definire una funzione di mediazione.

Questo perché le forme espressive che attraverso il linguaggio e la comunicazione in genere si configurano come rappresentazioni della realtà (siano esse rappresentazioni religiose, artistiche, scientifiche, filosofiche, giuridiche, o del comportamento) costituiscono altrettanti modi attraverso i quali l’individuo cosciente di sé riesce a mediare il rapporto con se stesso, gli altri, il suo mondo e le cose.

Per la sociologia la mediazione è il processo con il quale il pensiero generalizza i dati dei sensi e estrae dalla conoscenza sensoriale – che è una sorta di conoscenza immediata – una conoscenza astratta e intellettuale, che possiamo definire una conoscenza mediata.
In questo senso la cultura ha anche una funzione implicita fondamentale, perché la mediazione  s’impone agli uomini come il fondamento della prevedibilità sociale.


Dobbiamo fare attenzione a non confondere la cultura con un’altra espressione che nel linguaggio comune è impiegata in modo analogo, quella di civiltà.

Ricordiamo che il termine di civiltà deriva dal latino civilitas, che a sua volta deriva dall’aggettivo civilis (da civis, cittadino).
La nozione di civiltà in sociologia serve soprattutto a evocare lo stato della tecnica o, in un altro contesto, il risultato di un processo in virtù del quale gli individui apprendono a vivere in società.

A questo proposito usiamo dire civiltà del bronzo, del ferro, civiltà del petrolio, civiltà atomica, civiltà dell’informazione.

Storicamente, l’espressione di civiltà ( Zivilisation/ civilisation), almeno fino al diciannovesimo secolo, serviva anche a definire il processo in virtù del quale gli individui divenivano capaci di vivere in società.

In questo senso, la civiltà tendeva a confondersi con l’atto di civilizzare.

Di solito, poi, si distingue la civiltà dalla cultura in base a due considerazioni.
Un’estensione più vasta in termini di territorio.

Una durata molto più lunga in termini temporali.
Un altro grande lemma che s’intreccia con la nozione di cultura è quello di società.
Anche questo è un concetto importante, soprattutto nell’ambito delle scienze sociali che da molti sono anche definite come una scienza della società.

Ma che cosa è la società, o meglio, come possiamo definire l’espressione di società.

 

Fino a questo momento abbiamo usato questo termine in senso intuitivo.

Le difficoltà nel definire che cosa s’intende per società nascono dal fatto che non ci riferiamo ad un oggetto o ad un fenomeno fisico, ma al risultato di numerosi processi intersoggettivi di interpretazione e di comunicazione, ovvero, a qualcosa che sta essenzialmente nelle rappresentazioni mentali degli individui.

Tali rappresentazioni, per lo più composte da credenze o convinzioni storicamente sedimentate, sono poi intimamente legate all’esperienza soggettiva e all’agire degli individui.

Va anche rilevato che nella cultura occidentale la nozione di società ha spesso oscillato tra una connotazione negativa ed una positiva.
Nel primo caso, generalmente, la società si contrappone alla comunità.

Nel secondo caso è associata alla nozione di Stato.

 

Nel 1887, Ferdinand Tönnies (1855-1936), un filosofo e sociologo tedesco, pubblicò un libro intitolato Gemeinschaft und Gesellschaft (Comunità e società) dove appunto studiava le comunità intese, in senso positivo, contrapposte alle società considerate un insieme di relazioni di natura essenzialmente economiche e burocratiche.

 

Per quanto ci riguarda diciamo che là dove c’è un territorio, un insieme d’individui in relazione reciproca tra di loro, una lingua o, un modo comune d’intendersi, là c’è una “unità sociale” o, meglio, una realtà sociale.
Ma come si costituiscono queste realtà?
Essenzialmente con la coscienza di farne parte.

Va da sé, questa coscienza di esserne parte o, come dicono i filosofi, questa coscienza dell’esserci, è legata strettamente anche al linguaggio, che consente di articolare delle domande sul senso della propria esperienza e della vita.

In questo senso il linguaggio, con le sue forme di rappresentazione di sé, della realtà e dell’esperienza, contiene l’insieme delle forme di mediazione simbolica che in qualche modo costituiscono la cultura.

Ciò ci consente di dire che la complessità del linguaggio è un segnale della specificità culturale, ma non che una cultura è superiore o inferiore a un’altra.


La mediazione simbolica è un’interazione tra dei soggetti che mirano a raggiungere un accordo o un compromesso su un certo modo di risolvere dei conflitti o delle divisioni che hanno a che fare con il loro stare insieme.
In parole povere è la capacità di condividere i processi di socializzazione.


In questa prospettiva la società appare come il risultato dei processi di conoscenza e di autocoscienza che si sviluppano nella comunicazione sociale, verbale e non-verbale.

 

Vediamo ora alla relazione tra cultura e massa.

Fino a qualche tempo fa per il senso comune e per molte ideologie politiche, la cultura di massa era assimilata alla nozione di cultura delle masse.

Una forma di cultura ricca di significati positivi per i progressisti e negativi per i conservatori, anche se entrambe le posizioni concordavano sul loro studio perché le masse, in un modo o nell’altro, costituivano la base e lo strumento, sia pure rozzo e per molti versi incontrollabile, di tutti i cambiamenti sociali.
In questo senso, cultura di massa significava soprattutto cultura per il popolo.

Un’espressione (cultura per il popolo) usata anche per definire il carattere diretto, semplice e genuino delle culture popolari e contadine.

Ma qui sono nati molti equivoci perché in questa accezione le culture popolari si identificavano con il folclore e/o le tradizioni localistiche.  Agli occhi dei suoi detrattori il difetto principale della cultura di massa sta nel fatto che, per risultare più o meno accessibile ai più, è costretta a mettere l’accento sulle emozioni e i sentimenti più facili e diffusi.
Di conseguenza questa cultura appare come una sotto-cultura superficiale e sentimentale, piena di luoghi comuni.

Un concetto che, un tempo, veniva riassunto così:
La cultura di massa esprime i pensieri più profondi degli individui più superficiali.

 

Per coloro che invece tendono a distinguere tra cultura popolare e cultura di massa l’accento è posto sull’autonomia della cultura popolare.

Un’autonomia sempre più minacciata dalla produzione e dalla distribuzione della cultura ridotta a merce delle élite capitalistiche.

Nell’Ottocento la cultura popolare si esprimeva soprattutto nell’abbigliamento, nel canto collettivo, nella danza, nelle abitudini alimentari, nelle piccole cose di artigianato.

Era una cultura che, sia pure involontariamente, aveva esercitato un grande fascino sul Romanticismo, su quel movimento artistico e letterario che rappresentò, per almeno un paio di generazioni, lo spirito più vivo della cultura europea dell’Ottocento.

 

(Qui occorre sottolineare come nella seconda parte dell’Ottocento l’ideologia romantica sia stata banalizzata – nei suoi risvolti idealistici – dal prorompere del positivismo.)
Molti protagonisti di questa corrente artistico-letteraria, che il successo fece diventare anche una moda e uno stile di vita, si prodigarono per salvare la cultura popolare, nella sua originale genuinità, attraverso la promozione, soprattutto nella mitteleuropea, delle scuole di arti e mestieri.

Sono scuole – queste, delle arti e mestieri – che in molti casi, finirono per alimentare una vera è propria ideologia del passato, in contrapposizione alla nascente industrializzazione, snaturando le premesse che avevano portato alla loro istituzione.

Comunque, la cultura popolare nell’Ottocento, a differenza di quella di massa, nasceva ancora in modo spontaneo, avvalendosi soprattutto di materiali e mezzi espressivi tradizionali.

Al contrario, l’odierna cultura di massa tende a sfruttare il patrimonio delle culture popolari per farne dei prodotti-merce da veicolare attraverso i mass-media e da vendere attraverso la grande distribuzione commerciale.
Un patrimonio che viene prelevato dovunque, dalle tradizioni contadine come dalle periferie urbane – vedi il caso di molte forme di musica giovanile – così come dalle etnie emigrate o emergenti.
Su queste espressioni di cultura si opera, poi, quello che i professionisti del marketing chiamano restyling, per poterle far diventare merci a buon mercato da vendere soprattutto a chi abita le aree urbane delle grandi metropoli.

In questo modo il concetto di cultura di massa risulta associato in modo funzionale alla società dei consumi.
Del resto, nella modernità, una parte rilevante dei rapporti che intercorrono tra le persone sono di natura economica e i consumi sono diventati dei veri e propri fenomeni sociali primari.

In questo senso, volenti o nolenti, la cultura di massa ha finito per programmare e uniformizzare la nostra vita su scala planetaria.
Questa cultura, come abbiamo visto, è nata in Europa tra la metà e l’ultima decade dell’Ottocento, ma con il diffondersi della carta stampata e dell’alfabetizzazione primaria, prima, e con l’avvento della radio e del cinema, dopo, è mutata in un fenomeno di costume e di modelli di consumo che oltre oceano chiamano l’american way of life.

Se consideriamo la cultura di massa in filigrana con il tema della cultura popolare possiamo osservare che essa ha integrato l’ambiente operaio, soprattutto delle periferie urbane, con il mondo contadino e, entrambi, con gli stili di vita della borghesia.

 

Passiamo ad esaminare il tema delle strutture sociali.
L’importanza dell’analisi delle strutture sociali deriva dalla considerazione che non è possibile isolare una dimensione pura ed autonoma della soggettività come se fosse un’identità sociale.

Questo perché gli attori sociali (individuali e collettivi) rappresentano, allo stesso tempo il motore e il prodotto che in qualche modo rappresentano queste strutture.

Nel loro significato sociologico il termine fu coniato da Herbert Spencer nel 1858.

Egli mise in luce il fatto che in una struttura sociale, le parti che la compongono s’identificano con le relazioni fra le persone e come, di conseguenza, l’insieme organizzato delle parti può essere inteso come una rappresentazione della società nel suo complesso.

 

Spencer identificò poi nella durata una delle caratteristiche più importanti di una struttura sociale.
Vale a dire, tutte le strutture sociali hanno una vita più o meno lunga e, in genere, la loro durata depone a favore della loro importanza.

Questo studioso si pose anche una domanda: Le strutture sociali si basano sul consenso o sulla coercizione?

Da convinto funzionalista e liberista – la società era per lui un organismo vivente nel quale tutte le parti contribuiscono a mantenerlo in vita – le strutture sociali non avrebbero dovuto produrre conflitti e non avrebbero dovuto fondarsi sulla coercizione.

 

Di diverso avviso, tra i suoi contemporanei, erano i movimenti politici d’ispirazione socialista, per i quali, invece, la società è l’esito di un perenne conflitto tra le classi.

Oggi a questa domanda, se ne sovrappone un’altra: In che modo le strutture sociali sono in grado di favorire il mutamento sociale?

Una società che non muta, infatti, è una società che non cresce o cresce male e così facendo tende a ripiegarsi su se stessa o a implodere.

In questa analisi va tenuto presente anche il fatto che la società è condizionata dall’ambiente naturale e dalle forme di sociabilità che riesce a sviluppare.

Così come le sue strutture sociali sono condizionate anche dalla storia sociale dei suoi attori, siano essi gli individui come i collettivi.

Va anche rilevato che le strutture sociali dipendono in modo stretto dalla qualità dell’ambiente naturale nel quale si realizza lo sviluppo della società.

È un tema che in passato e a diverso titolo, ha interessato molti autori, tra i quali Èmile Durkheim, Max Weber e Georg Simmel.

Diciamo che l’ambiente naturale è il complesso delle possibilità nei confronti delle quali si sviluppa l’azione degli uomini, sia come individui che intesi come gruppi agenti o comunità.

Com’è risaputo non c’è nulla di pre-definito offerto dalla natura all’uomo.

C’è semplicemente la capacità dell’uomo all’adattamento naturale e le sue capacità di agire su di

esso.
In breve dobbiamo tener conto che le strutture pubbliche e politiche – che contribuisco a disegnare le forme urbane, i loro servizi  e a tracciare le vie di comunicazione –  influiscono in maniera rilevante nel condizionare lo spazio sociale della persona, la sua libertà di scelta e di movimento e il suo grado d’interazione sociale.

In questi ultimi anni e per le ragioni più diverse si è anche diffusa una nuova sensibilità per i problemi dell’equilibrio tra l’uomo e il mondo.
Sensibilità che ha messo in luce la grande responsabilità dell’azione umana sia nella conservazione che nella distruzione dell’ambiente.
Da qui la constatazione che l’adattamento non può essere all’insegna del mero sfruttamento della natura, ma deve tener conto del fatto che gli interessi dell’uomo non possono infliggere all’ambiente dei danni irreparabili o superiori ai vantaggi.
Vediamo adesso qualcosa a proposito di un altro importante elemento che ci lega alla natura:

il tempo.  Il tempo rappresenta una delle dimensioni della realtà che abitiamo o, se si preferisce, dello spazio sociale.
Di conseguenza, la temporalità, che definisce ciò che è iscritto nel tempo, deve essere considerata come un carattere essenziale delle relazioni sociali.

Il tempo, in sostanza, è un’infrastruttura strategica dell’azione e dell’interazione sociale, rappresenta e rende visibile il carattere processuale e storico di ogni attività umana, con una particolarità, drammatizzandola, perché il tempo è irreversibile.

In sociologia, il primo a parlare di tempo sociale è stato Durkheim nel 1912.
Con questa espressione si sottolinea la dipendenza del tempo individuale da quello più ampio del gruppo o della comunità che funzionalmente lo comprende.

Ma, qual è la funzione del tempo sociale?
Attraverso la sua percezione gli uomini organizzano e ritmano la loro vita privata e collettiva, di più, questa percezione ne assicura il suo coordinamento e la sua sincronizzazione.

Nella ricerca sul tempo sociale una delle tecniche più utilizzate in sociologia è quella indicata con l’espressione di time-budget (bilancio del tempo).

Storicamente, questa tecnica fu inizialmente elaborata dalla sociologia sovietica per studiare le problematiche della vita quotidiana degli operai.

Oggi, invece, è adoperata per descrivere i modi e gli stili di vita e per disegnare le cosiddette mappe dei comportamenti abituali.

Attraverso il tempo o, meglio, attraverso l’esperienza del tempo, noi stabiliamo una continuità narrativa tra passato, presente e futuro.

Come ha notato Alfred Schütz, un grande filosofo e sociologo di lingua tedesca, il tempo è un fattore essenziale per la comprensione dell’agire umano.

Costituisce una risorsa sociale, la cui disponibilità è diversa da individuo ad individuo e tra comunità e comunità.

Che cosa significa?
Che il tempo degli operai non è quello dei signori.
Che il tempo di una comunità di monaci non è quello di un collegio universitario o di una squadra di calcio.  Non è tutto.

Il tempo è percepito anche come un bene, soprattutto economico, diversamente valutabile e valutato.

In questo senso fu Karl Marx che per primo lo definì come un qualcosa che possiede un valore.
In altri termini, il tempo è una variabile economica dei processi di produzione e di conseguenza, esso costituisce un importante fattore nei processi di razionalizzazione della modernità.

 

Ci sono altri temi sensibili intorno alla relazione ambiente, individuo, natura.

Uno di questi temi, che compare sempre più spesso nel capitolo dedicato alle condizioni dell’ambiente naturale, è la nozione di corpo.

Oggi la sociologia del corpo è una disciplina indirizzata soprattutto alla costruzione di modelli esplicativi relativi al rapporto di reciproca determinazione (o restrizione) tra la società (ovvero i processi sociali) e la corporeità (o, unità psicosomatica).

Due autori che si sono occupati in modo specifico del corpo sono Georg Simmel e Marcel Mauss.

Lo hanno fatto in una prospettiva culturalista creando i presupposti di una vera e propria sociologia del corpo o delle culture corporee successivamente elaborata anche da una grande antropologa inglese Mary Douglas (1921-2007).

Successivamente il corpo, come realtà fenomenologica, ha avuto un particolare rilievo nei lavori di Erving Goffman, Gregory Bateson e David Le Breton.

L’approccio in questi autori è essenzialmente di tipo strutturalista o se si preferisce funzionalista.

 

Viceversa, l’analisi della relazione tra il vissuto, la corporeità, i processi socio-culturali che li riguardano è centrale negli studi di due sociologi di origine austriaca, Thomas Lukmann (il cui libro più famoso è La realtà come costruzione sociale del 1966) e Alfred Schütz, che vedremo in seguito per le sue ricerche sulla vita corrente è ciò che la fenomenologia chiama Lebenswelt, cioè, i mondi di vita.

Sempre sul tema del corpo e di ciò che rappresenta sia come elemento del mondo sensibile che espressione dell’individualità ricordiamo due filosofi francesi Jean-Paul Sartre e Maurice Merleau-Ponty oltre che lo psichiatra inglese Roland Laing.

Infine, da un punto di vista gnoseologico di grande importanza sono le riflessioni di altri due grandi pensatori francesi, George Bataille e Michel Foucault a cui dobbiamo la nozione di biopolitica.

 

Per Foucault la biopolitica è il terreno sul quale agiscono le pratiche con le quali la rete dei poteri costituiti gestisce le discipline del corpo sia in senso individuale che collettivo.

È di fatto un’area d’incontro tra il potere e la sfera della vita.

 

Il corpo in molti di questi studi è inteso soprattutto come una macchina comunicativa.

Una macchina che si può costruire con l’attività fisica, si può modificare con una divisa, si può trasformare in un messaggio con un tatuaggio.

Il discorso sul corpo riguarda anche le cosiddette pratiche centrate sulla “corporeità”, perché servono a delineare, da una parte, gli stili di vita e, dall’altra, hanno un grosso risvolto economico, come sono le attività legate all’industria della cosmesi, alla chirurgia plastica, alle diete, all’abbigliamento, eccetera.

 

Cambiamo argomento.

Passiamo ad un rapido esame delle istituzioni e delle organizzazioni formali, vale a dire di quei sistemi relativamente stabili di relazioni, retti da norme specifiche, che assolvono o dovrebbero assolvere a funzioni e interessi della vita sociale come tale.

In altri termini, queste istituzioni e in parte queste organizzazioni formali sono delle strutture sociali che amministrano e governano il comportamento degli individui.

In particolare le istituzioni materializzano o, meglio, danno visibilità ai principi giuridici fondamentali della forma di Stato, identificandosi con gli organismi politico-costituzionali che ne sono l’espressione.

Costituiscono delle istituzioni formali i parlamenti, le forze armate, i ministeri, le fondazioni, i tribunali, eccetera.

Le organizzazione formali hanno, invece, una natura più privatistica, come sono un’azienda, una squadra di calcio, un club, un’associazione di volontariato, un partito politico.

Ciò che contraddistingue sia le istituzioni che le organizzazioni formali è il carattere della stabilità.
Esse sono stabili nella misura in cui vengono codificate dagli usi, dal costume dalle norme.

Poi, a misura in cui sono stabili, tendono a caricarsi di valori immateriali, come per esempio il prestigio o l’affidabilità.
Sono valori che consentono loro una certa autonomia, ponendole al di sopra delle parti e degli interessi di parte.

La loro stabilità e la loro autonomia, infatti, hanno il potere di agire con autorevolezza sugli attori sociali condizionandoli, educandoli o indirizzandoli nella loro vita sociale.
Al limite, sanzionandoli.

Va sottolineato che le istituzioni e le organizzazioni formali sono profondamente intrecciate al meccanismo dell’interazione sociale.
Per definirla conviene partire dall’esperienza che ognuno di noi ha della società.

Non è difficile constatare che questa esperienza si materializza come l’insieme dei rapporti che intratteniamo a diverso titolo nel nostro habitat sociale.
Si tratta di un insieme di azioni e di reazioni  – da cui il termine interazione – mediante le quali gli individui entrano tra loro in contatto, comunicano, collaborano, giudicano.

In breve l’interazione sociale è quella sequenza dinamica e mutevole di atti sociali fra individui o gruppi di individui che modificano le proprie azioni e reazioni in relazione alle azioni degli individui e dei gruppi con cui interagiscono.
In questo senso l’interazione può essere intesa come il luogo primario in cui si forma, si ratifica, si trasforma il legame sociale.

Da questa definizione si comprende anche come l’interazione sociale determini l’ordine sociale.
Ordine che non si manterrebbe in equilibrio senza una costante e spesso lunga e silenziosa

ri-negoziazione dei suoi valori, delle sue norme, dei suoi saperi o delle sue credenze.

 

Perché il tema dell’interazione è importante?

Perché rappresenta il nodo intorno al quale si sviluppano e si strutturano gli studi del comportamento collettivo e individuale.
Questi studi, che confluiscono in quelle che oggi si chiamano le microsociologie, hanno come argomento principale i cosiddetti rapporti face to face, cioè, i rapporti intersoggettivi.

Diciamo allora che, per definizione, le microsociologie studiano soprattutto i legami sociali elementari.

Il primo a rendersi conto dell’importanza di questi legami fu Georg Simmel, che esaminò l’importanza di alcuni micro-fenomeni sociali come sono i segreti, l’amicizia, l’ubbidienza, la lealtà, la fiducia.

Oggi le microsociologie hanno come campo disciplinare i comportamenti, i ruoli, le interazioni sociali, i conflitti, le identità e il modo di formarsi dei processi decisionali individuali o dei piccoli gruppi.
Per ragioni di economia ci soffermeremo, per esaminare le microsociologie, su Alfred Schütz (1899-1959), uno dei primi ricercatori che si pose il problema di indagare le relazioni tra gli individui, nell’ambito della vita quotidiana.

Schütz era nato in Austria, ma dovette emigrare in America a seguito delle leggi razziali tedesche dopo l’annessione al Terzo Reich e lì, anche per motivi personali, si dedicò all’analisi del comportamento collettivo.

L’opera a cui noi faremo riferimento uscì nel 1932, s’intitola La fenomenologia del mondo sociale, è uno studio nel quale, partendo dalle ricerche di Max Weber, sviluppa le problematiche dell’agire sociale.

Egli definì la vita quotidiana, come l’insieme di azioni, di rapporti, di conoscenze e di credenze familiari all’interno dei quali, per così dire, scorre ciò che conta sul piano individuale e segna, con l’esperienza, l’esistenza degli individui.

Si tratta di quel insieme di relazioni che, il più delle volte consideriamo o passano per scontate, come salutare un conoscente, prendere un appuntamento, uscire in compagnia di amici per una cena, telefonare per informarsi sulla salute di un parente ammalato, avvertire casa per un improvviso contrattempo, mettersi d’accordo per andare ad un concerto, eccetera.

Come Alfred Schütz ebbe modo di dimostrare questi rapporti costituiscono il cemento dell’esperienza sociale di cui cogliamo l’importanza quando entrano in crisi o attraversiamo uno stato di eccezione – come furono per lui le leggi sulla razza.

 

Vediamo, in questa prospettiva, alcuni caratteri della vita quotidiana.

Il primo di essi è la routine.
Costituisce il carattere più evidente della vita quotidiana e, per molti versi, anche il più sorprendente quando lo andiamo a focalizzare.
Questo carattere esprime la ripetitività e la prevedibilità delle azioni, dei comportamenti e dei pensieri.

La prevedibilità, in particolare, agisce sul comportamento abbassando il livello d’interesse dell’osservatore e/o dell’attore sociale e, così agendo, favorisce soprattutto un risparmio di energie.
Ma non è così semplice.

La ripetizione e la prevedibilità dei comportamenti possono finire per stimolare risposte automatiche o stereotipate, che abbassano il nostro grado di attenzione verso ciò che ci circonda.

Perché sono così importanti per la sociologia?
Perché quando ripetitività e prevedibilità finiscono per invadere massicciamente il tempo della vita quotidiana, siamo in presenza di vissuti che tendono inesorabilmente a deteriorarsi.

O, come dicono i filosofi sociali, siamo davanti ad una alterazione del qui-ora che induce ad una sorta di smarrimento sociale e, spesso, nei casi più gravi, a forme di angoscia e di disagio psichico.

Questi processi interattivi generano anche un altro fenomeno, le tipizzazioni.

La tipizzazione agisce come uno strumento di previsione del comportamento.
È come dire, capovolgendo un proverbio popolare, che l’abito, a dispetto del nostro senso critico, fa il monaco.
La tipizzazione può essere involontaria, ma il più delle volte è il risultato di una scelta consapevole tra i vari modelli di comportamento che l’esperienza sociale ci fornisce.

Perché è consapevole?
Perché ciascuno di noi sa bene che ad ogni passo della nostra giornata come della nostra vita sociale siamo costantemente osservati, e in qualche modo interpretati e giudicati.
Perché ciascuno di noi sa che gli altri reagiscono nei nostri confronti secondo il loro modo di essere.

Modo di essere che si esprime attraverso il loro modo di interpretare e vivere le situazioni sociali.

 

Un altro aspetto importante dell’interazione sociale e ciò che la lega ai processi della rappresentazione.
Gli individui, infatti, non solo sono coscienti delle azioni e delle reazioni che questi processi comportano, ma, in genere, sono consapevoli anche dei loro effetti.

Secondo Erving Goffman (1922-1982) a causa della consapevolezza, che gli individui hanno di influenzare con le proprie azioni l’opinione che gli altri danno della situazione alla quale essi stanno partecipando, questi stessi individui finiscono (inevitabilmente) per comportarsi come se recitassero una parte, come se fossero attori su un palcoscenico.
Come se vivessero dentro una rappresentazione teatrale o uno spettacolo.

Goffman è un sociologo di origine canadese, vissuto negli Usa, ha studiato a Chicago.

Lo ricordiamo perché a Chicago ha operato una delle scuole di sociologia urbana più prestigiose degli Stati Uniti.

Uno degli scritti più importanti di questo studioso, uscito nel 1956, s’intitola, La vita quotidiana come rappresentazione.
Con questa opera, Goffman, introduce nella sociologia il concetto di prospettiva drammaturgica.

Il suo campo di ricerche sono stati gli aspetti trascurati della vita quotidiana, quelli che appaiono banali, ma che possiedono, in sé, una forte carica recitativa.
Costituiscono degli aspetti che, nelle società complesse, come quelle del mondo Occidentale, sono divenuti oscuri e equivoci e che, sempre di più, vengono usati per offrire agli altri un’immagine in qualche modo valorizzata di noi stessi.

I sociologi americani definiscono queste situazioni, come abbiamo già notato, face to face, perché di fatto riflettono le piccole situazioni della vita di tutti i giorni.

Per analizzarle Goffman immaginò la vita quotidiana come se fosse un gioco di rappresentazioni.
Un gioco nel quale l’identità dell’individuo – che nella lingua inglese è definita con l’espressione

di self – coincide di volta in volta con le maschere che costui indossa sul palcoscenico della vita corrente.


Prima di procedere esaminiamo l’espressione di self con la quale nella lingua inglese si identifica l’identità dell’individuo nelle relazioni face to face.

È un concetto molto usato anche in psicologia e in psicanalisi, da cui è stato mediato.

Didier Anzieu (1923-1999,)un protagonista della psicoanalisi francese, scrisse, qualche tempo fa, un libro divenuto un classico sui confini del self, intitolato, Le moi-peau, (L’io-pelle) 1985.

Perché è importante la nozione di self?

Esso gioca un ruolo decisivo nel rapporto che noi abbiamo con il nostro corpo e il corpo degli altri.  Non solo, perché il self caratterizza anche il modo con cui noi percepiamo la sostanza corporale con la quale siamo fatti e che non si limita a un po’ d’acqua, lipidi, aminoacidi, eccetera.

La nostra esperienza della vita quotidiana ci dice che la percezione della nostra sostanza corporale cambia di contenuto davanti ai nostri occhi quando supera i limiti del self.

In questo modo il self si è rivelato un concetto molto importante per studiare il gusto e il disgusto e il modo di percepire la prossimità con gli altri.

Facciamo qualche esempio.

Non abbiamo disgusto della saliva che si trova nella nostra bocca, ma se la raccogliamo in un bicchiere molto difficilmente riusciremo a rimetterla in bocca e inghiottirla.  Perché quando le nostre secrezioni superano (varcano) il limite del nostro io-pelle ci diventano estranee, e simmetricamente, quelle degli altri (che ci penetrano) ci provocano disgusto più si avvicinano.

É come se le vivessimo in modo intrusivo, è come se dovessimo difenderci da esse.

La stessa cosa si può dire per il sangue, a noi non da fastidio succhiare il sangue che esce da un dito che ci siamo feriti affettando del pane, ma se questo sangue lo raccogliamo con una garza, difficilmente avremmo poi il coraggio di succhiarla.

Di contro, il self diventa tollerante con le relazioni di vicinanza derivate da un’attrazione emotiva.

Non a caso nelle relazioni intime il self diventa spesso un acceleratore dell’intimità, come avviene con la saliva del bambino che non è ripugnante agli occhi della madre, così come non lo sono le secrezioni dei nostri partner sessuali, ma che tornano ad esserlo se l’intimità viene spezzata da una separazione o da un litigio.

Con il self, tra l’altro, si possono spiegare anche molti dei meccanismi del feticismo, che trasformano la distanza e la familiarità degli oggetti che appartengono al soggetto amato.

In questo senso l’intimità come la tenerezza contaminano positivamente gli oggetti avvicinandoli a noi, facendoli diventare familiari, esattamente come il disgusto li allontana.

L’identità soggettiva s’intreccia con un altro grande tema che abbiamo accennato, quello della contaminazione, in questo caso serve a completare il paradigma della prossemica, intesa come quel capitolo della semiologia che studia il significato del comportamento umano (gesti, posizioni, distanze posture) dal punto di vista dei processi comunicativi.


In questo contesto la vita di tutti i giorni è analizzata da Goffmann come una scena sulla quale si recita.

Una scena con i suoi attori, il suo pubblico, le sue quinte, dove spesso gli attori contraddicono quello che hanno detto davanti ai riflettori.
Su questa scena gli attori si mettono in gioco, si presentano, si alleano, si scontrano s’ingannano, mostrano la loro capacità d’impersonare un ruolo, s’immergono o prendono le distanze dalle situazioni che li coinvolgono

Occorre persi una domanda: Gli individui sono coscienti di recitare una parte sociale?

Per Goffman lo sono sempre, anche se non sempre ne sono totalmente consapevoli.

In certe occasioni questa recitazione è assolutamente partecipata, in altre è come una parte recitata mille volte, che diventa quasi automatica, in altre ancora è recitata di malavoglia.

C’è poi da considerare ancora una cosa, come l’Altro da noi o gli altri giudicano chi sta recitando.

Questo perché, in base a come chi sta osservando valuta la spontaneità, o se volete, l’abilità, o la qualità della recitazione dell’altro o degli altri suoi interlocutori, ne tira delle conclusioni che, a sua volta, influenzeranno il suo modo di comportarsi.
Come in una partita a ping-pong, ogni tiro a sua volta provoca una reazione di tiro, che a sua volta provoca una reazione…e così via….

 

Passiamo ora ad un altro argomento chiave del discorso sociologico: i gruppi.

Da qualche tempo a questa parte i gruppi sono studiati da una specifica disciplina chiamata analisi  gruppale.
Il riconoscimento dell’importanza dello studio dei gruppi lo dobbiamo, per quanto ci riguarda, soprattutto ad uno psicanalista inglese, Wilfred Ruprecht Bion (1897-1979), che a sua volta lo riprese dagli studi di Maxwell Jones (1907-1990) sulle piccole comunità terapeutiche.

Come abbiamo osservato per le masse, un gruppo non si riduce alla somma delle coscienze e delle volontà individuali che lo compongono, anzi, è più facile il contrario, che il gruppo trasformi l’individuo che ne fa parte.

In sociologia si definisce gruppo sociale un insieme di persone che entrano in qualche modo in rapporto reciproco, sulla base di valori o interessi comuni.

Oppure, in una forma più articolata:

Un gruppo è un insieme d’individui che interagiscono fra loro influenzandosi reciprocamente e che condividono, più o meno consapevolmente, interessi, scopi, caratteristiche e norme comportamentali.

 

Che cosa distingue un gruppo da una folla o da una comunità di persone?
Il fatto che nella folla, nella comunità o, più in generale, in un’aggregazione di persone, come è, per esempio, un grande ufficio, una scuola, un quartiere, non esiste un’interazione diretta tra tutti gli individui, o, più semplicemente, questi individui non costituiscono un insieme organizzato.

Prima di procedere con i gruppi distinguiamoli subito da un’altra figura della topografia

sociologica, le categorie sociali che rappresentano dei gruppi impropri o degli pseudo-gruppi.
Sono, in genere, il risultato di una costruzione teorica deliberata mediante la quale gli studi sociali raggruppano idealmente o teoricamente in una stessa unità individui con caratteristiche comuni, al fine di poterli monitorare.

Quanto agli aggregati, essi costituisco dei semplici gruppi casuali.
Rispetto ai gruppi veri e propri gli aggregati mancano di una struttura, sono limitati nel tempo e soprattutto mancano di quella qualità delle relazioni interpersonali che costituiscono l’essenza dei gruppi.

Vediamo le tre caratteristiche che distinguono un gruppo.

– I membri del gruppo interagiscono tra di loro in modo strutturato secondo le norme o i ruoli che il gruppo si è dato.
– I membri del gruppo hanno la coscienza di essere un gruppo o, meglio, maturano un sentimento di appartenenza al gruppo che, tra l’altro, funziona da barriera nei confronti degli estranei.
– Il gruppo è percepito come un gruppo da parte di chi non ne fa parte.  Vale a dire il gruppo ha un’identità esplicita e assolutamente percepibile dall’esterno.

 

Quanto ai gruppi in sé possiamo distinguerli in molti modi.
La classificazione più importante è quella tra gruppi primari e gruppi secondari.
I gruppi primari sono anche detti piccoli gruppi.
Il loro carattere principale è la forte integrazione, tipica, per fare un esempio, delle famiglie o delle bande.
Per definizione i gruppi primari sono costituiti da pochi individui.
I gruppi secondari o grandi gruppi sono gruppi composti da un numero elevato di membri.
Sono gruppi nei quali le relazioni interpersonali appaiono neutre e, spesso, il rapporto tra il singolo e gli altri membri è di natura strumentale, cioè, funzionale ad uno scopo.

L’esperienza sul campo ha dimostrato che appena il numero dei membri di un gruppo supera la mezza dozzina c’è una tendenza, che si può definire spontanea, alla formazione di sottogruppi, dove le affinità sono più forti.

Quando, poi, il numero dei membri di un gruppo secondario supera la dozzina è molto probabile che all’interno del gruppo si formi un portavoce o che un membro lo coordini.
A questo proposito si è constatato che in qualsiasi gruppo, prima o poi, emerge la figura di un leader.
La velocità con cui questa figura si forma è proporzionale alla grandezza del gruppo.
Più il gruppo e grande e prima si costituisce una leadership.

Nella leadership si possono distinguono tre stili:
Quello autoritario, quello democratico e quello improntato al laissez-faire.

Nel primo caso la struttura è molto gerarchica e si caratterizza per la direzione degli ordini che influenza il comportamento del gruppo, sempre dall’alto verso il basso.
Questi ordini, in genere, non sono mai messi in discussione, cioè, si subiscono.

La struttura dei gruppi che possiamo definire democratici è caratterizzata dal consenso della maggioranza, vale a dire da un’accettazione consensuale dei programmi del gruppo.

La leadership dei gruppi improntata al laissez-faire si caratterizza dalla mancanza di una vera dirigenza.  In questi gruppi la leadership si limita, in pratica, a far emergere e a gestire le iniziative dei sottogruppi.

 

Ricordiamo anche una particolare forma di gruppo, i gruppi di riferimento.

Sono quei gruppi che s’ispirano all’opera di altri gruppi.  Possono essere gruppi di riferimento positivi o negativi.
Quelli positivi, in genere, si possono definire ed appaiono dall’esterno come una specie di gruppi ideali.
Quelli negativi, invece, sono gruppi di riferimento con i quali prima o poi emergono delle tensioni che possono anche alimentare delle situazioni di conflitto.

È più raro, ma anche i gruppi negativi possono avere dei riferimenti non reali e, tra virgolette, ideali o utopistici.

In generale i gruppi di riferimento negativi compaiono in quei gruppi che si formano per reazione contro l’ambiente in cui vivono, per i motivi più diversi, sia materiali che ideologici, come nel caso delle sette sataniche, delle bande di tifosi o nelle organizzazioni criminali.

Fa scuola il mito di Al Capone o delle famiglie mafiose americane.

Nelle forme di democrazia rappresentativa, come dovrebbero essere le democrazie moderne, una forma di gruppo di una certa importanza è il gruppo di pressione.

Questi gruppi sono anche detti gruppi d’interesse.

In genere sono strutturati nella forma del collettivo che si mobilita per difendere specifici tornaconti, anche ideali, come sono per esempio i gruppi ambientalisti.

Quando i gruppi di pressione sono organizzati e la loro azione è diretta in modo specifico ad agire sui centri di potere, con lo scopo di influenzare pubblicamente determinate scelte politiche, economiche o etiche, si definiscono lobby.

Questi gruppi di pressione organizzati sono tipici dei paesi di lingua inglese, in cui la corruzione (sotterranea) è severamente sanzionata e le lobby sono, in qualche modo, istituzioni formali accettate, se non altro come un male minore che si vede e che si può contenere.

Il tema dei gruppi nelle scienze sociali è legato a un altro grande tema, quello delle gerarchie sociali.

Qui, non abbiamo il tempo per approfondire i motivi, oltre a quelli economici, per i quali  nelle società si formano le gerarchie, anche perché questo è più un argomento di antropologia e di teorie politiche che di sociologia generale.
Alla sociologia compete piuttosto lo studio della posizione sociale di un individuo o di un gruppo all’interno di un sistema di relazioni che formano la struttura sociale di una società.

Nella società occidentale va anche costatato, a partire dalla seconda metà dell’800, una costante trasformazione dei ceti in classi.
Questa metamorfosi costituisce uno degli effetti della rivoluzione industriale e delle forme di democrazia che in essa si sono sviluppate.
La rivoluzione industriale, di fatto, contribuì a ridurre ogni differenza sociale ai soli fattori economici e all’effettivo controllo della ricchezza.

I suoi esiti sono ben visibili all’interno delle due classi che si affermarono come le due sole classi protagoniste della storia della modernità, la borghesia e il proletariato.

Va però notato come, da alcuni decenni a questa parte, nei paesi dell’area temperata del pianeta, le  si stanno disfacendo nella loro forma storica per ridisegnarsi su altri valori, come sono quelli della conoscenza e dell’accesso all’informazione e all’educazione.


Il digital divide o divario digitale è il divario esistente tra chi ha accesso effettivo alle tecnologie dell’informazione e chi ne è escluso in modo parziale o totale. I motivi dell’esclusione

comprendono diverse variabili: condizioni economiche, livello d’istruzione, qualità delle infrastrutture, differenze di età o di sesso, appartenenza a gruppi etnici diversi, provenienza geografica.

Oltre a indicare il divario nell’accesso reale alle tecnologie, la definizione include anche disparità nell’acquisizione di risorse o capacità necessarie a partecipare alla società dell’informazione.

Il termine digital divide può essere utilizzato sia per riferirsi ad un divario esistente tra diverse persone, o gruppi sociali in una stessa area, che al divario esistente tra diverse regioni di uno stesso stato, o tra stati (o regioni del mondo) a livello globale.

Il termine è apparso per la prima volta all’inizio degli anni Novanta negli USA in alcuni studi che indicavano come il possesso di personal computer aumentasse in modo significativamente differente tra i gruppi etnici.

Il concetto di divario digitale è poi entrato nell’uso comune quando il presidente americano Bill Clinton e il suo vice Al Gore lo utilizzarono durante un discorso tenuto nel 1996 a Knoxville, in Tennessee.


Questi nuovi scenari daranno vita ad altre forme di conflitto tra le quali, di una certa importanza, saranno:

– quelle di natura generazionale che coinvolgeranno i cosiddetti nativi digitali,

– quelle tra i localismi,

– quelle legate all’equa ri-distribuzione delle risorse naturali, come da tempo è il caso del petrolio e di recente dell’acqua o del controllo climatico.

A questo proposito ricordiamo che i paesi della fascia temperata del pianeta terra costituiscono un terzo della popolazione mondiale e consumano i due terzi dell’energia totale prodotta.

In un rapporto del 2006 delle Nazioni Unite sulla distribuzione del benessere economico si afferma che l’uno per cento della popolazione mondiale detiene il quaranta per cento del patrimonio finanziario e immobiliare mondiale, mentre il cinquanta per cento della popolazione mondiale accede solo all’uno per cento della ricchezza planetaria.

È indubbio che, in questo scenario, uno degli obiettivi delle scienze sociali dovrebbe essere quello di contribuire a rielaborare degli stili di vita che consentano di riequilibrare questo stato di cose prima che sia troppo tardi.

 

APPENDICE

La velocità e i numerosi cambiamenti intervenuti, soprattutto nell’ambito della cultura occidentale a partire dalla seconda metà del secolo scorso, hanno in qualche modo portato alla luce e disegnato un mondo costituito da realtà separate le une dalle altre, e dai caratteri specifici e definiti.

Realtà delimitate da confini, reali e simbolici, confini netti e difficili da ridurre a un unico paradigma.

Un paradigma rappresenta un modello di riferimento o, meglio, una matrice disciplinare che delimita il campo, la logica e la prassi della ricerca nell’ambito di un argomento scientifico, in questo caso il concetto di società.

Diciamo che per molto tempo la coincidenza di territorio, cultura, lingua e popolo – che si intravede dietro questo modello, sostanzialmente ideologico e politico – ha rappresentato una delle più forti motivazioni ideali, politiche e economiche per la nascita, la costruzione e la giustificazione degli Stati nazionali.

Un modello che sta alla base di molte opere letterarie, artistiche e musicali, come di rivendicazioni, conflitti ribellioni.

Un modello che ha dato vita a delle analisi politologiche, economiche, sociologiche di costume, analisi che hanno alimentato rimpianti, nostalgie e rivendicazioni di ogni genere.

Con il ventunesimo secolo è in modo piuttosto accelerato c’è stato un radicale sovvertimento del rapporto tra gli spazi nazionali, i territori e gli spazi sociali.

Questo sovvertimento – soprattutto nell’opinione pubblica – ha generato il convincimento che i linguaggi, le pratiche culturali, le relazioni sociali, i patrimoni simbolici, i manufatti siano radicati non già nello Stato nazionale ma in luoghi geograficamente ben definiti.

Soprattutto fuori dall’Europa storica i violenti conflitti etnici che sono scoppiati hanno rivelato, con un certo sgomento, che lo Stato nazionale è spesso un coacervo di gruppi etnici diversi, quasi sempre in polemica o in conflitto, gruppi assimilabili a “comunità immaginarie” più che a un tessuto di comunanze sviluppate e omogenee.

Come oggi è facile costatare molti Stati sono attraversati da tensioni separatiste, altri sono messi in discussione da realtà locali in concorrenza tra di loro altri ancora sono minacciati, soprattutto sul piano economico, da autorità sovra-nazionali.

 

Ha scritto il filosofo e sociologo tedesco Jürgen Habermas: Uno dei principi più importanti elaborati negli ultimi due secoli dello scorso millennio – la nozione di sovranità della coppia Stato/Nazione – è stata messa in discussione e si è differenziata frantumandosi tra autorità locali, regionali, nazionali, globali.

 

Le nuove e massicce forme di migrazione, i nuovi sistemi di comunicazione digitale, le nuove strategie finanziarie, i nuovi assetti politici sono paradigmi che attraversano i vecchi confini e generano nuove pratiche socioculturali e una inedita multipolarità territoriale.

Va da se, nella storia questi paradigmi sono sempre esistiti dislocati in aree più o meno vaste e formate dagli stili di vita, dalle relazioni sociali, dagli orientamenti ideologici, dai sistemi simbolici, da manufatti e artefatti diversi, ma avevano una caratteristica: quella di poter essere iscritti in un unico schema di comprensione e di elaborazione comune più o meno condiviso o accettato.

L’esempio classico è il ruolo attivo e organizzativo delle religioni, a partire dalla chiesa cattolica.  Così come il ruolo giocato dai grandi imperi o, nel minuscolo, dalle tradizioni.

 

Oggi è diverso.  Le idee si sono globalizzate, così gli stili di vita e la loro evocazioni all’esotico tende a diventare moda.

Le ragioni sono evidenti a partire dai sistemi di comunicazione di massa in tempo reale, dalle nuove tecnologie di trasporto, dai movimenti reali – spontanei o forzati – e dai movimenti virtuali di centinaia di migliaia di individui spinti a immaginare le nuove Bengodi, i nuovi paesi di Cuccagna, le nuove Calicut dello spettacolo.  Spinti a sognare nuove patrie e nuove opportunità di vita e di lavoro.

Individui che fuggono guerre, carestie, persecuzioni religiose, repressioni politiche, disastri climatici e ambientali.

Individui su cui si innesta – anch’essa globale e multilocale – una circolazione vertiginosa e caotica di immagini, idee, oggetti, usi, consumi e costumi che i vecchi rivoluzionati del 1968 chiamavano il regno o meglio la dittatura della forma di spettacolo.

Tutta questa dislocazione di vissuti, progetti, merci, sogni e la concomitante coesistenza nella stessa area di mutazioni e fluidificazioni culturali e sociali di difficile definizione ha di fatto banalizzato (svalutato) il paradigma che presupponeva una coincidenza tra cultura e territorio.

Sono processi inediti e ancora incontrollabili perchè riguardano l’intero pianeta.

Processi che hanno dilatato all’intera umanità collegamenti, informazioni, mobilità, aspettative di consumo che sono sempre esistite, ma un tempo limitate alle élite (soprattutto imprenditoriali e finanziarie) di piccolissime aree del mondo occidentale.

Realisticamente non tutti sono nomadi, ma è anche vero che non tutti vivono nello spesso mondo o nello stesso sogno post-moderno.

Così come è vero che solo un numero ridotto di individui vive sino in fondo i processi della globalizzazione, infatti, molta parte dell’umanità è ancora oggi dominata dai processi localistici ancora presenti e diffusi da per tutto, spesso degradati o limitanti.

Non è difficile costatare che milioni e milioni di persone vedono sempre più ridursi le opportunità di poter vivere  confinate giocoforza nei micro-territori dove sono nate e cresciute.

Tuttavia, le élite del pianeta – politiche, finanziarie, manufatturiere, militari, religiose, culturali e scientifiche – s’identificano ogni giorno di più, assumendo come modelli di vita, da elaborare, proporre, imporre, i processi (a loro vantaggiosi) della globalizzazione.

 

Che cosa comporta tutto questo al di là dell’epifenomeno del nomadismo di élite?

Che le differenze – profonde e devastanti – che affliggono il mondo assumono fisionomie, percorsi, esiti assolutamente diversi dal passato.

Soprattutto fanno saltare le contrapposizioni binarie, quelle tra culture dominanti e sub-culture, centri e periferie, una certa visibilità tra colonizzatori e colonizzati.

Dal punto di vista dell’identità i nuovi confini socio-culturali sembrano spostarsi in continuazione senza alcuna linearità.

Per esempio i processi di globalizzazione a livello economico e politico da una parte tendono a svalutarsi, dall’altra vengono riproposti per fermare i flussi migratori, per qualificarli e regolarli, così come molto spesso diventano barriere per frenare contatti eversivi, rivoluzionari o criminali.

Va anche rilevato un curioso fenomeno.

Un tempo le diversità culturali, in generale, andavano incontro all’assimilazione o al rifiuto, oggi invece si manifesta nei loro confronti una volontà mimetica, gli avversari dell’Occidente tendono a imitare gli stili di vita e a volere i beni e le tecnologie che l’Occidente produce, feticizzandoli.

Possiamo dire che non solo i beni di consumo e i divertimenti sono globalizzati, ma anche i prodotti digitali e – a livello degli stili di vita – la passività politica, la sottoistruzione, così come, a livello abitativo, le bidonville, i campi profughi stabilizzati, gli accampamenti frutto di stati di eccezione.

D’altro canto, scrive Arjun Appadurai – un antropologo inglese di origine indiana – appena le forze innovatrici provenienti dalle aree metropolitane sono portate all’interno di nuove società, tendono, in un modo o nell’altro, a subire un processo di indigenizzazione.

Questo processo riguarda la musica come i stili abitativi, i procedimenti scientifici come il terrorismo, gli spettacoli come i prodotti alimentari di massa.

In altri termini si da il caso che singole culture possono riprodursi o ricostituire la loro specificità sottoponendo le forme culturali transnazionali a un processo di indigenizzazione.

A questo proposito va notato che in termini antropologici il concetto di deterritorializzazione è estremamente dinamico e veloce.

 

Come ha notato il filosofo e sociologo polacco Zygmunt Bauman, nella contemporaneità i processi e i prodotti culturali tendono a svincolarsi dalla loro aderenza a un particolare spazio, perdono la loro identità territoriale, divengono mobili e a volte liquidi.

Più che la campagna è la città che sperimenta questi processi di globalizzazione.

Li sperimenta nei suoi ritmi di vita, nelle relazioni tra i gruppi – sociali, generazionali, etnici e sessuali – che la abitano.

Oggi, la pluralità culturale della città affonda anche nella costante presenza di localismi e nella continua elaborazione urbana del rapporto tra il locale e il globale.

Diciamo che il tessuto urbano fornisce lo sfondo, i materiali e le occasioni alla celebrazione di rituali propri di ogni gruppo sociale che vuole affermare sia la sua diversità che il proprio inserimento nel contesto in cui si trova a vivere.

In questo contesto i mezzi di comunicazione di massa svolgono un’azione di moltiplicazione,  immettendo gli eventi e i loro protagonisti nella rete (culturale e digitale) che congiunge i diversi luoghi in cui risiedono i gruppi emigrati dalle stesse patrie e figli della stessa lingua.

È facile intuire come tutto ciò alimenti, musiche, vestiario, produzioni artistiche e artigianali, esperienze cucinarie che possono nascere sia come rimpianto, sia come rivendicazione di separatezza identitaria.

 

É anche facile intuire come la realtà urbana tende a rendere tutti complici di un mercato sempre più vorace, trasformando questi gruppi in oggetti/merci di processi globali.

 

In queste condizioni completamente nuove la cultura – da quella di élite a quella diffusa dai mezzi di comunicazione di massa – ha anche cambiato tempi, modi e luoghi della sua produzione.

 

Essa può ancora conservare qualcuna delle sue radici, ma deve saper assimilare anche i nuovi paradigmi transnazionali e deterritorializzati che in qualche modo l’affiancano, le si sovrappongono o la penetrano affinché le sue dimensioni culturali, intese come sistemi di significati socialmente organizzati, siano accettate e condivise divenendo parte sia delle “radici” che dell’alterità che continua a riprodursi.

Così i confini della colonizzazione continuano a essere territoriali e economici, ma essi vengono mescolati, sovvertiti e resi opachi dalla produzione di un immaginario – nella forma spesso di un orientalismo esotico – e da forme di comunicazione sempre più efficaci.

In questo contesto lo studio della cultura è proiettato su dei nuovi paradigmi aperti dai processi di globalizzazione.

Per esempio si è svalutato lo studio della cultura per aree geografiche specifiche e si è sviluppato un dibattito sulle diaspore, sugli esili, sui movimenti migratori che hanno individuato i caratteri e gli ambiti dei nuovi nomadismi.

Ancora, sono emerse delle ricerche sul ruolo della memoria nella formazione dei nazionalismi, sono stati fatti degli studi sulle nuove articolazioni di centro e periferia e sulla crescente difficoltà a applicare i “diritti umani” davanti alla relatività delle culture.

 

Per concludere, oggi, voler studiare le nuove relazioni tra cultura e territorio implica dover porre l’accento sui processi del nomadismo contemporaneo a livello globale e a livello locale con particolare attenzione alla vita corrente, ai sogni, alle speranze e ai vissuti.

 

::::::::::::::::::::::::::::

.

Da almeno un ventennio a questa parte la definizione più comune di informazione è quella di “dati” più “significati”.

Dati dotati di significato, che devono rispettare i significati del sistema scelto, il codice e/o il linguaggio in questione.

Va sottolineato: i dati che costituiscono un’informazione possono essere dotati di significato indipendentemente dal destinatario dell’informazione.

Ciò detto, va anche aggiunto come lo sviluppo dei sistemi di comunicazione e di informazione  ha conosciuto, soprattutto a partire dalla seconda metà del Novecento, una grande accelerazione, destinata ad avere, in questo secolo, importanti ripercussioni sulla vita economica e politica, oltre che sul costume, la cultura, gli stili di vita.

Molti ritengono che questo sviluppo stia trasformando in profondità le stesse basi biosociali della conoscenza e del pensiero umano.

A questo proposito va ricordato che tra le caratteristiche specifiche dei new-media c’è quella di essere fortemente auto-promozionali, vale dire, capaci di promuovere se stessi, generando miti che alimentano l’immaginario collettivo, suscitando attese spesso impossibili da realizzare.

In questo ambito le tecnologie dell’informazione e della comunicazione, in inglese Information and Communication Technology (ICT), sono l’insieme dei metodi e delle tecnologie che realizzano i sistemi di trasmissione, ricezione ed elaborazione di informazione.

A partire dalla fine della seconda guerra mondiale l’uso della tecnologia nella gestione e nel trattamento delle informazioni ha progressivamente assunto un’importanza strategica crescente sia per le istituzioni che per i singoli.

Oggi possiamo dire che l’informatica –  i congegni digitali e i programmi di software – e le telecomunicazioni – costituite dalle reti telematiche – sono i due pilastri su cui si regge la società dell’informazione.

È difficile dare una definizione univoca delle ICT, perché di esse non esiste una definizione generale e condivisa.

In linea generale possono essere considerate come una risorsa essenziale delle organizzazioni, all’interno delle quali è sempre più importante riuscire a gestire in maniera rapida, efficace ed efficiente il volume crescente di informazioni.

In questo senso vanno considerate come uno strumento strategico in grado di mettere a disposizione dati e informazioni qualitativamente evoluti.

Il fine ultimo delle tecnologie dell’informazione è comunque la manipolazione dei dati tramite la conversione, la conservazione, la protezione, la trasmissione, il recupero, con l’aiuto del computer e delle tecnologie a esso connesse.

 

Con l’espressione tecnologia dell’informazione si indica l’uso della tecnologia nella gestione e nel trattamento dell’informazione, in particolare per quanto riguarda l’uso delle tecnologie digitali che consentono di creare, memorizzare, scambiare e utilizzare informazioni (o “dati”) nei più diversi formati: numerico, testuale, audio, video, immagini e altro.

La trasmissione di informazioni tra calcolatori connessi fra loro, realizzata a partire dagli anni ’60, costituisce poi un fenomeno di grande portata pratica e concettuale, vale a dire, la progressiva convergenza e integrazione di informatica e telecomunicazioni.

Questi due settori per molto tempo si erano sviluppati indipendentemente l’uno dall’altro, perché le telecomunicazioni utilizzavano soprattutto tecnologie analogiche.

Ma a partire dagli anni ’70  le tecnologie dell’informatica hanno cominciato a essere mutuate dalle telecomunicazioni e poi, dalla metà degli anni ’80, anche grazie alla diffusione dei personal computer, e iniziata la rivoluzione digitale applicata al campo audio-visivo.

La successiva diffusione della telefonia cellulare, contemporanea alla digitalizzazione delle reti telefoniche e di tutti i media di comunicazione (voce, video, immagini, documenti) ha portato all’ integrazione e alla globalizzazione di tutte le reti.

La tecnologia dell’informazione comprende oggi le reti di comunicazione, i sistemi di elaborazione (qualunque sia la loro architettura) e la multimedialità.

 

“Le ICT sono dispositivi che comportano trasformazioni radicali, dal momento che costruiscono degli ambienti in cui l’utente è in grado di entrare tramite porte di accesso (possibilmente amichevoli), sperimentando una sorta di iniziazione.

Non vi è termine per indicare questa nuova forma radicale di costruzione, cosicché possiamo usare il neologismo RIONTOLOGIZZARE per fare riferimento al fatto che tale forma non si limita solamente a configurare, costruire o strutturare un sistema (come una società, un’auto o un artefatto) in modo nuovo, ma fondamentalmente comporta la trasformazione della sua natura intrinseca, vale a dire la sua ontologia.

In tal senso, le ICT non stanno soltanto ricostruendo il nostro mondo: lo stanno riontologizzando”.

(Luciano Floridi, La rivoluzione dell’informazione).

 

Possiamo dire che le ICT stanno costruendo un nuovo ambiente informazionale nel quale i nativi digitali trascorreranno la maggior parte del loro tempo e questo è quello che più interessa le scienze sociali.

Ritorniamo ora sulla relazione dei new-media con gli individui.

É molto diffusa l’opinione che le conseguenze dello sviluppo dei sistemi di comunicazione siano sostanzialmente ambivalenti.

Alcuni ritengono che l’aumento delle informazioni e l’accresciuta velocità nella circolazione dei messaggi, tanto a livello micro o su scala locale, quanto a livello macro, vale a dire su scala planetaria, non significano in modo automatico un miglioramento o un peggioramento nella qualità della vita individuale o della società.

Al contrario, altri ritengono che i sistemi di comunicazione e di informazione abbiano portato a un inquinamento culturale e mentale che sta provocando un degrado dell’ambiente simbolico umano, degrado che corre parallelo a quello dell’ambiente fisico e materiale, che altera il modo di produrre e l’organizzazione economica della società.

In breve, lo sviluppo dei new-media può generare, soprattutto nell’opinione pubblica meno scolarizzata o anagraficamente anziana, grandi paure e nuove illusioni.

In questo contesto i new-media possono essere considerati degli apparati sociali nei quali sono incorporate tecnologie per la comunicazione a distanza.

La loro funzione principale è quella di connettere e/o di comunicare con il maggior numero possibile di individui e di istituzioni, riducendo al minimo i tempi di diffusione dei messaggi.

Nel corso di questo ultimo mezzo secolo essi hanno di fatto consentito il moltiplicarsi di contatti fra culture lontane, accrescendo gli scambi a livello planetario, e quindi sono stati un indubbio fattore di sviluppo, anche se ciò non esclude che ci siano fattori ambientali che possono ostacolare o distorcere la loro funzione o inquinare l’identità delle culture più deboli.

Il primo fattore ambientale di una certa rilevanza è costituito dal capitolo delle diseguaglianze sociali.

La mancanza di istruzione e le condizioni di vita precarie (o al limite della sopravvivenza) in molti paesi – definiti del terzo o del quarto mondo – escludono ampi settori della popolazione dalla fruizione dei new-media.

Per di più, molti mass-mediologi sostengono che lo sviluppo dei sistemi mediali e l’affermarsi di quella che viene chiamata la società dell’informazione non contribuisce a ridurre il gap esistente tra paesi ricchi e paesi poveri, ma porta a un suo aggravamento, generando nuove e più insidiose forme di diseguaglianza sociale e di ritardo culturale.

Un altro possibile ostacolo alla funzionalità dei new-media è costituito dal fatto che generalmente in tutti i paesi, compresi quelli definiti democratici, essi subiscono, in una forma o in un’altra, condizionamenti da parte degli ambienti politici, economici e finanziari, e spesso sono sottoposti a forme di controllo più o meno esplicite da parte di strutture più o meno legali e riconosciute.

Va aggiunto che i new-media, che abbiamo definito come apparati sociali, sono organizzati in base a routine formalizzate e dunque sono soggetti a quel fenomeno che in sociologia viene chiamato goal displacement, cioè, a una distorsione degli scopi primari per il quali sono stati costituiti.

Le ragioni classiche di questa distorsione possono essere le più diverse, vale a dire economiche, strategiche, tattiche, politiche.

Tra queste una delle forme più subdole di goal dispacement, perché inavvertita anche da chi ne è un attore, è la cosiddetta auto-referenzialità.

In cosa consiste?

Sempre più spesso coloro che hanno a che fare coi new-media – giornalisti, dirigenti, professionisti dei vari campi della comunicazione – invece di rivolgersi al pubblico finiscono per dialogare tra di loro o con quei pochi che hanno un accesso privilegiato alle fonti della carta stampata e delle televisioni, come sono i leader politici, i grandi manager, gli intellettuali, insieme ad altre categorie di personalità ritenute, non importa se a torto o a ragione, influenti, dai campioni sportivi ai divi dello spettacolo.

Questa auto-referenzialità dei new-media è più evidente se si considera l’importanza attribuita agli eventi e al modo di formarsi delle priorità in fatto di temi etici, economici e sociali e nella costruzione delle agende politiche (di chi governa e di chi sta all’opposizione) portando a uno scollamento tra le élite del potere e l’opinione pubblica.

Tra gli effetti funzionali, prodotti dall’espansione dei sistemi di comunicazione, vi è poi anche quello per cui quanto più cresce la quantità di informazioni diffuse dai new-media, tanto più si appanna o diminuisce l’attenzione del pubblico.

In altre parole, paradossalmente, più i new-media allargano l’area della comunicazione, meno riescono a farsi sentire e più perdono di autorevolezza.

Si tratta di un fenomeno di saturazione che può essere spiegato utilizzando il principio dell’utilità marginale che è alla base di molte analisi economiche classiche.

Nella fase storica di sviluppo dei media, caratterizzata da pochi canali di comunicazione, l’offerta informativa rimaneva relativamente bassa mentre l’attenzione del pubblico e la domanda di comunicazione tendevano costantemente a crescere.

Oggi, invece, il continuo flusso di notizie e d’informazioni di cui il pubblico è fatto oggetto fa sì che esso fruisca o approfitti sempre più distrattamente dei messaggi che gli vengono rivolti.

Così, oggi il valore aggiunto dei new-media, come è illustrato dal funzionamento dei mercati pubblicitari, è relativo alla loro capacità di attirare l’attenzione.

Da un paio di decenni a questa parte, come rilevano le indagini di mercato, il pubblico è in fuga dall’ascolto dei programmi televisivi e dalla lettura dei quotidiani.

Anche se il calo non è strutturale è tuttavia progressivo e si manifesta in tutti i sistemi mediali giunti a una certa soglia di sviluppo.

Di più, sembra irreversibile fuori dagli stati d’eccezione, come sono le catastrofi natali, le guerre, i grandi appuntamenti sportivi, eccetera.

Se non si accetta l’interpretazione secondo la quale il fenomeno sarebbe dovuto a una regressione culturale che prima o poi farà il suo tempo, associata a un disinteresse di massa verso l’informazione generalista, questa contrazione del pubblico va intesa come l’indizio di un mutamento sistemico.

Quale?

Il declino inarrestabile delle comunicazioni di massa tradizionali e l’avvento di modalità nuove di comunicazione mediale.

***

 

PARTE prima SECONDA parte.

Ritorniamo sul tema dello sviluppo dei mezzi di comunicazione.

Questo sviluppo sta trasformando in profondità le stesse basi bio-sociali della conoscenza e dell’esperienza umana.

Ricordiamo che tra le caratteristiche specifiche dei new-media – con i quali oggi conviviamo – c’è quella di essere fortemente auto-promozionali e autoreferenziali, vale a dire, pervasivi, capaci di promuovere se stessi, generando mitografie e suscitando attese più o meno indotte.

 

Un ruolo importante in questi processi lo giocano le tecnologie dell’informazione e della comunicazione, in inglese Information and Communication Technology (ICT).

 

Per usare le parole di Luciano Floridi:

“Le ICT non sono applicazioni che migliorano o aumentano le opportunità (…).

Sono dispositivi che comportano trasformazioni radicali, dal momento che costruiscono degli ambienti in cui l’utente è in grado di entrare tramite porte di accesso (di norma amichevoli), sperimentando una sorta di iniziazione.

 

Non vi è un termine per indicare questa nuova forma di costruzione, cosicché possiamo usare il neologismo riontologizzare per fare riferimento al fatto che tale forma non si limita solamente a configurare, costruire o strutturare un sistema (come una società, un’auto o un artefatto) in modo nuovo, ma fondamentalmente comporta la trasformazione della sua natura intrinseca, vale a dire la sua ontologia.

In tal senso, le ICT non stanno soltanto ricostruendo il nostro mondo: lo stanno riontologizzando”.

( Da, La rivoluzione dell’informazione).

 

In breve le ICT stanno costruendo intorno a noi un nuovo ambiente informazionale nel quale soprattutto i nativi digitali trascorreranno la maggior parte del loro tempo ed è questo l’aspetto che più interessa le scienze sociali.

Oggi, in cui è ancora importante la presenza di larghi strati della popolazione di cultura analogica, è diffusa l’opinione che le conseguenze dello sviluppo dei sistemi di comunicazione siano sostanzialmente ambivalenti.

C’è chi ritiene che l’aumento delle informazioni e l’accresciuta velocità nella circolazione dei dati, tanto a livello micro, interpersonale, che macro, vale a dire su scala planetaria, non significa in modo automatico un miglioramento o un peggioramento nella qualità della vita individuale o della società.

 

Altri, al contrario, ritengono che i sistemi di comunicazione e di informazione abbiano portato a un inquinamento culturale e mentale che sta provocando un degrado dell’ambiente simbolico umano e del vissuto.

 

Un degrado che corre parallelo a quello dell’ambiente fisico e materiale, che sta alterando in modo irreversibile le forme del lavoro, il modello di produzione e l’organizzazione economica della società.

In breve, lo sviluppo dei new-media genera, soprattutto nell’opinione pubblica meno scolarizzata o anagraficamente anziana, grandi paure e nuove illusioni.

 

A parte queste considerazioni, nel corso di questo ultimo mezzo secolo i new-media hanno, di fatto, favorito il moltiplicarsi di contatti fra culture lontane, accrescendo gli scambi e le esperienze e quindi sono diventati un indubbio fattore di sviluppo, anche se ciò non esclude la presenza di fattori ambientali che possono ostacolare o distorcere la loro funzione fino a colonizzare e inquinare l’identità delle culture più deboli.

 

Il primo fattore ambientale di una certa rilevanza è costituito dalle diseguaglianze sociali.

La mancanza di istruzione e le condizioni di vita precarie (o al limite della sopravvivenza) in molti paesi – economicamente definiti del terzo o del quarto mondo – escludono ampi settori della popolazione dalla fruizione delle tecnologie più costose e complesse a partire da quelle digitali.

Per di più, è l’opinione di molti sociologi, lo sviluppo dei sistemi mediali e l’affermarsi di quella che viene chiamata la società dell’informazione non contribuisce a ridurre il gap esistente tra paesi ricchi e paesi poveri, ma porta a un suo aggravamento, generando nuove e più insidiose forme di diseguaglianza sociale e di ritardo culturale.

 

Un altro possibile ostacolo alla funzionalità dei new-media è costituito dal fatto che in tutti i paesi, compresi quelli definiti democratici, essi subiscono, in un modo o nell’altro, condizionamenti da parte degli ambienti economici e finanziari o sono sottoposti a forme di controllo politico più o meno esplicite.

Va aggiunto che i new-media, che abbiamo definito come degli apparati sociali, sono organizzati in base a routine formalizzate e dunque sono spesso condizionati da quel fenomeno che in sociologia viene chiamato goal displacement, cioè, sottoposti a una distorsione degli scopi primari per il quali sono stati pensati.

Le ragioni di questa distorsione possono essere le più diverse, economiche, strategiche, tattiche, politiche, finanziarie.

Tra queste, una delle forme più subdole di goal displacement, perché inavvertita anche da chi ne è coinvolto, è la cosiddetta auto-referenzialità.

In cosa consiste?

Se si prendono in considerazione i programmi di informazione, con sempre più frequenza coloro che hanno a che fare coi new-media – giornalisti, dirigenti, professionisti nei vari campi della comunicazione – invece di rivolgersi al pubblico finiscono per dialogare tra di loro o con quei pochi che hanno un accesso privilegiato alle fonti riservate del digitale, della carta stampata e delle televisioni, come sono i leader politici, i grandi manager, gli intellettuali, insieme ad altre categorie di personalità ritenute, non importa se a torto o a ragione, influenti.

 

Questa auto-referenzialità dei new-media è più evidente se si considera l’importanza attribuita agli eventi e al modo di formarsi delle priorità in fatto di temi etici, economici e sociali e nella costruzione delle agende politiche (sia di chi governa, che di chi sta all’opposizione).

Modi diversi di intendere le priorità che portano a uno scollamento tra le élite del potere e l’opinione pubblica.

 

Tra gli effetti funzionali, prodotti dall’espansione dei sistemi di comunicazione, vi è anche quello per cui quanto più cresce la quantità di informazioni diffuse dai new-media, tanto più diminuisce l’attenzione del pubblico.

 

In altre parole, più i new-media allargano o inflazionano l’area della comunicazione, meno riescono a farsi seguire e più perdono di autorevolezza.

Si tratta di un fenomeno di saturazione che ha molte concause.

 

Nella fase storica di sviluppo dei media, caratterizzata da pochi canali di comunicazione, l’offerta informativa era relativamente bassa mentre l’attenzione del pubblico e la domanda di comunicazione tendevano costantemente a crescere.

 

Oggi, il flusso informazionale di cui il pubblico è fatto oggetto fa sì che esso usufruisca o approfitti sempre più distrattamente dei messaggi che gli vengono rivolti, svalutandone l’importanza.

In questo modo il valore dei new-media, come è mostrato dal funzionamento dei mercati pubblicitari, è relativo alla loro capacità di attirare l’attenzione.

 

Poi, come conseguenza dello sviluppo del digitale da un paio di decenni a questa parte il pubblico si è allontanato dall’ascolto dei programmi televisivi e dalla lettura dei quotidiani.

Anche se questo calo è fisiologico e non ancora strutturale è tuttavia progressivo e si manifesta in tutti i sistemi mediali giunti a una certa soglia di sviluppo.

Di più, sembra irreversibile fuori dagli stati d’eccezione.  …

…..

… Vediamo un po’ di storia.

A partire dalla prima metà degli anni ‘80 il sistema dei media è andato incontro a un cambiamento importante e rapido.

Per verificarlo è sufficiente ricordare che sino ad allora, in quasi tutti i paesi del mondo occidentale, vi erano soltanto pochi canali televisivi, spesso monopolio di Stato e in bianco e nero.

L’introduzione della televisione a colori, avvenuta in quel periodo, apparve da principio solo come un miglioramento tecnologico, in analogia con quello che successe nel cinema con l’introduzione della pellicola a colori.

Più o meno nello stesso periodo in cui fu introdotto il colore vi fu l’esplosione della videoregistrazione e l’arrivo sul mercato dei primi compact disc.

Ciò portò alla nascita di un nuovo settore di consumo mediale, quello del home video.  …

… La conseguenza sul piano strutturale di tutte queste innovazioni fu di portare a una convergenza e a un uso combinato delle diverse tipologie di produzione audiovisiva, diminuendo fortemente i tempi di circolazione dei prodotti comunicativi e riducendo di molto l’intervallo che separa la produzione dal loro consumo.

 

Tra le innovazioni tecnologiche di quegli anni va ricordato anche il telecomando, che è più di una comodità, ma introdusse la pratica dello zapping. …

….

… Per tornare in argomento tutte queste innovazioni produssero una trasformazione degli assetti formali dei media.

Per esempio, negli Stati Uniti nacque la CNN, un canale televisivo che trasmette soltanto informazioni, ventiquattro ore su ventiquattro.

Oltre a rompere il preesistente sistema oligopolistico, dominato da alcune grandi compagnie televisive, la CNN introdusse un modello nuovo di gestione delle informazioni, quello della televisione tematica a flusso continuo che diffonde i programmi via satellite o via cavo e si finanzia tramite abbonamento.

 

In Europa, contemporaneamente, ebbe fine il monopolio statale dell’audiovisivo e si affermò un modello misto di coesistenza tra radiotelevisione pubblica e radiotelevisione commerciale.

La pubblicità, che sino ad allora aveva avuto un’incidenza relativamente ristretta, s’impose come una componente centrale del palinsesto televisivo, investendo il vissuto quotidiano degli spettatori con i suoi stilemi e le sue metafore.

Rappresentava un nuovo linguaggio visivo che contribuì a alimentare un inedito e complesso immaginario collettivo che a sua volta diede vita a nuovi modelli culturali.

Nonostante fosse considerata, soprattutto dal mondo della cultura, come una forma di manipolazione e di persuasione occulta, la pubblicità divenne una tra le forme più originali di espressione della sensibilità e della cultura postmoderna…ma lo divenne a spese dei consumatori e della loro capacità di giudizio.

…è cosi che una affascinante signorina in mutandine mi induce a consumi inutili e a fidelizzarmi verso alcuni prodotti di massa!

 

In sostanza, il cambiamento sistemico sviluppatosi nell’ultimo decennio del ventesimo secolo  portò a un modo diverso di considerare il mezzo televisivo e a mettere in questione il concetto stesso di comunicazione di massa, così com’era stato inteso in precedenza.

 

La comunicazione di massa, in senso classico, indica la comunicazione a un pubblico di grandi dimensioni.

In questo senso la comunicazione di massa è quella forma culturale che ha caratterizzato la società industriale di fine Ottocento e dei primi decenni del Novecento, quando i media di fatto non esistevano o erano fruibili solo da una élite, e la circolazione sociale dei messaggi a larga diffusione era assicurata, più che dai media, dalle numerose occasioni in cui una moltitudine di persone si trovava fisicamente in contatto nei luoghi di lavoro, nelle caserme o nelle manifestazioni di piazza, culturali o politiche, spontanee o organizzate.

 

Tra l’altro, è stata una delle componenti che ha favorito la nascita dei dispotismi politici che hanno caratterizzato il secolo.

 

In questo contesto spetta a Marshall McLuhan (1911-1980) il merito di aver intuito per primo le nuove implicazioni sociali della comunicazione elettronica di massa.

 

Ricordiamo qui una delle sue celebri e controverse tesi secondo cui è il mezzo tecnologico che determina i caratteri strutturali della comunicazione, producendo effetti pervasivi sull’immaginario collettivo e indipendentemente dai contenuti dell’informazione che si sta veicolando.

In sostanza per McLuhan, the medium is the message.

 

Al suo nascere la televisione era stata considerata nient’altro che un perfezionamento della radiofonia, una scatola dei suoni a cui veniva ad aggiungersi l’immagine.

McLuhan dimostrò che in realtà la televisione era un medium del tutto diverso.

Non solo perché incorpora una tecnologia nuova, ma perchè comunica in base a una logica mediale sua propria.

 

Il modo che McLuhan usava per esprimersi, aforistico e spregiudicato, costellato da enunciazioni paradossali, fecero sì che venisse amato e sostenuto da una schiera di seguaci entusiasti, quanto avversato aspramente fino ad essere considerato, da molti rappresentanti del mondo accademico, alla stregua di un ciarlatano.

Ciò portò a non poche incomprensioni delle sue teorie e a molti litigi.  Gli studiosi di comunicazione ricordano, a questo proposito, la spregiudicatezza con cui egli attaccò Wilbur Schramm (1907-1987), considerato allora come il maggior esponente della communication research.

Un filone di ricerche empiriche, sviluppatosi sin dagli anni quaranta del secolo scorso negli Stati Uniti, che aveva elaborato importanti conoscenze sui meccanismi della comunicazione di massa.

 

McLuhan sosteneva che la televisione, essendo un mezzo freddo, vale a dire povero di informazioni, in quanto comunica essenzialmente attraverso immagini, richiede per funzionare la collaborazione dello spettatore, che deve poter attribuire un significato a ciò che vede sullo schermo (a differenza della radio, un medium caldo

Da questa osservazione McLuhan, in contrasto con la tradizione di studi sulla comunicazione di massa, ne deduceva – con una capriola logica – che la televisione, malgrado l’apparenza, è un dispositivo interattivo.
Dal canto suo, Schramm sosteneva che il pubblico non è passivo, come afferma la cosiddetta Bullet Theory, o teoria ipodermica, di ispirazione behaviorista, ma sa essere attivo e capace di reagire in molti e diversi modi, a volte inaspettati, a uno stesso messaggio. …

……

… Accantoniamo le polemiche di questa stagione di studi sulla comunicazione visuale di massa e vediamo, invece, che cos’è la BulletTtheory.

 

La teoria ipodermica (Bullet Theory), o anche teoria dell’ago ipodermico (dall’inglese Hypodermic Needle Theory) è una teoria che considera i mass-media come dei potenti strumenti di persuasione che agiscono direttamente sulla massa dei loro fruitori, in genere soggetti passivi e inerti.

Questa teoria rappresenta uno dei primi tentativi di comprendere il funzionamento della comunicazione interpersonale in maniera sistematica.

Fu molto popolare soprattutto negli anni Quaranta del secolo scorso sulla base delle ricerche della psicologia comportamentale (behaviorismo).

Per queste ricerche, infatti, la comunicazione (dei mass-media) è assimilabile a un processo diretto di stimolo e risposta.

 

Traducendo alla lettera, il termine bullet  significa”proiettile”, il messaggio mediale in questa teoria è considerato come un proiettile che colpisce in modo diretto un soggetto – un target – che ha poche possibilità di opporsi.

In altri termini, il messaggio “sparato” dal medium viene “iniettato” direttamente nella coscienza del ricevente senza che questi possa evitarlo e senza che se ne renda conto.

La Bullet Theory, che fin dall’inizio appariva molto schematica, ha oggi solo un valore più che altro documentario.

Per esempio, il concetto di target (alla lettera, bersaglio), usato in pubblicità per indicare i destinatari di un annuncio, deriva da questa teoria.

 

La Bullet Theory si sviluppò negli Stati Uniti soprattutto tra le due guerre mondiali (1920-1930), tra i suoi divulgatori ricordiamo in particolare Harold Lasswell, il teorico della communication research una disciplina che rappresenta, più che una teoria argomentata, un’ideologia che si respirava in quegli anni circa gli effetti dei media.

Occorre tener presente che in quel momento l’Europa era vittima dei grandi assolutismi politici e le masse erano assolutamente inconsapevoli del reale potere dei mezzi di comunicazione di massa, potere che invece spaventava molto gli uomini politici americani.

…Per riassumere.  Prendendo il nome dall’immagine dell’ago ipodermico (utilizzato per le iniezioni), questa teoria afferma che i messaggi colpendo gli individui, in modo diretto e immediato, sono in grado di modificare, gestire e controllare opinioni e comportamenti.

In altri termini, la teoria dell’ago ipodermico (o, teoria del proiettile) postula un forte effetto/potere dei mass-media su un’audience passiva e indifesa, manipolata dalla propaganda e dagli interessi (politici e economici) più o meno occulti.

Così, se una persona è raggiunta da un messaggio di propaganda, questa può essere facilmente manipolata e indotta ad agire secondo il messaggio ricevuto e senza averne una piena consapevolezza.. …

… Ritorniamo a Mc Luhan.

A più di mezzo secolo dalla pubblicazione dell’opera più famosa e completa di McLuhan, Understanding media (1964), molte delle tesi sostenute da questo autore appaiono sorprendentemente attuali, soprattutto se riferite alle reti dei computer e alle nuove prospettive della comunicazione interattiva.

L’idea più sorprendente e funzionale di McLuhan è stata quella dei media come protesi, ossia come un’estensione del sensorio umano nell’ambiente e, insieme, un mezzo di interazione con esso.

In sintesi Mc Luhan sosteneva che la comunicazione elettronica rende “immateriale” il nostro corpo, dilatandolo nell’etere con le nostre idee e che questo fenomeno è in grado di generare (come effetto collaterale) nuove forme di conflitto, sia politico che culturale.

 

Un’altra geniale idea di McLuhan, largamente ripresa in seguito, è quella secondo cui la comunicazione elettronica, considerata la sua velocità e la possibilità di far circolare le informazioni quasi in tempo reale, rende il mondo un “villaggio globale”.

Vale a dire lo rimpicciolisce.
Tra gli interpreti più originali di McLuhan ricordiamo Derrick de Kerckhove (che di McLuhan è stato assistente e collaboratore).

De Kerckhove considera i media elettronici come psicotecnologie che stanno modificando il nostro modo di percepire l’ambiente e di pensare le relazioni fra interno ed esterno.

Sviluppando il tema del villaggio globale de Kerckhove ha anche descritto l’avvento di una intelligenza connettiva basata su un nuovo brain-frame (o, schema-mente), che rende obsoleti i limiti sia dell’individualismo che del collettivismo così come sono pensati dalle scienze sociali e dalla filosofia ottocentesca.

Questo tema di un’intelligenza collettiva/connettiva superindividuale generata dalle reti mediali interattive è stato affrontato anche dal francese Pierre Lévy, che ha cercato di razionalizzarlo e di presentarlo come il progetto ideale di un nuovo legame sociale senza ostacoli.

 

Pierre Lévy (1956) è un filosofo francese che si occupa dell’impatto delle reti sulla società.

È stato allievo di Michel Serres e Cornelius Castoriadis e si è specializzato a Montreal.

È titolare di una cattedra sull’intelligenza collettiva all’università di Ottawa.

Può essere definito uno studioso delle implicazioni culturali dell’informatizzazione, del mondo degli ipertesti e degli effetti della globalizzazione.

Lévy sostiene che il fine etico di Internet dovrebbe essere lo sviluppo dell’intelligenza collettiva, un concetto già introdotto da altri filosofi-informatici.

 

In una intervista Lévy ha dichiarato: “In primo luogo occorre rendersi conto che l’intelligenza è distribuita dovunque c’è umanità, e che questa intelligenza può essere valorizzata al massimo mediante le nuove tecniche digitali, soprattutto mettendola in connessione.

Oggi, se due persone distanti fisicamente tra loro sanno due cose complementari, per il tramite delle nuove tecnologie, possono davvero entrare in comunicazione l’una con l’altra, scambiare il loro sapere, cooperare.  In breve e per grandi linee questa in fondo è il nocciolo dell’intelligenza collettiva”.

 

Quanto alla tesi che il computer sia una protesi della nostra mente e che sia possibile, in un futuro più o meno prossimo, collegarlo a essa in modo da potenziare le nostre facoltà sensoriali e intellettive, è suggestiva e per ora quanto utopica.

In passato è stata spesso sfruttata e resa popolare dalla letteratura di fantascienza, un filone letterario inaugurato da uno scrittore considerato un caso letterario, Philip K. Dick, che ha affrontato il tema dei simulacri, dei cloni e dei cyborg, e ha inaugurato la fantascienza cyberpunk.

 

Oltre a rimpicciolire emotivamente il mondo reale, si ritiene che i new-media digitali, cambiando la nostra concezione dello spazio, consentono la possibilità di creare nuovi luoghi, come le comunità virtuali, che pur non avendo come base una contiguità territoriale generano ugualmente delle relazioni di prossimità.

Vale a dire, spostano il fuoco del problema dal medium all’uomo e alla sua volontà.


Luciano Floridi ha definito l’infosfera come “lo spazio semantico costituito dalla totalità dei documenti, degli agenti e delle loro operazioni”.

Dove per “documenti” si intende qualsiasi tipo di dato, informazione e conoscenza, codificata e attuata in qualsiasi formato semiotico.

Gli  “agenti” sono qualsiasi sistema in grado di interagire con un documento indipendente (ad esempio una persona, un’organizzazione o un robot software sul web).

Quanto al termine “operazioni” include qualsiasi tipo di azione, interazione e trasformazione che può essere eseguita da un agente e che può essere presentata in un documento.


I limiti delle previsioni sull’evoluzione dei sistemi mediali sono stati quelli di non aver saputo valutare la complessità e le interazioni tra le tecnologie di comunicazione, il funzionamento dei mercati, la forma organizzativa degli apparati e gli stili di fruizione e consumo da parte del pubblico/utente.

Queste difficoltà derivavano dal fatto che è difficile riuscire ad avere dei punti di riferimento sicuri in un settore in continua evoluzione e espansione come questo dei new-media.

 

Pertanto, se negli anni novanta la letteratura sulla comunicazione è stata dominata dalle profezie e dalle mitologie, nate e diffuse soprattutto su internet, la tendenza che sembra affermarsi nel primo decennio del Ventunesimo secolo è quella di un ripensamento critico per un bilancio più realistico dei possibili sviluppi in corso.
Per esempio, non si è ancora completamente realizzata la digitalizzazione completa del flusso televisivo che, grazie alla traduzione in un codice binario delle immagini e dei suoni, consente l’aumento delle frequenze e dei canali disponibili dalle poche decine attuali a più di un migliaio.

Si è costatato che il passaggio dal modello di impresa televisiva finanziata dalla pubblicità, con visione gratuita dei programmi, alla televisione a pagamento nelle sue varie forme, compresa quella on demand, è più complesso di quanto non sembri.

A ciò va aggiunto che i media tradizionali non sono affatto scomparsi, come mostra l’esempio della radiofonia, che ha trovato una propria nicchia e nuove formule di fruizione da parte di settori considerevoli di pubblico.

Lo sviluppo dei cosiddetti web-logs è impressionante, ma non come sarebbe potuta essere e soprattutto la loro qualità – soprattutto sul piano di una semiologia della forma –  è ancora scarsa.

 

Su un altro versante,  negli Stati Uniti, in base a dati che risalgono a diversi anni fa, la percentuale di coloro che apprendono le notizie dalla rete è ormai superiore e in modo significativo a quella di coloro che le apprendono dalla televisione.

Gli spettatori televisivi che guardano i notiziari sono costantemente diminuiti dal 1995 a oggi, passando da valori vicini al sessanta per cento a poco più di un venticinque per cento.

Si stima che oramai circa l’ottantacinque per cento dei giovani attinge le notizie dalla rete, trascurando la televisione.
Va infine segnalata la convergenza multimediale tra video e computer, anche se per ora il computer rimane – soprattutto nelle aree non-urbane – un artefatto usato di preferenza nel lavoro e nella vita attiva, mentre lo schermo televisivo continua a essere la scatola mediale che presiede al divertimento e al relax.

 

In ogni modo, anche se con ritmi più lenti del previsto, l’affermarsi di quella che molti definiscono la società dell’informazione, e che altri preferiscono invece definire società digitale o società in rete, sembra gradualmente proseguire.

Lo dimostra il crescente numero di possessori di personal computer, di tablet e di smartphone, che secondo un dato del 2014 sarebbero più di due miliardi e mezzo nel mondo.

Gli utenti attivi di Internet, cioè coloro che passano almeno un’ora alla settimana collegati alla rete, erano 327,5 milioni nel 2000, secondo alcune stime sono oggi (2016) più di due miliardi e mezzo, vale a dire più del trenta per cento della popolazione mondiale.

 

Un paio di anni fa alcune rilevazioni della Società Nielsen hanno messo in luce che il rapporto degli utenti di lingua inglese con Internet sta cambiando.

Si valuta che le app (ricordiamolo app è l’abbreviazione della parola inglese “application”, ossia applicazione software) rappresentano più dell’80 percento del tempo trascorso su Internet mobile.

Gli intervistati hanno dichiarato che è più comodo scaricare le app che collegarsi a un browser come Chrome, Internet Explorer, Firefox, eccetera.

 

Se questa tendenza si confermerà il web è destinato a diventare un insieme di comunità chiuse, molto diverso dall’idea di rete così come si configurava qualche anno fa.

 

Questa tendenza era stata intuita dalla rivista Wired che nel 2010 annunciò, con un criticato articolo di copertina: “The Web is Dead”, come si poteva stare un giorno intero su Internet senza stare un minuto in rete.

Vale a dire si poteva leggere i giornali, trovare indicazioni stradali, consultare il meteo e intervenire sui social network senza aprire un browser.

 

Per quanto riguarda l’Italia, nelle aree metropolitane si trascorre più tempo navigando sullo smartphone (circa 110 minuti al giorno) che connessi a Internet (circa 80 minuti).

Ancora, il 60 per cento di chi ha meno di venticinque anni naviga solo da mobile.

 

Negli Stati Uniti la popolazione adulta trascorre l’equivalente di circa sei mesi all’anno nell’infosfera.

 

Stiamo dunque passando da una fase, in cui l’attività di connessione e di accesso alle reti che erano appannaggio solo di ristrette élite tecnocratiche o contro-culturali, a una fase in cui entrano in scena fasce sempre più ampie di pubblico che, negli Stati Uniti, arrivano a comprendere più dell’80 per cento delle famiglie.

La rapidità di questa evoluzione, anche se ancora fortemente squilibrata, può essere meglio compresa se si considera che alla radio occorsero circa quaranta anni per raggiungere un pubblico di cinquanta milioni di ascoltatori, alla televisione occorsero tredici anni per diventare popolare, mentre a internet sono bastati solo quattro anni.  …

…  In ogni modo le difficoltà nell’accertare quale sia l’influenza dei media sul pubblico ha portato i sociologi della comunicazione a distinguere tra gli effetti cognitivi della comunicazione e quelli persuasivi.

 

Questa nuova prospettiva di ricerca è stata di fatto aperta dagli studi sul cosiddetto effetto di agenda.

Il termine agenda indica l’insieme dei temi (in inglese issue, in francese enjeux) a cui si attribuisce priorità nei processi di policy making.

Secondo questa teoria, il più importante effetto dei media non è tanto quello di influenzare l’atteggiamento del pubblico pro o contro le alternative che un problema può avere, quanto piuttosto di rendere questo problema più visibile e quindi metterlo all’ordine del giorno e farlo considerare rilevante sia dall’opinione pubblica che dalla politica.

Ciò viene chiamato agenda setting, o predeterminazione dell’agenda politica.


Uno tra i contributi più originali sugli effetti della comunicazione è costituito dalla teoria della spirale del silenzio.

Questa teoria fu elaborata negli anni Settanta del secolo scorso da Elisabeth Noelle-Neumann,  docente di scienza della comunicazione, fondatrice, nel 1947, dell’Istituto di demoscopia Allensbach (Institut für Demoskopie Allensbach) di Magonza in Germania.

Questa teoria riguarda in modo particolare l’analisi del potere persuasivo dei mass-media.

La tesi di fondo è che i mezzi di comunicazione di massa (ieri soprattuttola televisione e oggi la rete), grazie al notevole potere di persuasione che hanno su chi ne usufruisce e quindi, più in generale, sull’opinione pubblica, sono in grado enfatizzare opinioni e sentimenti prevalenti o convenienti, mediante la riduzione al silenzio delle opzioni minoritarie e/o dissenzienti.

In particolare la teoria afferma che una persona singola è disincentivata dall’esprimere apertamente un’opinione – che percepisce essere contraria all’opinione della maggioranza – per paura di riprovazione e di isolamento da parte di questa maggioranza.

Questo fa sì che le persone che si trovano in tale situazione sono spinte a chiudersi in un silenzio che, a sua volta, fa aumentare la percezione collettiva (non necessariamente corretta) di una diversa opinione della maggioranza, rinforzando di conseguenza, in un processo evolutivo, il silenzio di chi si crede minoranza.

 

Questa teoria ha avuto un notevole impatto sulla scienza della comunicazione, in modo particolare sullo sviluppo del dibattito sui poteri di persuasione dei media, in contrasto con le scuole liberali che sostenevano che l’effetto di essi sul pubblico non fosse rilevavate e che comunque fosse gestibile.

In estrema sintesi la tesi centrale della teoria detta della spirale del silenzio può essere riassunta così:  Il costante, ridondante e caotico afflusso di notizie da parte dei new-media col trascorrere del tempo può sviluppare un’incapacità nell’opinione pubblica a selezionare e a  comprendere i processi di percezione e di influenza dei media stessi.

All’interno di questa situazione, come è stato provato, l’individuo singolo matura il timore di essere una minoranza rispetto all’opinione pubblica generale, così che per non rimanere o sentirsi isolato, anche se ha un’idea diversa rispetto alla massa, non esterna questa idea e cerca di conformarsi con il resto dell’opinione generale.

 

Nel corso delle sue ricerche, Noelle-Neumann ha anche dimostrato che le persone posseggono una specie di senso statistico innato, grazie al quale riescono a capire quale è l’opinione prevalente e, in questo modo, a conformarsi a essa senza tradire la propria.

 

Oggi le indagini sul campo hanno provato che i new-media non promuovono da soli la spirale del silenzio (in quanto fenomeni simili sono stati riscontrati anche in società dove i mass-media non sono diffusi), ma sono in grado di accentuare in modo significativo la paura dell’isolamento e quindi il processo di adattamento all’opinione generale.

 

C’è poi da sottolineare uno degli effetti collaterali che conseguono alla spirale del silenzio.

È l’esercizio, da parte dei mass-media, di una pervasiva funzione conformativa di omologazione e di conservazione dell’esistente, che di fatto li spinge a svolgere un ruolo ostile al rinnovamento delle sensibilità, dei gusti e delle opinioni.

(Cfr.,La spirale del silenzio – Per una teoria dell’opinione pubblica. Roma, 2002).

 

Per riassumere, semplificando, secondo Noelle-Neumann gli individui si trovano da almeno mezzo secolo a questa parte immersi in uno stato di isolamento – definito pluralistic ignorance – per il quale sono indotti a cercare di comprendere se il loro punto di vista sia condiviso da altri, prima di esprimersi pubblicamente.

 

Se questi individui trovano delle conferme alla loro opinione, la sostengono apertamente, mentre tendono a tacere in caso contrario.

Si innesca così, anche non volendo, un processo a spirale in cui, di volta in volta, gli uni si zittiscono e gli altri parlano più forte finché non si raggiunge un punto di equilibrio.

Da questo punto di equilibrio scaturisce poi un clima rappresentato dall’opinione dominante.

I new-media in questo processo svolgono un ruolo essenziale perché sono essi che forniscono rappresentazioni e narrazioni delle tendenze che si vanno affermando.

Ma è chiaro che tutto ciò è anche in relazione con il grado, maggiore o minore, di pluralismo dei mezzi di comunicazione.


In una democrazia pluralistica l’agenda politica si dovrebbe formare entro dei forum di discussione aperti e pluralisti, forum di cui possiamo osservare una loro parodia nei talk-show, spettacoli a basso costo nei quali gli opinion leader e i rappresentanti degli apparati politici competono fra loro e interagiscono con i new-media, cercando di stabilire a quali temi vada attribuita la priorità e di affermare una rappresentazione a loro favorevole del clima d’opinione.

 

Va ricordato che la qualità di una democrazia, oltre che dal pluralismo dei mezzi di comunicazione, dipende anche dal mantenimento della distinzione dei ruoli tra coloro che informano e i politici.

Quando questa distinzione tende a scomparire, la capacità di tematizzazione del giornalismo viene meno, il grado di auto-referenzialità del sistema di governo aumenta favorendo un distacco fra élite politica e cittadini.

In questo senso, l’influenza che i new-media hanno sulla politica varia anche a secondo del contesto sociale e politico dell’ambiente in cui operano.

 

Nei paesi dove sono al potere i regimi autoritari, o dove si sta sviluppando una transizione alla democrazia, il giornalismo e i new-media hanno quasi sempre svolto o svolgono una importante funzione democratica e contribuito positivamente al ristabilirsi delle libertà civili.

Viceversa, nelle democrazie consolidate l’interazione fra new-media e politica tende a produrre effetti involutivi.

 

C’è anche da rilevare che nelle democrazie consociative, che si basano su dei sistemi elettorali proporzionali, tende a generarsi il fenomeno della auto-referenzialità.

 

Nelle democrazie maggioritarie, e in particolare nei regimi presidenzialisti, invece, la politica-spettacolo genera forme di campagne negative basate sullo scandalismo e sull’attacco personale degli avversari che, a loro volta, diffondono cinismo e portano al rifiuto della politica da parte di larghi settori dell’opinione pubblica.

 

Tra gli elementi strutturali che invece caratterizzano l’evoluzione attuale delle democrazie mediatizzate, due in particolare vanno segnalati.

Il primo è costituito dall’uso sempre più frequente dei sondaggi d’opinione, non soltanto nell’imminenza delle campagne elettorali, ma in occasione di ogni evento o congiuntura di un qualche rilievo.

Questo crescente ricorso ai sondaggi assume la forma di una continua interrogazione del corpo elettorale e di una ininterrotta messa in discussione del consenso e degli equilibri di potere, che dà luogo al fenomeno delle campagne elettorali permanenti.

Il secondo elemento, intrecciato a questo primo aspetto, è quello della formazione di apparati sempre più massicci di consulenti ed esperti di comunicazione e di campaigning, che devono essere considerati come un tipo nuovo di attore politico, differenziato sia dagli apparati dei new-media che da quelli dei partiti o dei leader.

 

Tutto ciò ha reso popolare la figura dello spin doctor (termine intraducibile in italiano) il cui compito è quello di fornire ai new-media e all’opinione pubblica la versione autentica o meglio, autenticata dei fatti, vale a dire l’interpretazione più favorevole degli eventi e dei temi più scottanti, anche a dispetto dei fatti stessi.


I compiti dello spin doctor sono molto vari, ma tutti riconducibili a una comune radice: massaggiare il messaggio, cioè estrarre il meglio da qualsiasi situazione in cui sia implicato il suo committente, fornendo ai media una versione aggiustata di un evento-notizia in veste volta per volta di consigliere per la comunicazione, capo ufficio stampa, portavoce o campaign manager.

Lo spin doctor gestisce una crisi con messaggi o tattiche comunicative ad hoc, specialmente nel campo della politica, nei confronti ad esempio di una decisione impopolare, correggendo e smussando eventuali incaute prese di parola del politico che assiste, fornendo all’opinione pubblica l’interpretazione sexed up delle esternazioni del soggetto per cui lavora, al fine di evitargli critiche o comunque commenti malevoli.

Un’altra attività dello spin doctor è fornire notizie “informali” ai giornalisti, facendole passare per confidenze o facendole filtrare come notizie anonime.

Altro compito dello spin doctor è promuovere l’immagine di un soggetto come se fosse un prodotto commerciale.

Le attività dello spin doctor, quindi, in un certo senso riassumono e per altro verso travalicano gli incarichi del tradizionale addetto stampa e del consulente d’immagine..


Su questi temi una linea di interpretazione critica che si potrebbe definire neo-tocquevilliana (da Tocqueville) è stata sviluppata in Francia da Pierre Bourdieu, il quale, già in un saggio del 1973, aveva affermato provocatoriamente che l’opinione pubblica non esiste e che le indagini d’opinione, lungi dall’essere obiettive, sono un simulacro della volontà popolare, costruito con la scusa di dare la parola alla gente e utilizzato poi (questo simulacro) come instrumentum regni.

 

Un punto di vista non dissimile è stato sostenuto negli Stati Uniti da Benjamin Ginsberg, un filosofo della politica docente alla John Hopkins University nel Maryland, secondo cui quella attuale è un’età in cui dominano le opinioni delle masse manipolate.

Per Ginsberg, tra le masse e i leader viene a formarsi una specie di circolo vizioso: i politici, interessati a assecondare il pubblico, con i sondaggi ne catturano l’immagine per poi usarla come una loro risorsa di potere.

 

Su questo tema, in particolare, Bourdieu ha insistito nei suoi ultimi scritti, accusando la televisione di cedere alla logica commerciale della misurazione dell’audience e di piegarsi alle esigenze demagogiche di quello che chiama il plebiscito commerciale.  …

 

***

Alcune considerazioni storiche.

… Le straordinarie potenzialità offerte dalle tecnologie della comunicazione, per essere sfruttate appieno, devono essere considerate sia in relazione ai rischi connessi che a un loro inappropriato utilizzo.

Nella modernità il discorso sulla tecnica è così spesso polarizzato:

– o mette in luce, in maniera acritica, il suo potere taumaturgico,

– oppure rievoca angosce e paure.

 

Il timore che la tecnologia possa sfuggirci di mano è sempre in agguato e ha radici profonde: basti pensare al mito di Prometeo o a delle figure come il Golem o Frankenstein.

Diciamo che da qualche tempo a questa parte non sono solo il nucleare, la chimica e la manipolazione genetica a rivelarsi pericolosi,  ma possono diventarlo anche le tecnologie digitali e alcuni fenomeni culturali spesso sottovalutati, come l’esplosione informativa.

Per comprendere queste paure dobbiamo considerare anche le loro proporzioni.

Mentre la Biblioteca di Alessandria, con i suoi circa settecentomila rotoli di papiro e pergamena, conteneva tutto il sapere del mondo occidentale antico, il patrimonio librario della Bibliothèque Nationale de France che occupa oggi oltre 400 chilometri di scaffali, è solo un frammento delle nostre conoscenze.

Questa moltiplicazione delle informazioni, divenuta esponenziale con Internet e la telefonia cellulare, sta generando due fenomeni ancora incontrollati:

– l’anoressia informativa

– e il suo contrario, l’obesità informativa.

In entrambi i casi il crescente proliferare dell’informazione riduce la capacità dell’uomo di assimilare in maniera razionale la conoscenza, spingendo, soprattutto i giovani, a assorbire in maniera ossessiva, e spesso acritica, informazioni non nutrienti.

A ciò si aggiunge il cosiddetto sporco digitale, cioè le tracce che lasciamo sulla rete tendono progressivamente a diventare indelebili.

Come è noto i motori di ricerca registrano tutto, ma non esiste un processo condiviso che elimina dalle liste dei motori le informazioni non più attendibili o invecchiate.


Nella vita reale una buona codificazione è sempre in qualche misura ridondante.

La ridondanza si riferisce alla differenza tra la rappresentazione fisica di un messaggio e la rappresentazione matematica di esso, che non usa più bit di quanti sono necessari.

 

Le procedure di compressione, come sono quelle che riducono il peso delle fotografie digitali, operano riducendo la ridondanza dei dati.

 

In ogni modo la ridondanza non è sempre qualcosa di negativo perché può ridurre i rischi di un fraintendimento (dati inviati e mai ricevuti) o del rumore (dati ricevuti ma mai inviati).

 

Il fine di un processo comunicativo è la fedeltà, cioè, la trasmissione del messaggio originario dall’emittente al ricevente senza alterazione dei dati.


Anche strumenti rivoluzionari e apparentemente democratici come l’enciclopedia online Wikipedia vanno usati con grande cautela perché è la massa dei lettori che decide circa la veridicità dell’informazione, ma questa massa, come è oramai assodato, tende il più delle volte a riportare solo fatti banali e dati ritenuti oggettivi, eliminando giudizi e opinioni.

 

Questo processo di gestione del consenso finisce per creare un’unica base condivisa e massificata di conoscenza, eliminando le differenze, le ambiguità, le incertezze, la criticità.

Ecco perché da occasione democratica Wikipedia si sta mutando, per chi non sa già o non ha dimestichezza con le informazioni, in un pericoloso strumento di omogeneizzazione culturale.

 

Per gli studi sociologici ogni analisi delle nuove tecnologie della comunicazione non dovrebbe assolutamente prescindere da come l’uomo ha reagito e si è adattato a esse.  Questo perché le tecnologie sono da tempo indissociabili dal cammino dell’uomo verso la conoscenza e l’affrancamento dalle forze della natura.

Un tale potenziamento delle capacità umane, infatti, si trascina dietro aspetti fortemente problematici.

Oltre ai benefici immediati e osservabili – maggiore velocità e capacità di calcolo, possibilità di accedere a enormi quantità di informazioni – possono subentrare effetti collaterali che, alla lunga, rischiano di vanificare i benefici conseguiti.

Non è raro che l’espansione di una funzionalità possa tradursi in una atrofizzazione di un’altra, soprattutto a livello dell’esperienza sensoriale.

 

In passato, se l’uomo non era in grado di usare una specifica tecnologia, si limitava a non utilizzarla, o la faceva usare da chi n’era capace.

Con le tecnologie digitali, questo non è più possibile, non soltanto per la pervasività di tali tecnologie, vale a dire che tendono costantemente a diffondersi in ogni aspetto della vita corrente, ma anche e soprattutto, per la loro percepita necessarietà.

Oggi Internet è considerato un diritto e il cosiddetto – divario digitale – la separazione fra chi può accedere alla rete e chi no – viene ritenuta una nuova forma di esclusione che deve, almeno a parole, essere contrastata a ogni costo, con attenzioni e investimenti importanti.

 

Gli individui, dunque, non possono chiamarsi fuori dalle tecnologie digitali e dal loro impatto sulla loro vita corrente, ma non è tutto perché nel frattempo queste tecnologie continuano a progredire parallelamente a un altro fenomeno, quello degli individui che leggono e studiano sempre di meno.

Un tale divario tra l’uomo e la tecnica sta facendo nascere una vera e propria patologia della personalità, intesa come una mancata armonizzazione e sincronizzazione tra il mondo umano e quello rappresentato dalla tecnica e dalle tecnologie.

Le tecnologie, in particolare, stanno assorbendo tutta la capacità intellettuale dell’uomo, ma a danno delle sue potenzialità sentimentali, pulsionali ed emotive.  È come se esse nutrissero la cultura delle cose, invece che la cultura degli individui. …

 

… Nel mondo occidentale dimenticare ha un’accezione prevalentemente negativa.

Colui che dimentica è, per definizione, distratto, poco attento alle cose, svogliato, forse addirittura malato.

Ma per le neuro-scienze non è necessariamente così.  Se non si dimenticano i concetti obsoleti, non c’è spazio per le nuove idee.

In linea generale, se non scordassimo positivamente o attivamente alcune esperienze, o perlomeno se non fossimo in grado di contrastare i ricordi, non sempre potremmo apprendere qualcosa di nuovo, correggere i nostri errori, innovare vecchi schemi.

Per fare buon uso della memoria è quindi necessario sia saper ricordare sia saper dimenticare.

Dimenticare, in buona sostanza, è importante tanto quanto saper accumulare informazioni, tanto quanto saper alleggerire la mente dai suoi fardelli, ogni qualvolta questi tendessero a diventare eccessivi.

Possiamo quindi parlare di una vera e propria auspicabilità dell’oblio, soprattutto nella società attuale, dove il bombardamento informativo supera spesso i livelli di guardia.

Il medium digitale poi è doppiamente pervasivo.

È presente in modo sempre più diffuso negli spazi dove viviamo, ma soprattutto tende a interagire con tutti gli aspetti della nostra vita corrente: lavoro, studio, divertimento, sessualità, religione.

Ciò ha fatto emergere di riflesso un’identità digitale che ci renda riconoscibili e unici anche all’interno di questa sfera e ci consente di costruire relazioni virtuali con altre identità digitali.

Questo processo che permette a ciascun soggetto di costruirsi una vera e propria identità di rete sta avendo negli ultimi anni una vera e propria accelerazione.  …

… Questo uso delle tecnologie digitali, di fatto, non consente solo un’estensione e un potenziamento delle nostre capacità mentali, ma in prospettiva consente un vero e proprio sdoppiamento della nostra personalità.

 

I siti personali possono avere vita propria, possono venire consultati da terzi senza che i proprietari siano in quel momento collegati online, possono raccogliere automaticamente le informazioni, segnalare eventi, rispondere a richieste esterne.

L’esempio più popolare è quello delle nuove tecnologie vocali che permettono ai computer o alle segreterie telefoniche non solo di parlare e leggere i messaggi, ma anche di capire quello che gli chiediamo.

Oppure alle tecnologie di personalizzazione che consentono di lasciare tracce in ambienti digitali pubblici, consentendo all’utilizzatore di essere riconosciuto, di riprendere il lavoro fatto fino all’ultimo collegamento, di ricordare le preferenze manifestate.

 

Tutti questi contenuti richiedono un luogo personale di archiviazione che potremmo chiamare personal digital space i cui aspetti innovativi non sono legati tanto alla dimensione tecnica, quanto alle potenzialità del sistema rese disponibili nella forma di uno strumento conoscitivo.

Potenzialità che consentono di realizzare una vera e propria memoria estesa, a complemento e integrazione di quella fisiologica.

In  breve, ogni riflessione sulla comunicazione digitale non può prescindere da questa trasformazione dei recettori dei messaggi comunicativi.

 

Tra i numerosi caratteri di questi spazi digitali personali, uno è la sua proprietà di forzare la sintesi, la strutturazione e l’organizzazione dell’informazione consentendo un’archiviazione orientata al riutilizzo.

Il riassunto (o la selezione) di un saggio in forma cartacea non è riutilizzabile: si può solo rileggere, invece il riassunto in forma elettronica si può riutilizzare e anche integrare con altri contenuti.

 

La stessa letteratura moderna, che in qualche modo si può definire un’arte combinatoria, con i suoi gettoni lessicali, grammaticali e semantici ereditati può essere continuamente combinata e ricombinata in sequenze di espressioni.

Come è facile costatare una parte importante della letteratura, delle arti e della musica contemporanea è infatti costruita su citazioni e reiterazioni più o meno metaforiche.

 

Il poter disporre quindi in forma digitale di citazioni, frasi, tabelle numeriche, concetti provenienti da saggi e soprattutto di strumenti che ne facilitano il riuso combinatorio diventa uno straordinario strumento per potenziare e controllare il processo creativo.

Inoltre, l’esplicitazione dei collegamenti associativi contenuti rende evidente sul sito ciò che accade anche nella nostra memoria.

Per questo il web può apparire anche come una vera e propria memoria estesa.  …

 

… Il personal digital space, come abbiamo già notato, consente anche il cosiddetto dimenticare consapevole, risparmiando alla memoria lo sforzo di memorizzare informazioni in quel momento non rilevanti.

Il fenomeno dei siti personali è ancora relativamente poco diffuso, anche se la sua componente più narcisistica, il blog, è oramai un congegno di massa.

I blog, infatti, si occupano più di rendere disponibili i punti di vista di chi vi scrive che non di organizzare la propria conoscenza per un facile riutilizzo.

Infatti i contenuti dei blog sono pubblici, mentre le memorie estese tendono a essere protette da password.

…………

Sotto l’aspetto tecnologico le mutazioni originate dalla crescente disponibilità di banda stanno rendendo possibili nuovi servizi e nuove tipologie di contenuti audiovisivi, cosi come il passare dal testo ai linguaggi visivi aumenta il potenziale espressivo e consente letture più ricche

Un testo ha un inizio, una fine e un percorso obbligato di lettura, mentre un’immagine non lo ha. Inoltre, al contrario delle parole, le immagini posseggono una capacità di estensione verbale quasi infinita, in quanto l’osservatore deve, per poterle gestire, trasformarsi a sua volta in narratore.

 

Le nuove forme comunicative una volta che hanno superato la struttura testuale, che ha caratterizzato le origini di Internet, stanno dando vita a forme espressive contaminate e complesse.

Le complessità e la potenzialità legate ai nuovi linguaggi digitali abilitati dalla banda larga richiedono pertanto uno studio che dovrà fare leva su diversi saperi.

 

Il punto di partenza sono certamente i linguaggi cinematografici e quelli della rete, ma devono essere considerate anche le numerose altre forme espressive non testuali che si sono digitalizzate: fotografia, videogiochi, linguaggi promo-pubblicitari, espressioni artistiche, fumetti e animazioni, rappresentazione dati complessi, nuovi alfabeti grafico/testuali (come per esempio gli “emoticon”) ma anche mappe satellitari, motori visuali e realtà immersive come Second life.

In sintesi, diciamo che i componenti di questo nuovo corpus espressivo stanno creando, in maniera indipendente, le proprie grammatiche e retoriche.

In altri termini sta emergendo un esperanto digitale sempre più complesso, come il Globish, che si diffonderà su i differenti media e che adatterà i singoli contenuti alle più diversificate esigenze di comunicazione.


Globish:  Termine inglese composto da global ed english che designa l’inglese semplificato parlato dai non anglofoni

Il globish è una versione semplificata dell’inglese che si ripropone di usare solo i termini e le frasi più comuni e semplici della lingua.

Esiste un dizionario globish ideato dal francese Jean-Paul Nerriere, che ne ha tratto un marchio e ne detiene i diritti.

L’ideatore è un ex funzionario della IBM, che ha concepito questa sorta di inglese “leggero” che la gente di tutto il mondo dovrebbe capire più facilmente di quello esteso.

Nerriere ha avuto questa idea quando si trovava a un congresso assieme a altri colleghi di tutto il mondo che tra loro comunicavano col globish: quando si sono presentati i due americani che dovevano tenere la conferenza gli altri hanno capito semplicemente i loro nomi e per tutto il resto non sono riusciti ad intendersi.

Nerriere ha quindi deciso di scrivere un dizionario di sole 1500 parole per far imparare un inglese basilare e per far riuscire a farsi capire anche ai parlanti inglesi di madrelingua.


Ritorniamo in argomento.

Come è noto, nel mondo occidentale il settore dei servizi è in continua crescita e il fenomeno è costante e visibile da oltre un secolo.

In quest’ottica le tecnologie digitali stanno danno un ulteriore contributo a questa tendenza realizzando una condizione nella quale il reale si integra con il virtuale, creando un melting pot di esperienze completamente nuovo.

Va osservato che virtuale non vuol dire necessariamente privato della materia e della corporeità.

Nel caso delle emozioni fisiche, per esempio, la loro virtualizzazione spesso implica una compressione del segnale che le rappresenta con l’unico fine di consentirne una trasmissione telematica, senza nulla togliere alla fisicità delle emozioni codificate.

 

Inoltre, la cosiddetta anima digitale – sempre più diffusa nei prodotti usati nella vita quotidiana – non è semplicemente un modo per utilizzare in maniera più efficace tali oggetti, ma diviene, di fatto, una vera e propria forma di comunicazione.

Ciò implica che la progettazione di un prodotto e delle sue prestazioni sia sempre meno separabile dai processi di comunicazione di tale prodotto. …

… La comunicazione pubblicitaria viene sempre più integrata – talvolta addirittura sostituita – dalla comunicazione su web o da quella che il prodotto stesso genera durante il suo utilizzo.

L’attenzione crescente dei designer verso le interfacce nasce da queste considerazioni: l’interfaccia non è più solo il luogo dove si attivano le funzionalità del prodotto, ma tende a diventare il luogo dove si scambiano informazioni e comunicazioni fra il prodotto e il suo utilizzatore.

 

Pierre Lévy, un media philosopher che abbiamo già incontrato, sostiene che l’uso sociale di una tecnologia deriva dalla sua interfaccia.

In pratica non è il principio costitutivo di una macchina a determinarne l’uso, ma le modalità attraverso cui questo principio viene articolato nel rapporto tra uomo e macchina e cioè nell’interfaccia.

 

Dobbiamo anche rilevare, giunti a questo punto, un altro fatto significativo:

In una società che sembra trasformare tutto in virtuale, la dimensione corporea è ritornata a essere centrale, quasi per una sorta di bilanciamento fra aspetti immateriali e aspetti materiali.

Anche la crescente importanza – soprattutto in sede di management  – della comunicazione extralinguistica e in particolare del cosiddetto linguaggio del corpo (per fare un esempio) va in questa direzione.

Ma forse il luogo più interessante ed esplicito dove questo recupero del corpo sta avvenendo è nel mondo dell’arte con la performance.  I casi sono molti, alcuni estremi come le chirurgie plastiche pubbliche di Orlan pseudonimo di Mireille Suzanne Francette Porte o le performance di Stelarc, pseudonimo di Stelios Arkadiou, un artista australiano naturalizzato cipriota e considerato l’esponente teorico dell’estetica “postumana”.

Le stesse abitudini giovanili di comunicare tramite il corpo, non tanto vestendosi in un certo modo, ma utilizzando in maniera diffusa tatuaggi e piercing, sottolineano questa dimensione.

L’utopia cyborg di fondere la tecnologia con il corpo – che ha visto nel Futurismo una lucida e anticipatoria concettualizzazione – sta uscendo dalle avanguardie artistiche e dall’impegno politico per diventare linguaggio quotidiano.

Un altro aspetto di questa nuova centralità del corpo, visto sia come un medium sia come un contenuto, lo ritroviamo nella medicina.

Le nuove tecniche diagnostiche trasformano l’indagine, come nel caso dell’ecografia pre-parto, in una vera è propria comunicazione collettiva.

 

Paradossalmente anche la più antica forma di comunicazione, quella della vita, che sta alla base della nostra riproduzione, sta vivendo una vera e propria rivoluzione comunicativa.

L’incontro tra le scienze chimiche e biologiche e quelle informatiche ha fatto nascere una nuova disciplina, la genomica, che sta mettendo in luce le modalità di quella che possiamo considerare la base generativa di tutte le forme di comunicazione contemporanee: il codice della vita. …

Appendice.

In questa sezione del corso abbiamo esaminato a grandi linee il paradigma esplicativo dell’evoluzione della comunicazione dal punto di vista delle scienze sociali.

In altri termini, il modello di riferimento o, meglio, la matrice disciplinare con cui la sociologia affronta le interconnessioni (interazioni) che strutturano la vita corrente e le forme della comunicazione oltre il face-to-face.

 

C’è un punto critico dal punto di vista delle scienze sociali che deve essere sottolineato e che abbiamo fissato all’inizio del Novecento.
La straordinaria mutazione seguita al diffondersi dell’elettricità, delle reti materiali e immateriali e dei congegni ad essi correlati può essere definita antropomorfa, perché ha coinvolto il rapporto tra corpo, mente ed esperienza della realtà, con esiti che ancora ignoriamo e con metamorfosi che continuano a rendersi palesi e a sorprenderci.

 

Marshall McLuhan (1911-1980) diceva che la storia della comunicazione umana a partire dal congegno voce si può definire composta da tre fasi.
– Una fase predominata dalla forma orale (dall’oralità).
– Una fase dominata dalla scrittura.
– Una fase dominata dall’elettricità o meglio dai suoi artefatti.

La prima è durata circa 250mila anni.  La seconda circa 2500 anni.  La terza, appena iniziata ha poco più di un secolo di vita.  Tendenzialmente sarà molto più breve della seconda.

A proposito della fase dominata dall’elettricità McLuhan commenta:
Nell’era della meccanica avevamo operato una estensione del nostro corpo in senso spaziale.  Oggi, dopo un secolo e passa di impiego tecnologico dell’elettricità, abbiamo esteso il nostro sistema nervoso centrale in un abbraccio globale che abolisce tanto il tempo che lo spazio.”

(In pratica è come se vivessimo in un villaggio globale).

 

È come se tutte le forme di esistenza della modernità fossero state unificate da un vettore spaziale-iconologico – cioè, strutturato sulle immagini – che ha finito per rappresentare il senso stesso del mondo.

Questo vettore si è manifestato soprattutto come un potente strumento di sincronia di massa.

 

La sincronia è un concetto elaborato da Ferdinand de Saussure (1857-1913), il fondatore della linguistica, per indicare la capacità di un linguaggio di costruire un senso.
Occorre non sottovalutare il fatto  che i linguaggi non-umani, animali o artificiali, servono a comunicare, non a costruire paradigmi cognitivi sensati (fondati sui processi di simbolizzazione).

 

Poi, parlando dei modi di connessione abbiamo osservato che il modello di connessione che di fatto ha inaugurato il Novecento è stato un congegno straordinario, la radio, che ha dato vita ai primi importanti fenomeni di sincronia di massa.

Il carattere innovativo di questo modello sta nel fatto che il cuore della comunicazione non ha più al centro lo scambio comunicativo tra due o un piccolo gruppo di soggetti, ma il diffondersi rapido dell’informazione come una merce/prodotto da uno o più centri organizzati verso una moltitudine di consumatori.

Per mostrare l’efficacia di questo fenomeno di sincronia va ricordato l’impatto sui radioascoltatori di una trasmissione radiofonica, La guerra dei mondi di Orson Welles (1915-1985), realizzata negli Stati Uniti da questo giovane regista ventitreenne nel 1938, la vigilia di Halloween, la festa che noi chiamiamo di Ognissanti.


Una curiosità. C’è nel Van Nest Park, a Grover’s Mill, nel New Jersey, un monumento commemorativo eretto nell’ottobre 1998 nel luogo di atterraggio dei marziani secondo la trasmissione radiofonica,


In altre parole quello che fino ai primi del Novecento era affidato all’affabulazione di poeti, cantori, scrittori, eruditi, divulgatori comincia a essere distribuito su larga scala prima dalla radio e poi dalla
comunicazione filmica, televisiva, e infine televisivo-informatico-personalizzata.


Apriamo una piccola parentesi su come la sociologia definisce la multimedialità.

Diciamo che è la compresenza di più strutture comunicative sullo stesso supporto informatico che moltiplica i piani di lettura e, per conseguenza, i processi interpretativi.

Per estensione si parla di contenuti multimediali quando un’informazione si avvale di molti media, immagini in movimento (video), immagini statiche (fotografie), musica, grafi e testo.
Wikipedia è l’esempio più popolare di questa multimedialità.

La multimedialità non va però assolutamente confusa con l’interattività.
L’equivoco, in genere, nasce dal fatto che la multimedialità è in genere interattiva, cioè, consente all’utente di interagire con essa. Che cosa vuol dire? Che si può comunicare con il mouse o la tastiera e ricevere delle risposte. Perché è importante la interattività?  Perché essa indica che un sistema non è fisso, ma varia al variare dell’input dell’utente o, meglio, varia in base al “potere cognitivo” di costui.

In questo modo si riproducono le differenze culturali tra gli utenti dei sistemi informatici e spesso si accentuano.

La maggior parte dei sistemi e dei congegni della modernità sono interattivi.
In linea di principio, anche una lavatrice lo è, perché di fatto modifica il suo programma in base alle nostre richieste.

Il sistema interattivo per definizione è il computer.
Mentre non è interattiva la televisione analogica, per questo il suo consumo è definito una fruizione passiva.
La televisione digitale, invece, può essere interattiva e la sua attualità dipende proprio da questo, di essere suscettibile di feedback.


Nota bene.  Mentre l’interfaccia della lavatrice è un pannello di comandi attraverso il quale i suoi programmi entrano nel mondo di chi la utilizza. L’interfaccia digitale è una porta attraverso la quale l’utente è messo in contatto con il cyber-spazio.  In altri termini siamo in presenza di una nuova e assolutamente inedita dimensione del fenomeno migratorio: dall’habitat fisico all’infosfera.

Afferma Luciano Floridi: Quando gli immigranti digitali saranno sostituiti dai nativi digitali il corso dell’e-migrazione sarà completato e le future generazioni si sentiranno sempre più deprivate, escluse, svantaggiate e povere, ogni qual volta si troveranno disconnesse dall’infosfera.

 

Si può dire che la comunicazione digitale permette oramai una simultaneità intercognitiva delle esperienze che ha dato vita alla rimediazione (remediation) della realtà perché – in un certo senso – i new-media sono reali e perché l’esperienza che attraverso essi si acquisisce è il soggetto stesso della rimediazione.

 

Ritorniamo al nostro tema, quello della connessione.
Che cosa va rilevato dal punto di vista fenomenologico?  Che dipende dai metodi, dalle forme, dalle tecniche con cui questa connessione si effettua che la comunicazione stessa evolve anche a dispetto delle attese degli utenti.

Evolve anche e soprattutto “con” e “per mezzo” dei meccanismi socio-economici che con essa interagiscono.

In linea generale va notato però che nell’ambito del paradigma digitale le disparità economiche hanno un impatto minore delle disuguaglianze cognitive.

 

Se osserviamo la storia di questo ultimo secolo vediamo emergere con chiarezza gli effetti di massa che tutto ciò ha generato tra i consumatori-utenti:
* Imitazione massiccia degli stili di vita delle élite dello spettacolo e del potere economico.
* Imitazione degli atteggiamenti divistici dello star-system.
* Uniformazione del modo di pensare il proprio corpo e il proprio modo di abbigliarsi sviluppando       una sorta di conformismo creativo.
* Assimilazione, il più delle volte inconscia, dei messaggi che orientano i consumi e le opinioni politiche ed etiche.

 

Queste nuove forme di comunicazione hanno anche trasformato il modo di pensare il tempo.
Per esempio, il presente che viviamo si è dilatato e in esso non si coglie più il fluire della “temporalità”, cioè, del divenire.

Per di più, viviamo un tempo visuale che fatica a diventare tempo storico.

Con quali conseguenze?
Che le strutture narrative, che un tempo contribuivano alla costruzione del senso, si sono affievolite, mentre il progredire delle frontiere tecnologiche – soprattutto nel digitale – va di pari passo con le trasformazioni dei meccanismi cognitivi e degli artefatti legati alla visione.
In breve, il nuovo dominio del tempo e dello spazio amplia i poteri della mente, nello stesso movimento con il quale altera il fluire della coscienza dandogli una dimensione visuale.

Tutto ciò genera, all’interno delle società avanzate, nuove forme di conflitto e di anomia sociale che non sappiamo ancora gestire.

Sotto un altro aspetto è come se la contingenza legata alla visualità avesse preso il posto della narrazione (story-telling).  Cioè, del fluire del narrato.
Più concretamente, l’avvento del world wide web ha segnato l’inizio di un’era di cui non sappiamo ancora tracciare in modo attendibile il divenire.

Per esempio, nonostante che una grande quantità d’informazioni si sia resa disponibile è sempre più complicato determinarne la veridicità e l’affidabilità soprattutto quando sono in forma visuale.

 

I media – a ragione della loro struttura comunicativa – modificano profondamente la nostra percezione della realtà e della cultura senza per altro che gli uomini lo percepiscano nel momento in cui queste modificazioni avvengono.

Lo intuì Marshall McLuhan (1911-1980), che lo sintetizzò in una formula efficace: Il medium è il messaggio o, meglio, sul piano metaforico, il massaggio.

Il titolo del libro a cui questa formula fa capo è: The medium is the massage, McLuhan lo scrisse con Quentin Fiore nel 1967.


Alcuni dicono che il mezzo è divenuto il massaggio a causa di un errore del tipografo che entusiasmò McLuhan, che lo lesse come “mass.age”.

Più verosimilmente, considerati gli studi di McLuhan, è ricavato da un’affermazione di Thomas S. Eliot, nato in America, ma stimato come uno dei poeti inglesi più famosi del Novecento.

Eliot in un suo saggio critico scrisse che il poeta si serve del significato come un ladro di serve del pezzo di carne che lancia al cane di guardia per distrarlo e entrare in casa.

Per analogia possiamo dire che credere che un sito Internet trasmetta contenuti piuttosto che “forme di mutamento” è come pensare che lo scopo del ladro sia sfamare il cane di guardia.

In realtà noi siamo massaggiati (circuiti) dal mezzo e in qualche modo plasmati da esso.

In altri termini, i new-media ci condizionano e contribuiscono a modellare il nostro modo di pensare.

Non dobbiamo dimenticare che per McLuhan, IL CONTENUTO DI UN MEDIUM È UN ALTRO MEDIUM.


McLuhan è l’autore più famoso di quella che è stata definita la Scuola di Toronto, a cui hanno dato il loro contributo Harold Innis, Walter Ong, Joshua Meyrowitz e molti altri.  …..

 

Il fatto che la comunicazione visuale di massa sia diventata una merce preziosa rende estremamente importante lo studio delle strategie con cui vengono prodotti e diffusi i messaggi, specialmente quando lo scopo di questi è d’influenzare i comportamenti dei destinatari.

Per la sociologia i mass-media vanno dunque considerati dei nuovi, potenti e in parte incontrollabili agenti di socializzazione, come lo erano ieri la famiglia, gli amici, le piazze, i teatri, la stampa popolare.
Incontrollabili soprattutto dal punto di vista della loro capacità di manipolare l’opinione.

Questa socializzazione dipende:
-da strategie intenzionali (come sono quelle contenute nelle trasmissioni radiofoniche, cinematografiche e televisive, in Internet…)

– da effetti indiretti (come la massificazione dei consumi e degli stili di vita che scaturiscono dalla pubblicità mascherata da informazione o occulta, com’è quella dei telefilm, dei reality show, dei serial.

Alcuni ritengono che queste nuove forme di socializzazione siano diseducative perché si concentrano sul solo vedere svalutando gli altri sensi.

Altri, fatalisti o ottimisti, poco conta, ritengono che ci aspetta un futuro all’insegna del visuale o, meglio, di una visual culture.

Nei paesi della fascia temperata del pianeta e, in particolare, in quelli ad industrializzazione avanzata, i bambini stanno davanti alla televisione, ai computer o alle tablet per più di quaranta ore la settimana.  (Dato del 2016)
Cosa comporta questo?
Un’accentuarsi della difficoltà a distinguere la realtà dalla finzione.

Una disumanizzazione dell’Altro da sé.

Il fatto che ci sia tanta violenza sul piccolo schermo induce il bambino ad una vera e propria indifferenza empatica per i problemi altrui.

Come tutti hanno avuto modo di costatare, nel mondo degli adulti ci si commuove per gli avvenimenti di una fiction e si resta indifferenti mentre sullo schermo delle news scorrono scene di fame o di violenza.  Per di più questi adulti non hanno alle spalle una storia televisiva come quella dei loro figli.

Un’accentuata difficoltà a distinguere tra gli oggetti – in particolare quelli animati – e le persone, che induce a pensare di poter trattare le seconde come se fossero cose.

Un accrescimento dell’aggressività (che può essere connessa ai nuovi paradigmi della velocità).
Consideriamo adesso alcune tesi di un sociologo che ha lavorato a lungo con McLuhan, Derrick de Kerckhove, belga di nascita, naturalizzato canadese (è stato uno dei direttori del McLuhan program presso l’Università di Toronto).
Kerckhove, inoltre, è uno dei primi sociologici che ha aperto un dibattito sul tema della connettività.
La connettività va intesa non solo come un problema informatico per la soluzione della comunicazione tra sistemi diversi, ma come un approccio collettivo di singoli soggetti per il raggiungimento di un obiettivo, di un oggetto multimediale o di un artefatto cognitivo.

 

Il suo scopo è di esplorare come le nuove tecnologie influenzeranno la società a partire da un’idea di fondo, quella per la quale queste tecnologie non solo promuoveranno delle inedite espressioni artistiche e culturali, ma le integrano in nuovi sistemi formali.

In altri termini, di come si ricompone il tema della estetizzazione della società e dei  nuovi valori che promuovono l’etica del simbolico e la formazione dell’immaginario.

Il punto di partenza è il superamento della civiltà della televisione – un congegno sostanzialmente passivo che ha relegato lo spettatore a semplice consumatore o adoratore di merci – per arrivare a una società nella quale il computer è il simbolo di una nuova stagione di forme e strategie interattive.
Questa nuova epoca, per Kerckhove, sarà inevitabilmente all’insegna di una nuova estetica.

In particolare, le forme dell’interazione sociale – mediate dai congegni informatici – saranno più artistiche, più visuali e legheranno l’arte ai nuovi paradigmi scientifici.
Tutto questo comporterà la trasformazione dell’estetica del sentire e dei suoi modi d’esprimersi.

In questa prospettiva, per quanto riguarda in particolare le arti, l’attenzione si sposterà dall’artista-produttore, inteso come un creatore, a un soggetto fruitore-consumatore, che interverrà direttamente sull’opera-progetto dialogando con essa, condividendone la “situazione”.

Nascerà, come molti dicono, un “arte situazionale”.

 

La rete, in sostanza, è destinata a diventare uno strumento di nuove aggregazioni socio-culturali basate sia sugli interessi che sulle affinità di coloro che sapranno gestirla.

Qui c’è una considerazione da fare.

Se non saranno alterati eccessivamente (da un punto di vista economico) i parametri per accedere al web, in questa nuova visione sociologica delle reti i rapporti sociali riacquisteranno una parte di quel potere che hanno perduto con l’affievolirsi delle ideologie nel corso del Novecento.

Sotto l’aspetto delle architetture cognitive sembra che tutto tenda a far si che l’informazione diventi il “vero” ambiente (assimilabile alla forma di un neo-luogo) in cui si muovono gli uomini e le idee.

Un ambiente in cui sarà determinante, per stabilirne il valore, l’importanza che acquisteranno i congegni che veicolano i messaggi informativi.

Un’idea già avanzata da McLuhan che affermò come i media moderni possano essere equiparati a delle forme ambientali in cui vive l’uomo che essi stessi modellato.
L’ambiente digitale, dunque, è un nuovo medium e sembra, paradossalmente, che l’uomo abbia realizzato un modo di vivere nelle sue fantasie e nei suoi sogni.

Del resto, quando l’informazione viaggia alla velocità dell’elettricità, il mondo delle tendenze, delle immagini e delle voci diventa il mondo reale, o se si preferisce, lo specchio del mondo che conosciamo.

Ma perché questa nuova configurazione del mondo diventa il mondo reale?

Perché nel sistema delle comunicazioni via web l’intervallo temporale tra lo stimolo e la risposta, tra chi trasmette e chi riceve è collassato.
Da tutto questo deriva una nuova interdipendenza, che si realizzerà pienamente nel ventunesimo secolo, tra le tendenze sociali, economiche, culturali e politiche.

Interdipendenza che renderà tutto apparentemente incerto (liquido) e certamente complesso, facendo crescere la necessità, poco importa se reale o solo immaginaria, di nuove forme di sicurezza non solo sociale.

 

Sotto un altro aspetto, tutto si presenta accelerato e, per questo, vissuto in modo sempre più precario e aggressivo.
C’è continuamente meno spazio tra l’azione e la reazione, tra gli stimoli e le risposte del pensiero connettivo, con la conseguenza che si sta formando una sorta di contiguità tra il pensiero che pianifica e l’azione.

La rete finisce così per diventare una sorta di moltiplicatore, sia positivo che negativo, di tutti i processi reattivi prodotti dal comportamento collettivo.

Dalle attività legate al commercio, al loisir, agli affari, allo sport e, non da ultimo, al terrorismo.

In pratica è come se dicessimo che l’inconscio collettivo sta scivolando o, se si è ottimisti, evolvendosi verso un inconscio connettivo.

Un inconscio dove non domina più il simbolico, ma ciò che è condiviso nel web.

Questo globalismo planetario che sta delineandosi come il nostro futuro si fonda soprattutto su due fattori, il multiculturalismo e la condivisione dei destini.

Come dicono i poeti e i visionari di questa nuova realtà: Una farfalla sbatte le ali in Cina e in Europa trema una montagna.
Una tale condivisione dei destini è un punto importante per le scienze sociali perché ridefinisce l’individuo dal punto di vista delle sue responsabilità sociali, economiche, ecologiche e etiche.

In altri termini si sta sviluppando un nuovo paradigma intorno al tema della responsabilità civica e pubblica, perché globalità significa anche estensione delle responsabilità.

Non per caso nel tempo della velocità elettrica siamo tutti più vicini con il risultato che spesso il problema del mio vicino è anche il mio problema, sia che si parli di politica che di diritti umani, di economia, guerra o privilegi.

Da questo stato di cose si genera per reazione l’atteggiamento nimby – not in my back yard, non nel mio giardino.

In che cosa consiste?

Nel riconoscere come necessari, o possibili, gli oggetti o le circostanze che stanno alla base del contendere, ma allo stesso tempo nel non volerli nel proprio ambiente o nel proprio territorio a causa delle eventuali controindicazioni o disagi di cui sono portatori.  …

 

… Per concludere la “nuova modernità” si sta dunque configurando secondo tre direttrici fondamentali:

– L’interconnettività globale, vale a dire planetaria.

– Un’accelerazione mai conosciuta nell’evoluzione degli stili di vita.

– Una serie di trasformazioni ecologiche globali dovute all’interazione dei fattori evolutivi, sociali, culturali, economici e tecnologici.

Tutto questo riuscirà compatibile, osservano gli organismi internazionali, se:

– Miglioreranno le condizioni di vita.  Ancora oggi più del venti per cento della popolazione globale vive in condizioni di povertà estrema.

– Se cresceranno le aspettative di vita alla nascita e se si saprà gestirle.

(L’aumento della vita media, infatti, crea dei forti problemi sociali ed economici, come dimostra in Italia la discussione sulle pensioni d’anzianità.)

– Se saranno risolti il problema dell’alfabetizzazione e quello dell’emancipazione delle donne e dei più deboli in genere.

– Se sarà realizzato un accesso diffuso ed economico ai mezzi di comunicazione.

– Se crescerà sia sul piano quantitativo che qualitativo il “prodotto interno lordo” dei paesi

industrializzati e se si svilupperanno le forme della democrazia nei paesi delle zone povere.

– Se le tensioni sociali non si trasformeranno in un rifiuto al cambiamento.

– Infine, ma non da ultimo, se non proseguirà a questa velocità la rottura degli equilibri naturali e climatici.

 

********************************************

Appunti di Sociologia della Comunicazione – A.A.2018-19 – Parte II

SOCIOLOGIA DELLA COMUNICAZIONE

PARTE SECONDA

APPUNTI NON REDAZIONATI AD USO SCOLASTICO.   – IED 2018-19.

Appunti di Sociologia della Comunicazione – parte II – versione PDF

I NUOVI SCENARI SOCIO-DIGITALI.

Nota Introduttiva.

C’è una importante correlazione che si sta sviluppando tra le ICT digitali (tecnologie dell’informazione e della comunicazione)  e quella che in filosofia è chiamata la coscienza del sé.

(L’espressione indica l’uso della tecnologia nella gestione e nel trattamento dell’informazione, specie nelle grandi organizzazioni. In particolare riguarda l’uso di tecnologie digitali che consentono all’utente di raccogliere, creare, memorizzare, scambiare, utilizzare e processare informazioni (o “dati”) nei più disparati formati: numerico, testuale, audio, video, immagini e molto altro.)

Il ciclo dell’informazione: Generare – Raccogliere – Registrare e immagazzinare – Processare – Distribuire e trasmettere – Usare e consumare – Riciclare e cancellare.

 

Questa correlazione coinvolge sia il nostro modo di confrontarci con l’Altro da noi, che il nostro modo di relazionarci al mondo o, meglio, alla natura materiale delle cose.

Oramai è un dato di fatto.  Da almeno una ventina di anni, grazie al digitale, siamo circondati (molti dicono immersi) da/in nuovi e inediti geo-scenari sociali e culturali e dai loro risvolti economici e politici.

Diciamo che siamo circondati dalle nanotecnologie.  Siamo avvolti nell’internet delle cose.  (Nelle telecomunicazioni l’internet delle cose è un neologismo riferito all’estensione di internet al mondo degli oggetti e dei luoghi concreti.)  Siamo circondati dal web semantico.

Con il termine di web semantico – un termine coniato dallo scienziato inglese Tim Berners-Lee – si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, ecc…) sono associati ad informazioni e a dati che ne specificano il contesto semantico in un formato adatto all’interrogazione e interpretazione.

In questo modo, con l’interpretazione del contenuto dei documenti del Web semantico saranno possibili sia ricerche più evolute delle attuali – basate sulla presenza nel documento di parole chiave – sia operazioni specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.

Ancora, siamo utenti del cloud computing.  Una tecnologia che consente di usufruire, tramite server remoto, di risorse software e hardware (come memorie di massa per l’archiviazione di dati), il cui utilizzo è offerto come servizio da un provider tramite abbonamento.

Possiamo usufruire di giochi basati sul movimento del corpo.

Di applicazioni per gli smartphone, per i tablet, per il touch screen.

Abbiamo la possibilità di usufruire del GPS, un sistema di posizionamento satellitare che permette in ogni istante di conoscere la longitudine e la latitudine di un oggetto

Ricordiamo che i dispositivi muniti di un ricevitore GPS sono tantissimi: navigatori, smartphone, tablet, smartwatch, solo per citarne qualcuno.

GPS è l’acronimo di Global Positioning System, si tratta di un sistema per il posizionamento globale.  Grazie al GPS è possibile localizzare la longitudine e la latitudine di oggetti e persone.

Il tutto avviene con i satelliti che stazionano nell’orbita terrestre e permettono di sapere in ogni istante l’esatta ubicazione di un luogo.

Ricordiamo a questo proposito che i satelliti contengono un orologio atomico che calcola con estrema precisione l’ora del momento in cui avviene la trasmissione del segnale dal satellite, informazione essenziale, insieme a quella della posizione del satellite, perché il ricevitore GPS possa calcolare di conseguenza la propria posizione.

Non da ultimo siamo immersi nella realtà densificata, tra droni (vale a dire oggetti volanti radiocomandati), auto che si guidano da sole, stampanti 3D, social media, cyber-guerre…

 

Sono tutti argomenti che costituiscono un terreno di polemiche tra tecnofili e tecnofobici e un’ampia discussione tra coloro che si domandano che cosa non si comprenda o si nasconda dietro tutto questo.

Che cosa dobbiamo aspettarci?

E soprattutto, la cosa più importante: possediamo una prospettiva ermeneutica per comprendere e gestire tutto questo?

La difficoltà maggiore è riuscire a comprendere quanto queste tecnologie sono estese e come hanno potuto diventare forze ambientali, antropologiche, politiche, sociali e, non da ultimo, culturali, vale a dire, capaci di interpretare e di trasformare il qui ora dell’esistenza.

 

Queste nuove tecnologie, a differenza di quelle arcaiche, hanno il potere:

–          di creare e plasmare la realtà fisica e intellettuale,

–          di modificare la nostra capacità di giudizio,

–          di cambiare il nostro modo di relazionarci con gl’altri,

–          di modificare la nostra Weltanschauung e,

–          differenza importante, sono in grado di fare tutto questo in modo pervasivo, profondo e continuo.

In conclusione, volenti o nolenti – noi globalizzati – ci troviamo a vivere nell’infosfera all’alba di un millennio che ancora non comprendiamo.

 

I punti critici di queste nuove problematiche sono noti.

Saremo capaci di ottenere il massimo dei vantaggi dalle ICT?

Saremo capaci di minimizzarne gli svantaggi?

Quali rischi corriamo nel trasformare il mondo in un ambiente sempre più digitale?

A parte ciò, a ragione della loro natura queste tecnologie ci costringeranno dentro spazi fisici sempre più inconsistenti e concettualmente sempre più limitati.

 

Perché queste domande sono necessarie?

Sostanzialmente perché oggi le novità non danno più vita a delle fratture nella continuità che siano facilmente e a breve termine ricomponibili o assorbibili.

In linea generale per comprendere queste novità abbiamo bisogno di una nuova filosofia della natura e della storia, di una nuova antropologia e di una nuova scienza della politica.

Diciamo che ripensare il presente e il futuro in un mondo sempre più digitalizzato richiede una nuova filosofia dell’informazione.

La società dell’informazione ha le sue radici nella scrittura e nell’invenzione della stampa e dei mass media.

Cioè nella capacita di REGISTRARE e di TRASMETTERE.

Oggi questa società si è evoluta con la capacità di PROCESSARE.

Una capacità che, paradossalmente, ha contribuito a generare nuove forme di  DEFICIT CONCETTUALI.

 

I paesi del G7 – Canada, Francia, Germania, Giappone, Gran Bretagna, Italia, Stati Uniti –  (in realtà questi paesi sono molti di più), costituiscono quella che si chiama una società dell’informazione.

Perché?

Perché più del settanta per cento del PIL dipende da beni intangibili – vale a dire che concernono l’informazione – e non da beni materiali, come sono quelli del settore agricolo e manifatturiero.

***

Vediamo alcuni lemmi legati al tema dell’infosfera a partire dalla definizione di algoritmo.

 

L’algoritmo è un processo logico-formale che si struttura, articolandosi in una serie di passaggi logici elementari.

Questo processo conduce a un risultato definito da un numero finito di passaggi.  (L’espressione di algoritmo deriva dalla latinizzazione del nome del matematico persiano Muhammad Ibn Musa al-Khwarizmi, vissuto nel nono secolo dell’era comune.)

Lo schema logico di un algoritmo si può esprimere con la forma if / then – SE/ALLORA.

Nel mondo che viviamo sappiamo (per esperienza) che ogni passaggio logico comporta una decisione che influenzerà il passaggio successivo.

C’è un gioco che illustra bene questo. È la morra cinese.

Per vincere a questo gioco i passi elementari possibili sono tre:

Se sasso, allora carta.  Se carta, allora forbice. Se forbice, allora sasso.

Fatte le debite proporzioni, i computer che giocano a scacchi operano nello stesso modo.

A ogni mossa del nostro avversario un algoritmo cerca le contro-mosse possibili, valuta le possibilità e seleziona la migliore.

L’importanza degli algoritmi (cioè di questi processi logico-formali) è esplosa con la nascita dell’informatica.


L’informatica è la scienza che studia l’elaborazione delle informazioni e le sue applicazioni.

Più precisamente, l’informatica si occupa della rappresentazione, dell’organizzazione e del trattamento automatico della informazione.

Il termine deriva dal francese informatique (composto di INFORMATion e automatIQUE, informazione automatica) coniato da Philippe Dreyfus nel 1962.

L’informatica è una scienza indipendente dal calcolatore che ne è solo uno strumento, ma va da se che lo sviluppo dell’informatica è stato ed è tuttora strettamente legato all’evoluzione del calcolatore.

Infatti, pur avendo radici storiche antiche l’informatica si è sviluppata come disciplina autonoma solo a partire dagli anni 1960, sulla spinta innovativa dei sistemi di elaborazione e del progresso nella formalizzazione del concetto di procedura di calcolo, che possiamo far risalire al 1936, quando Alan Turing elaborò un modello di calcolo, oggi noto come macchina di Turing.


Dunque, in linea generale possiamo dire che i computer, i tablet, gli smartphone e gli oggetti connessi sono costruiti secondo uno schema teorico chiamato “macchina di Turing”.

In realtà questa macchina non è un oggetto, ma un concetto logico astratto elaborato dal matematico inglese Alan Turing.

Si compone di due parti.

– La prima parte è capace di interpretare una famiglia di algoritmi.

– La seconda è capace di immagazzinare i dati ai quali questi algoritmi si applicano o che da loro si ottengono.

Così, dal punto di vista dell’informatica un computer è la realizzazione fisica di una macchina di Turing.

In questa macchina i dati sono scritti su una memoria – l’hard disk – e processati da circuiti logici chiamati processori.

Questi processori sono la parte della macchina che è capace di compiere i passaggi logici, come estrarre i dati immagazzinati nella memoria,  interpretarli, eseguire le istruzioni ricevute.

 

In pratica, qualsiasi programma che fa funzionare un computer o che può essere fatto funzionare da un computer non è altro che un complesso di algoritmi.

Non è difficile comprendere come alla base di tutti questi processi c’è un problema, la velocità di calcolo.

Oggi, l’aumento importante delle capacità di calcolo dei processori ha permesso di poter far funzionare, su una macchina-ad-hoc, algoritmi sempre più complessi, vale a dire dipendenti da più variabili.

 

La rete, di contro, ha permesso di mettere insieme una moltitudine di enormi database che nutrono questi algoritmi.

 

Ci sono vari tipi di algoritmi.

I più popolari sono gli algoritmi di ottimizzazione che cercano la soluzione che minimizza o massimizza una funzione.  E gli algoritmi probabilistici,  molto diffusi grazie alla possibilità di trattare grandi masse di dati (i Big Data).

Big data è un termine adoperato per descrivere l’insieme delle tecnologie e delle metodologie di analisi di dati massivi.  Il termine indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire, portare alla luce i legami tra fenomeni diversi e prevedere quelli futuri.

 

Gli algoritmi probabilistici sono detti anche predittivi, in quanto sono strumenti capaci di prevedere la probabilità dell’insorgenza di un evento – come sono, per fare qualche esempio, le epidemie di influenza, il diffondersi di malattie infettive o, lo scoppio di crisi finanziarie.

I suggerimenti per gli acquisti che trovate sulla schermata di un computer (ti potrebbe interessare anche… oppure, sono spesso comprati insieme, ecc…) si basano sulla stessa logica algoritmica, essi analizzano quegli eventi come sono le visualizzazioni, i click o gli acquisti correlati a specifici individui.

C’è un problema etico che è ben espresso da questa storia vera.

Target – una società americana di vendite – fa affidamento sull’analisi dei profili di acquisto di venticinque prodotti al fine di assegnare a ciascun acquirente femmina un tasso chiamato previsione di gravidanza.  Questa profilazione stima la data del parto e invia dei coupon per l’acquisto scontato di prodotti correlati ai diversi stadi della gravidanza.

Ciò causò seri problemi di privacy finiti in tribunale allorché i coupon furono inviati a una famiglia la cui figlia – liceale – non aveva informato i propri genitori del suo stato.

 

Ritorniamo al tema degli algoritmi. Possiamo distinguere tre serie di passaggi articolati.

Quello dei dati in entrata – input.

Quello dell’algoritmo propriamente detto – elaborazione.

E quello dei dati in uscita – output.

Ricordiamo che un computer opera esclusivamente su dati digitali che esso stesso ha generato in maniera digitale oppure su dati che sono stati digitalizzati.

Si tratta di sequenze di bit, indicati con le cifre 0 (zero) 1 (uno) che corrispondono alla presenza o all’assenza di un determinato livello di tensione elettrica all’estremità dei transistor che compongono un computer.

 

Vediamo meglio un aspetto dei Big Data.

Come abbiamo accennato rappresentano un insieme di dati quantitativamente enorme, molto vario e in continua e rapida evoluzione.

Il concetto di Big Data nasce alla fine del secolo scorso in corrispondenza all’aumento esponenziale della capacità di trattamento e di salvataggio dei dati che rese disponibile grandi quantità di informazioni sotto forma digitale.

La sigla VVV, elaborata da una multinazionale di consulenze informatiche, è generalmente usata per distinguere le tre caratteristiche che distinguono i Big Data.

Vale a dire, Volume (la quantità di informazioni), Velocità (la velocità di acquisizione, rinnovamento e trattamento dei dati), Variety (la differenziazione qualitativa di questi dati).


Una curiosità.

VVV è stato il titolo di una rivista surrealista pubblicata a New York, di cui uscirono soli quattro numeri dal 1942 al 1944.

 

André Breton, rifugiatosi nel 1941 a New York per fuggire la guerra, tentò di mettere insieme un nuovo gruppo surrealista radunando altri artisti europei in esilio e vari artisti americani.

Le idee del nuovo gruppo surrealista trovarono una larga espressione nel progetto editoriale di VVV.

In quanto francese, per la legge statunitense Breton non poteva essere l’unico direttore di un periodico.  Pertanto assegnò il ruolo di condirettore al pittore David Hare, mentre nel comitato di redazione compaiono Marcel Duchamp e Max Ernst.

La rivista nacque sul modello del Minotaure, il più famoso dei periodici surrealisti.  Anche per VVV venne mantenuta la consuetudine di rendere speciali le copertine attraverso la commissione di opere destinate a questo solo scopo.

Su VVV Breton pubblicò, fra l’altro, i Prolégomènes à un troisième Manifeste du surréalisme ou non (“Prolegomeni ad un terzo Manifesto del surrealismo o meno”).


L’unità di misura di volume dei Big Data è il petabyte che rappresenta un milione di gigabyte.

Proviamo a valutare che cos’è un petabyte.

Una foto in alta definizione occupa cinque millesimi circa di un gigabyte quindi un petabyte può contenere 200 milioni di foto o 250mila pellicole cinematografiche masterizzate in dvd.

Il DVD, sigla di Digital Versatile Disc, originariamente Digital Video Disc, è un supporto di memoria di tipo disco ottico, in via di sparizione.

Un esempio di Big Data sono le informazioni collezionate in tempo reale dai social network o dai grandi mercati online o mediante le applicazioni che usiamo sui nostri telefoni.

Sono, come si può intuire, un’enorme massa di dati acquisiti velocemente e con varie tipologie.

Tra queste tipologie ricordiamo: Localizzazione, Sistema operativo, Plugin (cioè, il modulo aggiuntivo di un programma, utilizzato per aumentarne le funzioni), Preferenze del nostro navigatore, Pagine visitate e tempo passato su di esse, Foto e video selezionati, Contatti e-mail, Ricerche.

A questo va poi aggiunto tutto il contenuto testuale, audio, video e fotografico postato o condiviso sulla nostra bacheca.

Ci sono poi molti casi di raccolta dei dati utilizzati nel campo della sicurezza e del controllo sociale.

Gli algoritmi di riconoscimento facciale – sempre più numerosi nelle stazioni ferroviarie o negli aeroporti – per fare un esempio – si basano sulla capacità di stoccare e analizzare in tempi brevi flussi di dati provenienti da telecamere istallate in questi luoghi o da foto postate su un qualsiasi social network o sito web.

 

Tra le opportunità offerte dai Big Data ci sono il deep learning e gli algoritmi predittivi.

Il deep learning (apprendimento profondo) – su cui ritorneremo – è una forma di intelligenza artificiale costituito da algoritmi che consentono a una macchina di prendere decisioni, operando sulla possibilità di far convergere tecniche di calcolo – tecniche con un’alta probabilità di correttezza o di affidabilità.

Gli algoritmi predittivi, invece, sono algoritmi che permettono di stimare la probabilità di realizzazione per un determinato evento a partire dalle condizioni misurate in un dato momento.

Sono oggi molto usati nella prevenzione di molte specie di malattie a sviluppo lento.

Il cuore della predittività sta nella possibilità di correlare tra di loro eventi fisici di varia natura.

Per esempio, associati alle leggi della fisica questi algoritmi consentono con una precisione definita chirurgica di calcolare dove cadrà un missile, conoscendone la potenza, la quantità del propellente, l’alzo del carrello di lancio e il peso.

Abbiamo poi quello che si definisce un approccio statistico quando la correlazione non viene dedotta dalle leggi della fisica, ma astratta per inferenza da un insieme di dati.

 

(L’inferenza (in generale) è una deduzione intesa a provare o a sottolineare una conseguenza logica.

L’inferenza statistica (o statistica inferenziale) è il procedimento per cui si inducono le caratteristiche di una popolazione dall’osservazione di una parte di essa (detta “campione”), selezionata solitamente mediante un esperimento casuale (aleatorio).

 

In linea generale, più grande è l’insieme di dati più probabilità ci sono che le correlazioni osservate statisticamente riflettano la legge che regola il comportamento del fenomeno in questione.

In questo senso, la novità rappresentata dai Big Data consente di migliorare gli algoritmi predittivi, anche e grazie a metodi di deep learning, rendendo questi algoritmi sempre più performanti.

Tra i molti dubbi e problemi, sul piano meramente scientifico, che si possono avere sui paradigmi predittivi, quello che qui importa sottolineare è il problema etico perché l’analisi e lo sfruttamento dei Big Data è in mano a pochi, ovvero a grandi gruppi industriali e militari.

Moralmente qui siamo di fronte al problema del controllo delle inferenze compiute e di fatto sottratte all’analisi scientifica.

Oggi si può dire che i Big Data assomiglino a delle forme oracolari pseudo-scientifiche a cui è comodo affidarsi, evitando la ricerca e formulazione di una teoria scientifica.

O, meglio, invece di essere usati per formulare ipotesi e cercare verifiche sul campo, sono usati (soprattutto quelli commerciali) per convincere senza dimostrare, partendo dal presupposto che i dati parlano da sé, basta saperli interrogare e ascoltare.

 

Profilazione Digitale.

Premessa.

Il concetto di identità personale si riferisce all’insieme delle caratteristiche dell’individuo, ed è materia di autodeterminazione.  Vale a dire, essa è auto-costruita e deriva dal processo di identificazione con uno o più modelli proposti dall’ambiente socio-culturale e politico in cui l’individuo si trova a vivere.

L’identità digitale, invece, è una rappresentazione di un individuo.

Un’identità identificabile da coloro che creano e usano i dataset (cioè le collezioni di dati) in cui questa identità è memorizzata.

In sintesi, una persona digitale è la rappresentazione digitale di un individuo reale, una persona astratta che può essere connessa a questo individuo reale e comprende una quantità sufficiente di dati per essere usata in ambiti specifici, o come delega di questo individuo reale o a sua insaputa.
Roger Clarke, un esperto di cultura digitale australiano, ha definito due tipi di identità digitale: quella progettata e quella imposta.

La progettata è creata dallo stesso individuo, che la trasferisce ad altri per mezzo di dati (ad esempio: con la creazione di un Blog personale, di una pagina personale su un social network, eccetera.)
Quella imposta è quella proiettata sulla persona, in un certo senso, illuminata per mezzo dei dati collezionati da agenzie esterne quali sono le società commerciali o le agenzie governative (dati che hanno lo scopo, per esempio, di valutare il suo grado di solvibilità ai fini della concessione di mutui, valutare il suo stato di salute a fini assicurativi o creditizi, le sue preferenze musicali, ecc.)
In una conferenza a Roma di qualche anno fa, Roger Clarke – uno dei primi ricercatori a discutere di Persona Digitale – ha definito quattro categorie di persona digitale modellate sull’individuo reale come forme di un inconscio digitale:

– alla prima categoria troviamo una persona che non è a conoscenza degli archivi che conservano i suoi dati sensibili.

– alla seconda, una persona che è a conoscenza degli archivi dati, ma non può accedere ad essi.

– alla terza, una persona che è a conoscenza degli archivi e ne ha accesso ma non conosce i codici per decodificare le informazioni di tali archivi.

– all’ultima categoria troviamo una persona che nonostante abbia accesso ai suoi dati sa che ad essi sono state sottratte molte delle informazioni che la profilano senza conoscerne il motivo.

 

In quest’ottica il profiling è l’insieme di quelle tecniche che servono per disegnare il profilo di un utente in base al suo comportamento.

Questo modello di profiling deriva direttamente da quello in uso da tempo dalle forze dell’ordine e reso popolare dai film e dalle serie televisive.

Si tratta di una tecnica che ha l’obiettivo di portare alla luce dei pattern, cioè, degli schemi ricorrenti nel modo di agire di un indiziato.

L’obiettivo del profiling è di prevedere il momento del reato e intervenire per evitarlo.

Per analogia, come il profiling criminale identifica il comportamento di un delinquente, allo stesso modo il profiling digitale identifica il comportamento di un utilizzatore di servizi.

Ha rappresentato un grosso passo in avanti qualitativo rispetto al meccanismo della fidelizzazione (dall’inglese fidelity, fedeltà), perché si tratta di un monitoraggio che non riguarda solo i consumi correnti, ma è in grado di anticipare i desideri di consumo, così come il profiler criminale anticipa il momento e il modo del reato.

 

Il campo di studio del profiling digitale, applicato ai consumi, non riguarda solo l’area degli acquisti, ma l’insieme delle interazioni e dei sentimenti che un individuo sviluppa in un ambiente sociale predisposto per mezzo del web.

L’obiettivo è quello di tracciare un’area esplicativa dei legami sociali e, per conseguenza, dell’identità che si “co-costruisce” entrando in relazione con gl’altri.

Quest’area di studi oltre a essere complessa è delicata da valutare perché in genere – per motivi politici e culturali – siamo abituati a pensare che il tema del controllo sia di esclusivo appannaggio delle istituzioni – più o meno legittime – che detengono il potere e non una nuova prerogativa commerciale.

 

In genere, se un governo spia la popolazione o settori di essa si rende colpevole per l’opinione pubblica di un comportamento scandaloso e antidemocratico.

Di contro e fino ad oggi, invece, non c’è scandalo, né riprovazione morale se questo controllo è esercitato dalle multinazionali del digitale.

Da un punto di vista fenomenologico, va detto, il profiling è una delle tecniche più sofisticate per reificare un individuo, cioè renderlo simile a una cosa, in questo caso, una cosa misurabile e valutabile.

 

In genere non pensiamo mai che siamo tutti sottoposti alla profilazione e, questo, indipendentemente  dall’uso che facciamo dei servizi gratuiti in rete.

Come dicono i critici digitali a questo proposito:

SE È GRATIS VUOL DIRE CHE LA MERCE SEI TU.

Questo perché l’obiettivo dei servizi che ci offrono è il profitto e non certo quello di metterci in contatto con altri o condividere con noi le esperienze della vita.

 

La profilazione, dunque, è l’insieme delle tecniche che consentano di identificare e classificare gli utenti in base al loro comportamento.

Quello che viene raccolto e conservato non è come nelle indagini di mercato classiche una sorta di istantanea in un dato momento, ma è un flusso di dati in movimento che aumenta costantemente e si modifica in continuazione, realizzando una sorta di controllo continuo.

In sostanza ogni utente che è in rete sviluppa e acquisisce un’impronta identitaria unica e in perenne metamorfosi.

Il tracciamento di questa impronta avviene in vari modi e per mezzo delle applicazioni che ci mettono in contatto con i servizi.

Il principale è il browser, cioè il navigatore, con cui surfiamo nel Web.

(Browser: programma per navigare in Internet che inoltra la richiesta di un documento alla rete e ne consente la visualizzazione una volta arrivato.)

 

Il modo più conosciuto per tracciare un’impronta è il sistema dei cookie, che tutti conoscono perché per legge deve essere segnalato sul sito dove si sta navigando.

 

Va però aggiunto che questi cookie sono quasi sempre soggetti a domini esterni rispetto a quello su cui il cookie si trova.

Ma che cos’è un cookie?

È una stringa di codice, diversa per ciascuno, che ci viene assegnata ogni volta che siamo su un sito e al cui interno sono contenute le impostazioni dell’utente relative al sito Web visitato.

Quando si ritorna su questo sito i cookie impostati in precedenza vengono di nuovo inviati al sito.

A cosa servono?

Se sul sito di una compagnia aerea effettuiamo una ricerca con la frase: Voli per Londra o treni per Berlino, sul nostro browser viene istallato un cookie con questa richiesta (query).

Il termine query viene utilizzato per indicare l’interrogazione da parte di un utente di un database, strutturato.  L’analisi del risultato della query è oggetto di studio dell’algebra relazionale.

Poi, in seguito a questa richiesta, un software istallato sul sito consultato farà uso di tale informazione (Voli per Londra, treni per Berlino) per offrirvi della pubblicità legata alla ricerca, come hotel, noleggio auto, ristoranti centri di shopping, eccetera.

Questo perché il cookie istallato è un cookie di proliferazione.

 

In ogni modo ci sono sistemi di tracciamento anche più sofisticati come gli LSO (Local Shared Object) più conosciuti con il nome di flash cookie, e gli e-tag, una sorta di database nascosti dentro il browser e usati soprattutto dalle grandi compagnie come Google, Yahoo, Amazon e così via.

Il tag è una sequenza di caratteri con cui si marcano gli elementi di un file per successive elaborazioni.  (Da qui la sua definizione più popolare, di sigla apposta come firma dall’autore di un graffito).

Perché tutto questo ci riguarda?

Perché il nostro browser generalmente è farcito di software di cui non sospettiamo l’esistenza e che hanno lo scopo di tracciarci.  La pratica di ripulire il proprio browser è importante, ma non risolve il problema.

In linea di massima ogni volta che una tecnologia Web permette a un server di salvare qualche dato all’interno del browser questo può essere usato come sistema di tracciamento.

Ma oggi c’è anche una proliferazione di tipo attivo.

Quando utilizziamo Google Doc o Gmail condividiamo con il server tutte le informazioni sui contenuti, le condivisioni e le modalità d’uso che ne facciamo.

È un tracciamento di tipo attivo di cui abbiamo accettato le condizioni, vale a dire, quei “Termini del Servizio” che nessuno legge mai e che, in sostanza, ci comunicano che, per esempio, Google, con ciò che mettiamo a sua disposizione, si riserva di fare quello che vuole al fine di migliorare il servizio (sic).

 

Per concludere, dobbiamo PRENDERE ATTO che i servizi che ci vengono promessi come gratuiti non lo sono affatto.

LA MONETA DI SCAMBIO È RAPPRESENTATA DALLA NOSTRA IDENTITÀ – CHE SI COSTRUISCE ATTRAVERSO IL WEB – E DAL CONTENUTO DELLE NOSTRE INTERAZIONI CON GL’ALTRI.

Per interazione sociale intendiamo qui una relazione di tipo cooperativo svolta da due o più attori detti soggetti agenti, che orientano le loro azioni in riferimento ed in reazione al comportamento di altri attori.

Queste relazioni sono caratterizzate da una certa durata, intensità (cognitiva e emotiva) e ripetitività nel tempo.

Il termine trae origine dalla scuola sociale americana ed è in qualche modo l’equivalente di relazione sociale.  Vedi: Modelli di interazione / Erving Goffman – (introduzione di Pier Paolo Giglioli) – Bologna, Il Mulino, 1971. 485 p. (Contiene in trad. italiana: Interaction ritual.  Strategic interaction.)

***

Lemmi.

Tecnocrazia.

Premessa.  La teoria della tecnocrazia è una teoria moderna, ma la sua matrice può essere individuata nella dottrina classica del governo dei custodi.

L’idea della monopolizzazione delle decisioni collettive ad opera dei detentori di saperi specialistici o dotati di una qualche superiorità di tipo cognitivo costituisce un tema popolare nel pensiero occidentale.

Platone è all’origine di una influente tradizione ponendosi con il suo modello del governo dei custodi in opposizione a una concezione della politica ben esemplificata dal mito di Protagora, secondo cui la distribuzione di rispetto e giustizia, che insieme costituiscono la tecnica politica, deve, a differenza delle altre tecniche, andare a beneficio di tutti.

Diversamente da Protagora, che con quella tesi provvede a legittimare il nuovo ordine democratico di Atene, Platone è convinto che, nella misura in cui la politica è una tecnica, essa abbia come tutte le tecniche pochi ed esclusivi detentori.

 

L’idea di un governo dei custodi fondato sulla coniugazione di potere e sapere attraversa così l’intera esperienza politica dell’Occidente – e non solo nei termini di una proiezione utopica.

Dai consiglieri del principe e dai tecnici della ragion di Stato agli intellettuali delle università, intese come vivaio di scienze utili al governo, s’instaura, come ha scritto Michel Foucault, un nuovo rapporto “tra la politica come pratica e la politica come sapere”, da cui emerge la “possibilità di un sapere specificamente politico”.

Si fa strada così un modello tecnicistico, in cui lo Stato è machina machinarum, ideata dal pensiero filosofico e resa funzionante da una classe di specialisti.

Modello che fornirà la base su cui si svilupperanno, pur nel quadro di una reazione antipolitica, le moderne teorie tecnocratiche.

Il passaggio a queste teorie avverrà tuttavia solo nel momento in cui il progresso delle scienze e delle tecniche investirà la sfera economica della produzione e del consumo, rivoluzionando in profondità le modalità di esistenza e le aspettative di jouissance degli individui.
Il governo dei custodi è, di fatto, il governo di coloro che sanno.

Ma nel corso della storia questo ideale è variato a seconda dei modelli di sapere dominante (la dialettica di Platone, la geometria di Thomas Hobbes, la sociologia di Auguste Comte, la psicologia, come nel racconto utopico Walden two di B. Frederic Skinner), di diffusione del sapere, di organizzazione delle informazioni e di elaborazione dell’identità del gruppo che aspirava al monopolio del potere ideologico.

Fin dall’antichità è un modello di potere (e sapere) che tenta di neutralizzare il peso del passato, di addomesticare la tirannia della tradizione e al tempo stesso di ipotecare il futuro.

Ma è alle soglie dell’età moderna che l’utopia tecnocratica trova la sua prima formulazione nella New Atlantis di Francis Bacon, in cui è delineato l’ideale di una società interamente fondata sulla scienza e sulla tecnica, dai cui progressi dipende il livello del benessere collettivo.

Entro questa cornice trovano collocazione le diverse varianti di ‘tecnocrazia’, ‘sofocrazia’ e ‘ideocrazia’ che compongono l’immaginario utopico e ideologico della modernità.

Ma il quadro di riferimento resta, per quanto concerne la determinazione delle qualità specifiche dell’élite governante, platonico.

 

Quando Robert Dahl (un politologo americano) individua nella comprensione morale, nella virtù e nella conoscenza strumentale le componenti della competenza politica, possiamo senza difficoltà riconoscere in questo intreccio la connessione tra conoscenza, potere e arte tematizzata da Platone nella sua analisi del sapere politico.

Da sempre l’espressione ‘governo dei custodi’ è stata carica di ambivalenze.

Ancor più ciò si può dire nel nostro secolo, in cui l’espressione è tornata in uso e il concetto è stato discusso sia nella variante autoritaria, antagonistica rispetto alla forma democratica e allo Stato di diritto, del sistema precettorale o tutelare.

Sia nella variante più moderata, coniugabile con la democrazia liberale, che la vede sinonimo di “principio del governo meritocratico”.

Persino la più ristretta nozione platonica dei guardiani-guerrieri è riapparsa nel dibattito intorno a quelle decisioni sulle armi nucleari e la deterrenza che sfuggono al controllo democratico e tendono a essere monopolizzate dai tecnici della strategia.

Anzi, proprio da questa specifica questione ha preso le mosse Robert Dahl nel riproporre e discutere l’alternativa “democracy versus guardianship”.

In tempi più recenti si è richiamata invece la formula del governo dei custodi per definire, nelle democrazie contemporanee, l’anomalia di un (vero o presunto) governo dei giudici, in relazione all’espansionismo del potere giudiziario in generale e alla crescita delle prerogative delle corti costituzionali in particolare (nella loro funzione di custodi delle costituzioni).
Se la figura del custode o del guardiano evocava primariamente l’azione di un protettore armato o la decisione saggia di un sapiente qualificato da una superiorità etica, quella del tecnocrate ha le sue radici nel mondo della produzione e dell’economia, anche se di un’economia non confinata ai processi elementari dell’appropriazione, della produzione e dello scambio, ma potenziata da forme complesse di organizzazione che incorporano sapere.

In entrambi i casi non si tratta comunque di funzioni propriamente specialistiche all’interno di uno schema di divisione del lavoro, ma di una competenza che include un momento generale di sintesi.

Anche se la distanza tra il tecnocrate e il tecnico non è più quella che intercorreva tra il custode platonico e il detentore di tecniche creative, resta vero anche per il mondo moderno che fra i due tipi sociali sussiste una differenza di fondo: mentre il tecnico si qualifica come un esperto del particolare, il tecnocrate va definito (e si definisce) come un esperto del generale.


Riassumendo, la tecnocrazia è una ipotetica forma di governo in cui le decisioni politiche vengono prese da “tecnici”, cioè da esperti di materie tecnico-scientifiche o più in generale da studiosi di campi specifici.  Per definizione la tecnocrazia comporta sempre una delega tecnocratica (cioè, operativa).


Etimologicamente la parola tecnocrazia deriva dalle parole potere (krátos) e tecnica (techné).

L’idea di base che sta dietro questa ideologia è che la vita corrente deve essere gestita da esperti competenti nelle varie scienze e tecniche, considerati i soli in grado di proporre le soluzioni migliori.

Come dire l’economia agli economisti, la città agli urbanisti, la salute ai medici.

Ma il problema è: come si decide chi sono gli esperti di chiara fama, considerato che il più delle volte l’appartenenza a una categoria di esperti è determinata da gerarchie e meriti che nella cultura occidentale sono opachi e compromessi?

 

La caratteristica specifica della tecnocrazia digitale è quella di porsi e di agire come uno strumento di delega dei nostri desideri e di controllo delle nostre capacità cognitive.

La rete ci informa dei libri che vogliamo leggere, dei film che vogliamo vedere, della musica che vogliamo ascoltare.  Facebook ci garantisce la possibilità di rimanere “in contatto con le persone della nostra vita” – come recita la sua home-page.

Ci sono poi servizi che si occupano di trovarci un partner sessuale, altri ancora il ristorante dove vogliamo cenare o il viaggio che vogliamo fare.

Può apparire paradossale, ma questa delega tecnocratica è una limitazione delle nostre libertà se pensiamo alla libertà come un problema di scelte.

La tecnocrazia digitale ci blandisce con il miraggio di scelte illimitate, ma poi è essa stessa a scegliere per noi. In cambio di cosa?

In cambio della nostra identità, in cambio di tutti i particolari delle nostre relazioni sociali, dei nostri gusti, delle nostre preferenze.

 

La tecnocrazia digitale, in sostanza, è una forma politica che si presenta come apolitica.

Come il frutto della ricerca scientifica oggettiva e disinteressata.  Un tema che ci riporta all’annosa e per molti versi priva di senso discussione sulle tecnologie buone e cattive.

Ma perché la tecnologia digitale non può essere neutra?

Perché – volenti o nolenti – le macchine e gli algoritmi che le fanno girare riproducono le ideologie dei loro creatori.

Queste macchine sono costruite da individui mossi da interessi economici, politici, ideologici e le interazioni tra gli operatori e le macchine configurano relazioni di potere, un potere prodotto e gestito a scopi di dominio.

 

Una reazione diffusa di fronte alla tecnocrazia digitale è il luddismo digitale.

Questo luddismo ha vari aspetti.

Uno è quello di imputare alle macchine la responsabilità di aggravare certi rischi legati al loro sviluppo, rischi che non esistevano in passato.

In altri termini, quando gli strumenti tecnologici industriali crescono oltre una certa misura si ritiene che la soglia della loro inutilità cresce ed essi tendono a diventare nocivi.

È stata la posizione di Ivan Illich.  (Vienna 1926 – Brema 2002.  Uno scrittore, storico, pedagogista e filosofo austriaco. Personaggio di vasta cultura, poliglotta, per la sua vasta conoscenza di svariati idiomi, e storico).

A questo proposito va anche ricordata una posizione ancora più radicale, come quella di John  Zerzan (Salem, 1943) un anarchico americano della corrente primitivista.


John Zerzan ha scritto numerosi articoli e saggi di opposizione radicale ad ogni forma di civilizzazione,  individuando ciò che c’è da rifiutare nei concetti di agricoltura, linguaggio, pensiero simbolico.

Zerzan rifiuta l’oppressione, che ritiene intrinseca alla civilizzazione, e propone la riconquista di una libertà primordiale ispirata ad un modello di vita preistorico basato sulla caccia e la raccolta, caratterizzato da egualitarismo sociale e abbondanza di tempo libero, oltre che da un maggior benessere fisico e psichico.

I suoi libri più significativi sono: Elements of Refusal (1988), Future Primitive and Other Essays (1994), Against Civilization: A Reader (1998) e Running on Emptiness (2002).

Zerzan, in sostanza, individua nell’avvento della civiltà l’origine di ogni forma di potere, ciò che ha condotto alla domesticazione dell’uomo, degli animali, dell’ambiente.

Si tratta di una macchina sociale che ha introdotto il principio della proprietà, della divisione del lavoro, della legge.

Tale struttura si regge attraverso l’ausilio di alcuni artifici quali il tempo, il linguaggio, la scrittura, il numero, la religione (funzionali all’esigenza alla classe dominante di stabilire i confini delle proprietà, i ritmi di lavoro, la codificazione delle norme).


Ci sono poi i luddisti tecnofili.

Sono quelli che amano e detestano il digitale in uguale misura, se ne servono, ma non vogliono apprenderne il funzionamento.

Fanno il paio con gli entusiasti, con quelli che ritengono che il digitale può essere controllato per il bene di tutti delegandone la gestione a delle istituzioni o degli organismi transnazionali.

In linea generale osserviamo questo.

La tecnocrazia è in sé scientista e non accetta critiche.  Chi le contesta viene tacciato di oscurantismo, ingenuità e di paura del progresso.

Essa ha un solo grande obiettivo: il controllo.

 

Hacker.

L’hacker, in informatica, è un esperto di sistemi informatici e di sicurezza informatica.

In genere è considerato capace di introdursi in reti informatiche protette e di acquisire un’approfondita conoscenza del sistema sul quale interviene, per poi essere in grado di accedervi o adattarlo alle proprie esigenze.

L’hacking è l’insieme dei metodi, delle tecniche e delle operazioni volte a conoscere, accedere e modificare un sistema hardware o software.

Il termine, tuttavia, avendo accompagnato lo sviluppo delle tecnologie di elaborazione e comunicazione dell’informazione ha assunto diverse sfumature a seconda del periodo storico e dell’ambito di applicazione.

Sebbene venga usato principalmente in relazione all’informatica, l’hacking si riferisce più genericamente a ogni situazione in cui è necessario far uso di creatività e immaginazione nella soluzione di un problema.

Al suo nascere la cultura digitale ha fatto spesso ricorso all’aneddotica per spiegare certi suoi singolari punti di vista.

Uno di questi aneddoti definisce che cos’è un hacker.

Consideriamo una fontana con un bel rubinetto.

Le persone in genere sono interessate a ciò che fuoriesce dal rubinetto.

L’hacker, invece, si interessa a come funziona, sarà tentato di smontarlo, valuterà se può aumentare il suo flusso d’acqua, giocherà con l’acqua…

Cosa significa?

Che l’hacking è una questione di attitudine.

I suoi fan si divertono a studiare le macchine, a smontarle, a ricomporle e nel caso di macchine digitali, a scrivere codici per farle funzionare meglio, metterle in contatto, o come dichiarò un hacker a un giudice, nutrirle e dar loro una nuova vita.

 

Ci sono molti tipi di hacker.  I coder sono specialisti in linguaggi e danno vita ai programmi informatici.

I security hacker si occupano in genere delle strategie per bucare o aggirare le protezioni di un sistema.  Qualche volte lavorano per garantire e incrementare la sicurezza di grandi aziende, governi, istituzioni…

Gli hacker dell’hardware sono esperti nel costruire macchine saldando, tagliando, assemblando, riparando computer, radio, stereo…

I geek (disadattati) che noi in genere chiamiamo smanettoni, anche se non hanno grandi competenze nella scrittura dei codici, sono capaci di muoversi nei mondi digitali, e usare strumenti come l’ IRC (Internet Relay Chat).

L’Internet Relay Chat (IRC) è un protocollo di messaggeria istantanea su Internet.

Consente, sia la comunicazione diretta fra due utenti, che il dialogo contemporaneo di gruppi di persone raggruppati in stanze di discussione, chiamate canali.


La chat è una forma di comunicazione online durante la quale un utente intrattiene una conversazione con uno o più utenti, in tempo reale e in maniera sincrona, attraverso lo scambio di messaggi testuali o stabilendo una connessione audio/video con essi.

La chat nasce come forma di comunicazione testuale supportata da tecnologia IRC (Internet Relay Chat) che consente la comunicazione sia uno a uno, sia uno a molti.

Questa ultima forma avviene in stanze di discussione o canali (channel), a cui ogni utente accede servendosi di un nickname e conservando quindi l’anonimato. I canali possono essere identificati da un soggetto di discussione specifico, oppure essere semplicemente finalizzati all’incontro con persone sconosciute.  L’ambiente virtuale nel quale avviene la conversazione si definisce chatroom.

Alle chat basate su tecnologia IRC si sono nel tempo aggiunte le chat basate su altre tecnologie ospitate da server autonomi, definite web chat e le chat basate sui servizi di messaggistica istantanea.

Tali piattaforme – come MSN Messenger, Google Talk, Skype – integrano funzionalità di posta elettronica, trasmissione dati, interazione audio-video con l’interlocutore e consentono di arricchire con le emoticon il linguaggio puramente testuale tipico di IRC.


Identità digitale.

L’identità digitale è, di fatto, la base dei profitti del web 2.0.

(Il termine, apparso nel 2005, indica la seconda fase di sviluppo e diffusione di Internet, caratterizzata da un forte incremento dell’interazione tra sito e utente.

Vale a dire: (uno) Maggiore partecipazione dei fruitori, che spesso diventano anche autori (blog, chat, forum, wiki).  (due) Più efficiente condivisione delle informazioni, che possono essere più facilmente recuperate e scambiate con strumenti peer to peer o con sistemi di diffusione di contenuti multimediali come Youtube.  (tre) Sviluppo e affermazione dei social network.)

 

Possiamo dire che l’architettura del web 2.0 ha avuto come obiettivo principale quello di pensare l’identità degli utenti.

Come abbiamo già visto, la raccolta delle informazioni sulle identità, attraverso le tecniche del profiling, costituisce ciò su cui si fondano i profitti delle società di servizi gratuiti online.

Come abbiamo già detto, il web 2.0 è gratuito, ma se il servizio è gratuito allora la merce sei tu.

 

Come si fa a trasformare un utente in merce?

Con la reificazione, un concetto che sotto un’altra forma costituisce uno degli argomenti della teoria critica della società elaborata nel secolo scorso soprattutto dalla Scuola di Francoforte.

Occorre cioè rendere l’utente un oggetto di studio misurabile.

Creare di esso un modello semplificato sul quale poter compiere elaborazioni come si fa con un insieme di dati.

L’aspetto di questo problema che non va sottovalutato è questo.

L’identità – come è mostrato dalle scienze sociali – è un concetto complesso, costituisce il frutto delle relazioni in cui viviamo.  Come si fa a renderla misurabile?

Con la profilazione, vale a dire con quella tecnica che permette di identificare i singoli utenti e catalogarli in base al loro comportamento.

Ecco il trucco: l’utente viene reificato (messo a nudo) attraverso il suo comportamento.

 

Analizzando la nostra condotta sono registrate le nostre azioni il cui significato è calcolabile attraverso la costruzioni di parametri.

In altri termini, sul web commerciale noi siamo quello che facciamo.

Dal più piccolo movimento del mouse fino al tempo che passiamo senza far nulla sulla schermata di una pagina web.

Va anche rilevato che nei panottici digitali del web il credito e la visibilità sono direttamente proporzionali a quanto noi riversiamo sui framework, la piattaforma che funge da strato intermedio tra un sistema operativo e il software che lo utilizza.

Più il nostro account è raffinato, più ci personalizziamo, maggiore sarà il dettaglio della nostra immagine profilata sui data center delle aziende che conservano i nostri dati.

 

(L’account è il complesso dei dati identificativi di un utente.  Quei dati che gli consentono l’accesso a un servizio telematico.  L’account di posta elettronica, in particolare, è il nome e la parola d’accesso per poter usufruire del servizio di posta).

 

Esistono da questo punto di vista due copie della nostra identità.

Una è quella che vediamo sullo schermo del nostro computer, che aggiorniamo e attraverso la quale ci rapportiamo con gli altri.  È, di fatto, l’identità con la quale ci presentiamo nell’infosfera.

L’altra è quella che sta sul server, è molto più estesa perché conserva in memoria ogni nostro dettaglio a partire dalle interazioni, dalle correzioni e dalle osservazioni passive che abbiamo svolto.

 

Panottico digitale.

Panottico (un’espressione che deriva dal greco) indica la capacità di vedere tutto (pan + optikon).  L’uso di questa espressione deriva dall’architettura.

Lo spazio panottico è lo spazio architettonico pensato in modo da controllare in modo totale tutto ciò che è posto al suo interno senza essere visti.

Michel Foucault – parlando delle sue tesi sulla società disciplinare nel libro Sorvegliare e punire – analizza l’architettura panottica che Jeremy Bentham aveva immaginato sul finire del XVIII secolo come modello di carcere ideale.

È un’idea di reclusione che suppone la possibilità di manipolare il comportamento delle persone senza un intervento diretto, ma solo sottoponendo gli individui a un regime di visibilità costante.

Si tratta, in breve, di un’idea di architettura che ha l’obiettivo di fabbricare individui obbedienti.

Questa idea fornisce la formula per una generalizzazione che parte dal carcere e arriva alle altre istituzioni disciplinari come sono la scuola, l’esercito, l’ospedale, la fabbrica, l’ufficio…

Se dovessimo indicare quale tecnologia oggi rappresenta e sviluppa le caratteristiche della disciplina panottica non potremmo non dire il web 2.0.

Il web dei servizi gratuiti che si basa sul controllo e la manipolazione degli utenti.

 

Va aggiunto che come media sociale si tratta di un luogo in cui entriamo senza esservi costretti e senza l’obbligo di consumare.

Questo luogo ha la stessa configurazione di un panottico:

–          il potere che lo muove è inverificabile e sempre sul chi vive;

–          gli spazi sono ridotti al minimo e uguali per tutti;

–          i movimenti possibili sono rigidamente prestabiliti.

Il panottico digitale è in quest’ottica la continuità del panottico disciplinare, ma sostituisce l’obbedienza con la performance.

In questo spazio paraideale in cui non esistono più gl’altri della tradizione sociale – gli stranieri, gli anormali, i devianti, gli abietti – perché sono stati inglobati in categorie compatibili come sono gli amici, i followers, le persone della tua vita.

È una grande rappresentazione interconnessa senza distinzioni di razza, reddito, classe, età, orientamento sessuale.

È un unico grande frame.

Un’unica matrice per operazioni la cui semplicità è, allo stesso tempo, perfetta e sospetta, che da una sensazione di egualitarismo e democrazia.

La vera differenza tra il panottico disciplinare e quello digitale sta nel piacere.

Il piacere di una comunità operosa, dove il singolo non è prigioniero, ma è stimolato a esprimere la propria diversità.

Come ha osservato Foucault la quantificazione numerica crea piacere.  Il consumo di questo piacere reso in senso sociale crea un reddito psichico che ci fa sentire più ricchi e ottimisti.

 

Quantified Self.

È un movimento nato in rete per incorporare la tecnologia nell’acquisizione di dati relativi a ogni aspetto della vita corrente.

Il motto di questo movimento è: self knowledge through numbers.

Nata nel 2007 su iniziativa della rivista Wired la pratica del lifelogging (la pratica di registrare le immagini di una vita in senso biologico) grazie alla diffusione di dispositivi bio-metrici connessi alla rete globale ha consentito un balzo in avanti del monitoraggio delle attività biologiche.


In principio fu il blog.

Ma adesso, dopo che i social network come Facebook e Twitter hanno elevato il “web-log”, ossia il “diario online”(questo il significato del termine) a fenomeno universale, è arrivato il momento del lifelog: il diario della propria vita per immagini da postare tutto intero su internet.

Una nuova microvideocamera digitale che si può attaccare ai vestiti, in grado di effettuare automaticamente due foto al minuto, permette di mettere in rete tutto quello che facciamo 24 ore al giorno.

Prodotta dalla Memoto, una start-up americana, crea – se uno la “indossa” per più o meno dodici ore al giorno (ovvero se la si tiene sempre accesa, tranne quando si dorme) – quattro gigabyte di nuovo materiale ogni 24 ore.

La  mini macchina fotografica scatta 10 mila immagini alla settimana, 40 mila al mese, mezzo milione all’anno.

Volendo, si può fare in questo modo la “cronaca fotografica” di una vita intera, due foto al minuto dalla culla alla tomba, pari all’incirca a 40 milioni di fotografie: mentre mangiamo, studiamo, lavoriamo, chiacchieriamo, giochiamo, facciamo l’amore.

Sarà il “lifelogging”, si è chiesta la Bbc illustrando il nuovo fenomeno, la prossima mania del web?

Per gli ottimisti, come Martin Kallstrom, fondatore e presidente della Memoto, significa che non avremo più bisogno della memoria cerebrale per ricordare la nostra esistenza: basterà scaricare su internet e salvare l’archivio digitale di parole, suoni e immagini che scorre come un doppione, come una “second life”, accanto alla nostra vita reale, di cui è lo specchio fedele.

Per i pessimisti, tuttavia, questa “information overload”, questo carico eccessivo di informazioni digitali, può diventare una minaccia sociale, perché ogni parvenza di privacy va in frantumi nel momento in cui viene condiviso con altri utenti sul web.

In altri termini, può funzionare una società in cui, perlomeno teoricamente, tutti sanno tutto di tutti (o almeno possono saperlo) con un semplice clic del mouse o semplicemente premendo i polpastrelli su uno schermo?

Una cosa è certa: le nuove frontiere della comunicazione digitale si spingono sempre più avanti, sempre più  in fretta.

La Memoto ha prodotto il congegno temporaneamente più piccolo, ma non è certo l’unica azienda dell’IT, cioè dell’information technology, a operare nel campo del lifelogging.

La Microsfot  ha creato una minivideocamera chiamata SenseCam che scatta automaticamente una foto ogni 30 secondi in maniera analoga.

Google Glass e Twitter offrono strumenti per filmare e postare in modo simile ogni attimo della nostra giornata.

“L’osservazione di massa sta diventando una tendenza globale”, osserva il professore Henry Jenkins, docente di studi sui nuovi media alla University of Southern California. “Viviamo in una cultura più esibizionistica ma al tempo stesso ci sono persone a disagio davanti a tutta questa mole di informazioni”.

Il timore è quello che il Grande Fratello immaginato da George Orwell nel suo romanzo futuristico “1984” non sia più un occhio che vigilia dal di sopra sull’esistenza umana, ma un minuscolo gadget che ciascuno di noi porterà volontariamente all’occhiello.

Tuttavia vanno considerati anche gli aspetti positivi: le immagini digitali riprese con i telefonini da centinaia o migliaia di spettatori hanno aiutato la polizia a individuare rapidamente gli autori dell’attentato all’arrivo della maratona di Boston.

È un fenomeno che gli esperti chiamano “sousveillance”, il contrario di surveillance (sorveglianza).  Invece di un governo che ci guarda dall’alto, ci sono gli individui che guardano dal basso, magari per mettere su internet il lifeblog della propria vita.

(Tratto da La Repubblica, aprile 2013).


Ogni aspetto vitale è definito in termini di input, stati o condizioni, performance, quantità di cibo consumato, qualità dell’aria respirata, umore, eccitazione, eccetera.

I sensori si possono indossare e sono in grado di monitorare l’attività fisico-chimica dell’organismo, sequenziare il DNA e le cellule microbiche che abitano il corpo.

Il desiderio e la ricerca della verità del sé – che ha la sua culla nell’insegnamento delfico GNOTHI SEAUTON (conosci te stesso) si sta trasformando in uno strumento di auto-addestramento.

Misurare le manifestazioni fisiologiche del proprio corpo con gli strumenti di monitoraggio digitali, tenere una traccia costante del proprio corpo organico serve solo al confronto profilato.

 

Società della prestazione.

È una società nella quale si misura, si quantifica e si restituisce una valutazione di ogni azione compiuta e senza soluzione di continuità con l’obiettivo di aumentare il livello delle prestazioni.

Il controllo delle prestazioni avviene o attraverso sistemi di misurazione automatici o attraverso altri utenti che provvedono a valutare la performance con i loro contributi.

In sintesi la società attuale esige dagli individui un livello di prestazioni in costante crescita.

Non solo dobbiamo avere un reddito adeguato, ma anche una forma fisica ottimale.

Siamo costantemente spinti a migliorare la nostra salute, a creare nuove opportunità di amicizia, a frequentarci.

Con le debite proporzioni le stesse cose sono richieste alle nazioni.

Devono mostrarsi in continua crescita, esibire uno sviluppo economico senza flessioni, sapersi battere con successo sui mercati finanziari.

Questa affermazione di una società della prestazione è stata resa possibile dal costante miglioramento dei sistemi di raccolta e misurazione dei dati.

In questa società sfumano sempre più le distinzioni fra digitale, analogico, online, offline, umano, meccanico.

Sappiamo anche che in questa società il nostro cercare la soluzione giusta modifica la soluzione come cercare l’offerta giusta modifica l’offerta stessa.

 

C’è però un altro aspetto da considerare.

È la sostituzione, di fatto, dei vecchi mediatori dell’informazione – editoria, radio, tv, cinema – con Google, Amazon, Facebook, Apple, Microsoft.

Questa sostituzione aumenta in modo esponenziale l’enorme asimmetria di interazione tra individui e le grandi corporazioni transnazionali.

Il risultato di queste deleghe alle organizzazioni corporative (da parte di settori sempre più ampi della società) è che tutte le informazioni fornite dagli individui in maniera più o meno volontaria vengono registrate e immagazzinate per diventare una parte importante dei Big Data.

In questa prospettiva le cosiddette nuvole di computer dove si condensano i servizi sociali sono in realtà distese di macchine protette da guardie armate.

 

Proviamo a riflettere.

Il costo delle nuvole è notevole come sono costosi i servizi offerti nel web2.0, così anche se lo stoccaggio, il recupero e l’aggiornamento sembrano gratuiti, di fatto non lo sono.

Il successo di questa tecnologie sta nel fatto che si prendono cura della nostra identità, o meglio, della nostra identità digitale.

Queste tecnologie ci conoscono meglio di quanto noi non conosciamo noi stessi e sanno suggerirci con grande precisione i libri da leggere, i film da vedere, i luoghi da visitare, i modelli di vacanza, i ristoranti adatti ai nostri gusti.

Un paradosso significativo, che nessuno affronta, sta nel fatto che le pratiche di profilazione sono antitetiche ai principi della privacy, oltre che opache.

Va aggiunto che i sistemi tecnosociali sono co-evolutivi, nonostante la loro frammentazione verso il basso – com’è quella che produce la lingua o le abitudini legate alla tradizione – e la direzione verso la quale muovono è una sola: l’aumento delle prestazioni dell’utente che controllano.

Questa è la ragione per la quale siamo costantemente chiamati a dichiarare quello che vogliamo e questo vuol dire che dobbiamo adattarci all’ideologia della trasparenza.

 

La profilazione viene in genere accettata come inevitabile.  Ma c’è di più.

I processi decisionali degli individui sono assistiti, guidati, fusi con il dominio degli algoritmi.  Cosa significa?

Che singoli individui e gruppi delegano a queste procedure la creazione di collegamenti tra le persone e le cose del mondo.

L’Internet of Things, l’internet delle cose rappresenta oggi la nuova frontiera di una socialità reificata.

Il frigorifero può fare la spesa da solo perché conosce i gusti dei suoi proprietari, verifica che un certo prodotto consumato regolarmente sta finendo e può collegarsi con i fornitori.

Il nostro smartphone sa come guidarci alla scoperta di una città che non conosciamo,  come suggerirci locali o attrazioni.

Che cosa significa?

Che ci muoviamo in un mondo di significati grazie a relazioni costruite per noi e gestite da algoritmi.  Algoritmi in mano a privati sconosciuti e sottratti a dei controlli democratici, cioè accettati e condivisi.

Tutto questo non significa rimpiangere un’utopica armonia e non significa certo ignorare che la storia dell’uomo è anche la storia della tecnica e dell’invenzione di linguaggi.

Da un punto di vista fenomenologico storia è sinonimo di età dell’informazione.  Ne consegue che la storia, di fatto, inizia con le pitture del neolitico e prosegue con l’invenzione della scrittura in Mesopotamia.  Ma è solo di recente che la vita sociale e il progresso hanno cominciato a dipendere dalla gestione del ciclo di vita dell’informazione.

Vuol dire, al contrario, mettere in luce che la società delle prestazioni si basa su sistemi di condizionamento molto efficaci, ma di cui ignoriamo le conseguenze.

Paradossalmente, invece di punire le infrazioni alle regole, si premiano le prestazioni e il conformismo.

Si accettano sistemi che si presentano come giochi, classifiche, performance.

 

Da un punto di vista psicologico le persone tendono sempre più a comportarsi come macchine, vale a dire, a reagire in maniera irriflessa e automatica.

Di contro i  socialbot che simulano gli utenti dei social network sono sempre più indistinguibili dagli umani.


Il bot (abbreviazione di robot) in terminologia informatica è un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani (per esempio, che accede alle pagine Web, invia messaggi in una chat, si muove nei videogiochi, e così via).

I social bot sono dei bot (cioè, qualsiasi software in grado di automatizzare delle azioni normalmente compiute da utenti umani) che vengono programmati per agire sui social network.

Ne esistono molti tipi che è possibile raggruppare in tre macro categorie in base alla funzione specifica per cui sono stati creati:

Spambots (quelli che spammano contenuti vari).

Paybots (pagati per portare traffico, spesso copiano tweet aggiungendo una short-URL che non c’entra con il contenuto e rimanda al sito pagante).

Influence bots (influenzano le conversazioni relative a un determinato argomento, gonfiano campagne marketing o hashtag per motivi che possono andare dalla semplice promozione alla propaganda politica).


Per le scienze sociali la “delega tecnocratica” favorisce l’emergere di pseudo-soggettività e di identità eteronomiche, cioè, che ci vengono imposte e che risultano superficiali e semplificate.

Va anche osservato che gli occhi sono gli unici organi di senso direttamente collegati al cervello e che la plasticità celebrale è continuamente stimolata dal visuale.

In questo modo il cervello si modifica, con la conseguenza che le persone imparano e sentono in maniera diversa.

Ciò non dipende dall’età anagrafica – l’espressione di nativi digitali è solo una formula efficace a sottolineare le nuove forme di apprendimento tecnologico delle giovani generazioni – ma dall’utilizzo massiccio della memoria procedurale nell’interazione con i new-media.

Più semplicemente dalle ripetizioni procedurali interattive pensate da altri – sconosciuti – per scopi precisi – profilazione e profitto – che assumono la forma di ritualità ossessive.

 

Uno degli effetti più vistosi di questo ordine di cose è l’alterazione della coerenza narrativa che finisce per compromettere l’autonomia degli individui.

Come dicono i critici, si tratta di imparare a gestire le sirene dell’automatizzazione per evitare di essere mercificati.

 

Comunità e condivisione.

Comunità è una delle espressioni più ricorrenti della rete.  Tutto ciò che si rivolge al singolo ha una community di riferimento.  È una sorta di a-priori che garantisce la nostra collocazione sociale.

Va però notato che la parola inglese community è ambigua e non ha nessun riferimento con il sociale o la socialità.  Semplicemente indica una comunità di consumatori.

 

L’analogia con la comunità sociale deriva dal fatto che l’architettura digitale imita lo spazio pubblico come se fosse la piazza di una città.

In breve, l’obiettivo dei media sociali è quello di raccogliere informazioni per disegnare un profilo identitario degli utenti il più realistico possibile e siccome questa identità si costruisce in relazione con gl’altri – l’uomo è per definizione un animale sociale – è essenziale che il soggetto sia inserito in un contesto che faciliti la comunicazione reciproca.

 

Chiamiamo questo spazio così costruito una community.

L’obiettivo di una community è la creazione di una comfort zone che faccia sentire l’utente un privilegiato.  Questo però non deve farci dimenticare che le comunità mediatiche sono più simili a comunità di sudditi che a comunità di cittadini

La community si lega a un altro tema.

In informatica condividere significa mettere a disposizione, da parte di chi ne ha la competenza, un’opera o un artefatto digitale da lui creato.

La condivisione nasce negli anni Settanta, ma si diffonde velocemente quando vengono commercializzati i primi personal computer.  È tanto popolare da diventare una sorta di movimento politico, poi con il free software diviene una sorta di economia del dono.

Da qui il passaggio commerciale all’open source per arrivare all’ultima metamorfosi, quella di una sharing economy.

Dunque, alla lettera condividere significa mettere in comune un artefatto.

Quando “condividiamo” un file su una piattaforma stiamo solo spostando una cosa da un posto a un altro.

Un prodotto che ha fatto la storia della condivisione in rete è il sistema operativo Unix – l’ispiratore di Linux – nato alla fine degli anni ’70 nei laboratori della Bell.

Siccome alla AT&T  (proprietaria della Bell) fu proibito di entrare nel settore dell’informatica Unix venne venduto a un prezzo simbolico alle università le quali si ritrovarono ad avere una piattaforma comune completa di codice sorgente.

Per queste ragioni e in modo spontaneo si creo una rete di collaborazioni attorno al codice di questo sistema operativo coordinata dall’Università di Berkeley e questo può essere considerato un primo grande momento di condivisione.

Ma poi tutto finì e furono impedite anche le pratiche del patch.

È la toppa, ovvero una modifica effettuata al codice per farlo funzionare meglio.  Patchare un programma significa questo.

 

Digital labour.

Labour qui va inteso come fatica, come lavoro contrapposto a capitale, dunque lavoro nel senso di sfruttamento più che di impiego.

Il digital labour è un’espressione che risale ai primi anni di questo secolo, non va confusa con il digital work che si riferisce ai lavoratori del settore informatico.  È una forma di lavoro ambigua e opaca, scovarla consente di denunciare forme di sfruttamento che non sono evidenti.

Di essa non esiste una definizione unanimemente accettata.

Nel caso del lavoro uberizzato i profitti della piattaforma Uber – ma anche i servizi di recapito di cibo a domicilio o di AirBnB – non coincidono con il plus valore derivato dalla differenza tra capitale investito e profitto ottenuto.

 

Uberizzazione. Con questa espressione si intende la trasformazione di servizi e prestazioni lavorative continuativi, propri dell’economia tradizionale, in attività svolte soltanto su richiesta del consumatore o cliente.  Una trasformazione del lavoro sul modello dell’attività economica caratteristico della multinazionale Uber.

Airbnb è un portale online che mette in contatto persone in cerca di un alloggio o di una camera per brevi periodi, con persone che dispongono di uno spazio extra da affittare, generalmente privati.  Il sito fu aperto nell’ottobre del 2007.

 

La questione del digital labour si fa ancora più complicata con i media sociali.

Apparentemente il loro uso è un’attività di svago, non a caso a questi media si connettono molti utenti (più o meno discretamente) durante l’orario di lavoro retribuito.

Per comprendere la questione occorre partire dal concetto di “merce-audience” (audience commodity) elaborato dal sociologo canadese Dallas Walzer Smythe alla fine degli anni ’70 a proposito della televisione e della radio.  Smythe è stato un esperto di economia politica della comunicazione.  La misurazione dell’audience in questo contesto è cruciale perché è il cuore stesso del modello commerciale di questi due media.

Il consumatore può divertirsi a guardare gratuitamente un film perché il suo tempo di attenzione costituisce una parte della merce venduta.

Questo comporta il fatto che occorre saper scegliere cosa diffondere in rete per ottenere la massima attenzione possibile dal maggior numero di spettatori.

 

Secondo Smythe il tempo passato guardando la televisione è, nel mondo occidentale, qualcosa di assimilabile al lavoro perché i telespettatori – loro malgrado – svolgono compiti essenziali di marketing per i produttori di beni di consumo.

A maggior ragione in una società digitale il soggetto – una volta effettuato il login – diventa un produttore e un contributore.

Guidato dall’interfaccia l’utente contribuisce, attraverso la proliferazione a cui si presta, con un messaggio, un commento, una foto, ma soprattutto  con il suo tempo di attenzione, a modellare in maniera sempre più precisa la merce venduta dagli inserzionisti.

Sul tema del digital labour rinviamo ai lavori di Tiziana Terranova, ricercatrice e docente presso l’Università degli Studi di Napoli dove insegna Sociologia delle comunicazioni, Studi culturali e postcoloniali e Teorie culturali inglesi e nuovi media.

La Terranova si occupa anche di sottoculture tecnologiche, di cyberpunk, di newsgroups e di cultura tecno californiana.

Aggiungiamo che Tiziana Terranova vede nello spazio informatico non tanto un territorio istituzionale da conquistare (come la televisione all’epoca della lottizzazione) quanto un ambiente dinamico con cui attivamente confrontarsi.

Sono concetti sviluppati nel volume Culture Network.

 

******

Appunti di cultura digitale.

Intorno alla metà del ‘700 in molte città europee si cominciò, strada dopo strada, a numerare le abitazioni in ordine crescente, erano nati i numeri civici.

Più che per problemi postali o dei singoli cittadini questo provvedimento veniva incontro alle richieste del fisco e delle forze dell’ordine per mappare, come si direbbe oggi, rintracciare e identificare facilmente le persone.

Ci furono, soprattutto nella mitteleuropea, molte proteste di cittadini contrari a questa misura che in alcune circostanze era anche discriminatoria, come nel caso degli ebrei di Boemia, obbligati a usare per la numerazione delle case i numeri romani anziché quelli arabi.

È facile immaginare i mille sotterfugi che furono inventati, come rompere la targa con il numero, metterla capovolta, così che il sei diventa nove, imbrattarla di vernice o di fango, eccetera.

A Parigi fu Napoleone che introdusse i numeri civici nel 1805.

Walter Benjamin nel suo Parigi, capitale del diciannovesimo secolo, racconta che nei quartieri proletari questa misura fu subito percepita come repressiva e che gli artigiani – con in testa quelli del fouburg Saint-Antoine – si rifiutavano di usare il numero della loro abitazione come indirizzo.

Charles Baudelaire – il poeta de I Fiori del male – definì questa numerazione come un’intrusione criminale nella vita quotidiana dei cittadini, possiamo aggiungere non senza un qualche interesse, considerato che era perennemente assediato dai creditori che volevano essere pagati e che lui evitava cambiando spesso il suo indirizzo.

L’analisi di Benjamin, però, è più complessa.

Per questo grande saggista europeo anche l’invenzione della fotografia è un punto di svolta nello sviluppo del controllo amministrativo e identificativo che dovrebbe essere affrontato in modo specifico.

 

Queste osservazioni sulla nascita della numerazione stradale ci mostrano l’enorme distanza che  separa quei giorni dall’epoca nella quale viviamo, caratterizzata dalle identità digitalizzate e  geolocalizzate.

Possiamo dire che mai come oggi, nella storia dell’umanità, si è disposto di una quantità così enorme di informazioni immagazzinate su i fenomeni e i comportamenti sociali, che confluiscono nell’area dei Bigdata.

Da almeno una generazione, con piccole quantità di dati, algoritmi e macchine di analisi, siamo in grado di estrapolare informazioni mirate, ma i Bigdata hanno reso obsoleto questi metodi mettendoci nella condizione – mai avuta prima – di possedere una quantità di dati maggiore di quella che i mezzi più accessibili ci permettono di gestire.

Vediamo qualche grandezza.

Nel 2000 – l’anno di nascita dei nativi digitali – le informazioni registrate erano per il 25 per cento supportate da un formato digitale e per 75 per cento contenute su dispositivi analogici (carta, pellicola, nastri magnetici, ecc…)

Nel 2013 le informazioni digitalizzate erano stimate intorno ai 1200 exabyte, vale a dire erano il 98 per cento, mentre quelle analogiche si erano ridotte al 2 per cento.

La mole delle informazioni digitalizzate è tale che se le stampassimo su carta coprirebbero una superficie grande come cinquanta Stati Uniti.

A parte il volume delle informazioni c’è da considerare che questi dati fanno capo a pochissimi soggetti, sono concentrati in pochissime mani.

Cosa vuol dire?  Che Facebook – per fare un esempio – ha collezionato il più grande insieme di dati mai assemblati sul comportamento sociale delle persone.

CHE, con molta probabilità, ALCUNE DELLE NOSTRE INFORMAZIONI PERSONALI NE FANNO PARTE.

 

La caratteristica di questi dati – oltre alla loro quantità – sta nel fatto che essi provengono da fonti diverse e sono “estratti” con metodi diversi, in questo modo costituiscono un dataset complesso e allo stesso tempo destrutturabile, che richiede, per essere sfruttato, elevate capacità di calcolo e di efficienza algoritmica.

Va aggiunto che i dati non provengono solo dagli addetti ai lavori, ma anche alle azioni quotidiane di milioni di utenti digitali che non ne sono consapevoli o non se ne rendono conto.

Tutto questo va considerato tenendo presente il carattere pervasivo (nel senso che tende a diffondersi ovunque) delle nuove tecnologie di cui non siamo, per ora, capaci di immaginare gli scenari.

Non per caso molti sociologi parlano di una “dittatura planetaria degli algoritmi” che nella sostanza favorisce le disparità economiche e i soprusi sociali.

La polizia di Los Angeles, per esempio, da qualche tempo a questa parte sta implementando un programma chiamato Predpol che grazie all’analisi dei dati dovrebbe riuscire a prevedere i crimini.

Per ora i risultati non sono stati soddisfacenti e spesso sono stati distorti dai pregiudizi razziali che hanno accompagnato la raccolta dei dati, ma torneremo sull’importante tema dei bias.

 

Implementare, dall’inglese (to) implement, a sua volta del lat. implēre “condurre a termine”, si usa quando si rende eseguibile un programma attraverso la formalizzazione dell’algoritmo risolutivo.

 

La digitalizzazione (e quindi l’automazione dei processi, così come la ratificazione delle esistenze), richiede capitali enormi tale da renderla un’attività altamente selettiva e qualificata, ma il danno più grave la digitalizzazione lo produce a livello della precarizzazione del lavoro cultuale e cognitivo individuale.

In altri termini la digitalizzazione rende sempre più simbiotico il rapporto tra mente e macchina e accentua l’importanza del lavoro di gruppo eterodiretto.

Ma c’è di più.

La data e sentimental analysis mostra come oggi l’estrazione dei dati che determinano i flussi è un lavoro complesso e molto lungo che produce un plusvalore (Nella terminologia marxiana, la differenza tra il valore del prodotto del lavoro e la remunerazione sufficiente al mantenimento dei lavoratori, della quale, in regime capitalistico, si appropriano gli imprenditori) non solo a partire dal singolo individuo, ma anche dal valore aggiunto di milioni di corpi e di menti messe in relazione.

Ricordiamolo:

SE NON PAGHI, IL PRODOTTO SEI TU!

Facebook e Google sono gratis, ma solo per il fatto che a lavorarci siamo anche noi quando li usiamo.

È una sorta di neo-potere, caratteristico delle piattaforme, che ha dato vita a un nuovo potere politico ed economico tale che le proprie policy di utilizzo si trasformano di fatto in leggi internazionali.

 

(Con policy si indica un insieme di azioni (ma anche di non azioni) poste in essere da soggetti di carattere pubblico e privato, in qualche modo correlate ad un problema collettivo privato o pubblico).

 

Queste piattaforme, grazie alla loro tecnologia, forniscono servizi basati su standard che spesso sono superiori a quelli dei servizi classici – sia privati che pubblici – innescando, senza che ce ne rendiamo appieno conto, processi di privatizzazione consensuale, silenziosi e inavvertiti.

Tra l’altro, questo è il motivo per cui i padroni del web si stanno imponendo nella ricerca scientifica e nella formazione.

E questa è la causa di un conflitto in atto – inedito nella storia moderna: degli Stati nazionali contro le piattaforme transnazionali.

C’è da aggiungere che – in virtù della sua deterritorializzazione – si è anche sviluppata una sorta di etica hacker anarco-capitalista che ha come obiettivo un mercato digitale libero da ogni regolamentazione.

A questo proposito va osservato che la grossa capacità di calcolo e di elaborazione dei dati possono consentire alle grandi aziende dell’informatica di fornire analisi in qualunque settore, potendo attingere non solo alle risorse del proprio recinto di dati, ma anche da fonti ad accesso libero.

In realtà la produzione di dati a mezzo di dati fa si che la volontà di offrire piattaforme aperte è più che altro una forma di capitalismo travestito di buonismo, nel quale il lavoro individuale diventa una opportunità di contribuire al loro progresso.

Perché?

Perché il meccanismo alla base delle nuove forme di intelligenza artificiale è il cosiddetto apprendimento automatico o machine learning.

Per capirci, mentre nell’algoritmica classica la macchina esegue determinati compiti prefissati da un ordine, nel machine learning l’algoritmo si nutre in modo autonomo di dati, dati che sono la sua materia prima.

Facciamo un esempio, se vogliamo creare un programma che sappia distinguere le foto degli asini da quelle dei cavalli, occorre metterlo in condizione di esaminare un enorme dataset di immagini di asini e di cavalli.

L’algoritmo studierà queste foto contrassegnate da un etichetta che li distingue “riequilibrandosi” in continuazione in  modo da commettere sempre meno errori possibili di riconoscimento.

Alla fine sarà in grado di distinguere con una buona approssimazione un asino da un cavallo da una foto che non ha mai visto.

L’importanza di questo processo è che può essere applicato a qualunque cosa inerte o vivente,

sia esso il software per riconoscere una traccia musicale, come per identificare una persona partendo da come cammina o per come parla.

L’unica cosa di cui abbiamo bisogno è un dataset sufficientemente grande di informazioni adatto al contesto.

Lo stesso processo può poi essere applicato al sentiment analysis ovvero a quei sistemi sviluppati per determinare il livello di “positività” o di “negatività” di un testo.

Un’analisi importantissima sia nel mondo della pubblicità, come in quello della politica e della diplomazia.

Questo perché siamo tutti, nessuno escluso, produttori di dati e di relazioni che entrano in modo sempre più diretto nei processi di accumulazione capitalista legati ai Bigdata o per via di espropriazione o per via di assoggettamento.

 

(Gottfried Leibniz (Lipsia 1646 – Hannover 1716) è stato un matematico, filosofo, logico, giurista storico e magistrato tedesco di origine soroba o serba.

A lui dobbiamo il termine di funzione che egli usò per individuare le proprietà di una curva.  Leibniz, assieme a Newton, è colui che sviluppò il calcolo infinitesimale e in particolare il concetto di integrale.
È considerato il precursore dell’informatica e del calcolo automatico e fu l’inventore di una calcolatrice  meccanica detta macchina di Leibniz .  È considerato uno dei più grandi esponenti del pensiero occidentale).

 

È stato Leibniz il primo a cercare di elaborare un modello logico capace di risolvere con un calcolo qualunque problema.  Oggi, per gli ingegneri della Silicon Valley, ma soprattutto per i proprietari dei dati e delle macchine di calcolo, questo è un mito che appare se non vicino, perlomeno pensabile.

Un po’ di cronaca. Nel 2008 su Wired fu pubblicato l’articolo – ora celebre – di Chris Anderson che annunciò l’era dei Petabyte.

Il Petabyte è un’unità di misura dell’informazione o della quantità di dati.

Il termine deriva dalla unione del prefisso SI peta con byte e ha per simbolo PB.

Il prefisso peta deriva dal termine greco penta e sta ad indicare 1000 alla quinta.

Perché sono importanti i Petabyte?

Perché hanno reso obsoleti molti aspetti del metodo scientifico classico e dell’elaborazione di modelli teorici, sostituendoli con l’analisi dei dati.

Perché hanno creato una nuova forma di fiducia verso gli algoritmi e la correlazione statistica delegando – di fatto – alla macchina la capacità di analisi che si credono obiettive.

L’algoritmo valuta l’efficacia dei manager o degli insegnanti.  Come investire in borsa.  Quando vi ammalerete e, con buona approssimazione, perché.

Ci ricorda cosa ci piace, quale musica ascoltare, quali libri acquistare.

 

Dov’è la zona oscura?

L’algoritmo, in ultima analisi diventa il nostro critico, il nostro esperto, il nostro giudice.

Per dirla in maniera più tecnologica l’algoritmo apprende, elabora, costruisce una “scatola nera” capace di valutazioni e di fornire risultati senza che il programmatore sia a conoscenza dei criteri che portano al risultato finale.

Che cosa interessa in modo specifico di questo processo alla sociologia?

Che nella fase di apprendimento la macchina si appropria anche di bias, distorsioni ed errori che possono essere nel dataset di partenza.

È un caso di scuola il caso di Tay, il Twitter-bot di Microsoft che fu ritirato perché antisemita.

 

In informatica il significato di bot (da robot) si è trasformato nel tempo.

Inizialmente indicava un software usato per svolgere automaticamente attività ripetitive su una rete, ad esempio un mailbot risponde con messaggi automatici a e-mail inviati a uno specifico indirizzo di posta elettronica.

Oggi il bot descrive anche programmi che possono interagire autonomamente con sistemi o utenti, come i bot sui social che simulano persone reali.

I bot di Twitter (Twitter bot) gestiscono automaticamente account e sono programmati per comportarsi come utenti umani: seguono altri account, ri-twittano e generano automaticamente contenuti e se malevoli possono anche diffondere notizie false e sfruttare hashtag e parole chiave degli argomenti più popolari per inserirsi aggressivamente in scambi tra persone reali e provocarne le reazioni.

Secondo gli americani sono quelli che sono intervenuti e modificato in modo significativo il risultato delle elezioni americane.

 

In altri termini, il mito – pericoloso e in ogni caso e per molto ancora irrealizzabile – è quello di una oggettivazione del giudizio.

Al pari di un individuo qualsiasi – la cui capacità di analisi e di valutazione è influenzata dalla sua cultura e da ciò che gli è capitato di vivere – l’algoritmo di machine learning si sviluppa apprendendo.

Per le scienze sociali dobbiamo considerare le implicazioni politiche di questo congegno, ovvero di come spesso un dataset possa essere confezionato ignorando le minoranze etniche, culturali e politiche, sottovalutando le diversità.

Così operando la macchina s’imbeve di opinioni e gusti che riflettono l’opinione dominante e, allo stesso tempo, da vita a una retorica che appare oggettiva.

Come dicono gli scettici: gli algoritmi di deep learning sono intelligenti o stupidi tanto quanto chi li programma e per adesso sono spesso destinati a confondere la correlazione con la causalità.
Prima di concludere queste note vale la pena di rilevare due cose.

Lo scontro tra apocalittici e integrati nell’ambito delle nuove tecnologie digitali è più che altro un scontro emotivo legato alla sensibilità culturale.

Occorre invece pensare alla tecnologia come una forza autonoma e riconoscere che è determinata dai rapporti di proprietà e di produzione, gestita dalle relazioni di potere e di classe.

 

Un esempio che risale al primo secolo prima dell’era comune può essere illuminante.

In questo secolo il matematico Erone di Alessandria concepì una specie di macchina a vapore che se sviluppata avrebbe potuto anticipare la tecnologia a vapore di almeno diciotto secoli.

Ma questa macchina non trovò nessuna applicazione pratica perché la grande quantità di schiavi a disposizione rendeva superfluo studiare questa tecnologia.

La seconda cosa è che il mito della neutralità algoritmica discende dal mito della neutralità scientifica.

In realtà come mostra la critica marxista ci sono condizionamenti reciproci tra scienza e rapporti sociali di produzione.  Il concetto di neutralità non è che una forma particolare di feticismo che attribuisce a proprietà oggettive intrinseche dei prodotti dell’attività intellettuale e manuale degli uomini ciò che discende dai rapporti sociali che tra di essi intercorrono.

 

En passant.  Molti sociologi parlano a proposito di algoritmi di autorità algoritmica sull’informazione e la conoscenza, parlano di algocrazia nel mondo del lavoro, così come di identità algoritmiche bio-politicamente calcolate e assegnate agli ignari utenti dei social media.

Così come si parla di black box society, di algorithmic life.

Questa attenzione rivela una preoccupazione sulle conseguenze politiche micro-sociali e culturali del digitale, ma soprattutto sulla trasparenza dei processi computazionali.

 

Secondo il sociologo americano Ted Striphas la cultura americana si sta progressivamente trasformando in una algorithmic culture caratterizzata da un forte determinismo tecnologico.

Per semplificare al massimo quello che preoccupa in questo momento le scienze sociali non è l’input – i Big data estratti dall’attività di miliardi di consumatori – né l’output, ma la non trasparenza che sta nel mezzo, vale a dire le righe di codice che guidano il processo con cui gli algoritmi on line ingeriscono i dati sui comportamenti degli utenti.

Algoritmi che abbiamo detto più volte rappresentano un investimento da custodire – insieme ai dati – con grande cura perché gran parte dei ricavi di colossi come Netflix e Amazon derivano proprio dai suggerimenti automatici.

Infatti, molti degli algoritmi delle nostre tracce digitali sono disegnati da privati per scopi commerciali, le conseguenze, però sono pubbliche e spesso inquietanti.

 

Il caso di scuola è quello del recommender algorithm di Amazon che in piena stagione di terrorismo suggeriva le componenti per fare una bomba artigianale in quanto “spesso comprate insieme”.

In questo aneddoto – vero – per riprendere un’espressione di Hanna Arendt, sta quella che si potrebbe chiamare la banalità dell’algoritmo: il semplice e apparentemente neutrale eseguire gli ordini può produrre esiti indesiderati e pericolosi.

 

Una nota sul data minig.

Definiamolo prima di analizzarlo.

Il data mining concerne l’estrazione di informazioni – eseguita in modo automatico o semi-automatico – da grandi quantità di dati – conservati nelle banche dati – per la ricerca di pattern e/o relazioni non note a priori.

Implica l’uso di tecniche di analisi che si avvalgono di modelli matematici e statistici per l’interpretazione e la previsione dell’andamento di serie temporali e consentono di implementare le capacità analitiche di tipo predittivo.

Il data mining viene sempre più spesso utilizzato per orientare le opinioni e i processi decisionali.

Va anche detto che questo lavoro sui dati non si limita alla pura constatazione e osservazione di fatti, perché il suo fine è quello di mettere in atto azioni capaci di produrre valore.

Ci sono quattro misure – dette anche le quattro V – che consentono di catalogare i dati raccolti e di poterne individuare una grandezza.

Queste misure sono:

Il Volume, è una misura facile da intuire in quanto riguarda l’accumulo dei dati, ma va valutata.

Ogni minuto vengono caricate sulla piattaforma di sharing Youtube più di trecento ore di video.

Facebook genera quasi cinque petabyte di dati al giorno.

Twitter gestisce oltre 600 milioni di tweet ogni 24 ore.

Il numero di mail scambiate ogni giorno nel mondo e poco più di duecento miliardi di unità.

(Sono dati del 2016 e sono per la nostra esperienza impensabili)

La Velocità.  Concerne la necessità di ridurre al minimo i tempi di analisi dei dati cercando di effettuarli in real time o quasi e distinguendo quelli che potrebbero essere o diventare in tempi brevi obsoleti.

La Varietà.  È una delle caratteristiche più importanti in quanto incide sul valore di rete generato.

I dati – a una classificazione di massima – possono essere dati strutturati (costituiscono il venti per cento di tutti i dati).  Dati non strutturati sono i dati conservati senza alcuno schema e composti da un elevato numero di metadati, ossia di informazioni che specificano il contenuto e il contesto di una pagina web.  Dati semi-strutturati.  Come i dati XML, un metalinguaggio per la definizione di linguaggi di markup.

La quarta misura è la Veridicità. Indica il grado di accuratezza e di attendibilità dei dati.  È la condizione chiave per poter estrarre valore dai dati.

Queste quattro misure, poi, sommariamente descritte, sono legate da processi di interdipendenza.

Partendo da esse possiamo definire i Big data ( ed è quello che interessa la sociologia) come un patrimonio informativo caratterizzato da velocità, volume e variabilità elevati, che richiede forme innovative di analisi e di gestione finalizzate a ottenere una più accurata comprensione dei processi decisionali.

 

Bias e dintorni.

Occorre intenderci quando si parla di intelligenza artificiale perché è un’espressione che potrebbe far pensare a macchine dotate di conoscenza, in grado di ragionare e, soprattutto, consapevoli di ciò che stanno facendo.

Le cose, in realtà, sono molto diverse.

Il fatto che un software impari a riconoscere se in una immagine ci sono dei gatti non significa che sappia che cos’è un gatto.

O meglio, il software che ci batte giocando a scacchi non ha la più pallida idea di che cos’è il gioco degli scacchi, come per esempio avvenne quando Deep Blue batté Gary Kasparov.

Diciamo, allora, che i sofware non sono in grado di pensare.

Sono solo in grado di processare una quantità enorme di dati e di metterli in relazione tra di loro, identificando collegamenti e differenze o calcolarli statisticamente.

Nel nostro caso di identificare la mossa degli scacchi che ha la maggiore probabilità di avere successo.

I mezzi utilizzati per arrivare a questo risultato sono sostanzialmente due.

Il machine learning – ovvero, l’apprendimento automatico – e la sua più recente evoluzione, il deep learning – l’apprendimento approfondito.

 

In particolare il deep learning lavora su un vastissimo numero di strati interni alle cosiddette rete neuronali che simulano il funzionamento del cervello raggiungendo così una maggiore capacità di astrazione.

 

En passant, ricordiamo che gli studi sulla cosiddetta intelligenza artificiale risalgono alla metà del secolo scorso.

Oggi possiamo definire il machine learning come una branca dell’intelligenza artificiale che fornisce ai computer l’abilità di apprendere senza essere stati esplicitamente programmati.

Apprendere attraverso tentativi ed errori attraverso una sorta di calcolo statistico estremamente evoluto.

Alla fine del secolo scorso, invece, la ricerca sulla cosiddetta intelligenza artificiale si concentrava sullo sviluppo delle capacità simboliche.

Vale a dire si cercava di far apprendere alle macchine tutte le regole necessarie per portare a termine un compito.

Per tradurre dall’italiano all’inglese – per fare un esempio – si cercava di fornire al computer tutte le regole grammaticali e i vocaboli delle due lingue per poi chiedergli di convertire una frase da una lingua all’altra.  Con il risultato di tradurre merluzzi con piccoli merli.

Va ricordato un pioniere di queste ricerche, Silvio Ceccato, che per anni lavorò nel laboratorio di cibernetica dell’Università Statale di Milano.

Diciamo che il modello simbolico ha grossi limiti e funziona solo in quei campi che hanno regole chiare e rigide, come la matematica e gli scacchi.

L’atteggiamento generale iniziò a cambiare con gli ultimi anni del secolo scorso quando diventò evidente che il machine learnig consentiva di risolvere problemi che l’intelligenza artificiale simbolica non sarebbe mai stata in grado di risolvere.

Questo anche grazie a una mole senza precedenti di dati a disposizione e all’accresciuta potenza di calcolo dei computer.

Per farvi capire il volume dei dati riflettete su questo: nel 2013, il 90 per cento dei dati prodotti nella storia dell’umanità era stato creato nei due anni precedenti.

 

Alla base del machine learning c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni.

Per questo si dice che questi programmi hanno un abilità di apprendere senza essere stati esplicitamente programmati a differenza dei software tradizionali che si basano su un codice scritto che li istruisce passo dopo passo.

In breve, nel caso del machine learning la macchina scopre da sola come portare a termine l’obiettivo che le è stato dato.

È una forma di intelligenza?

No.  Per imparare a riconoscere un numero, diciamo il numero “quattro”, un’intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi.  A un bambino di cinque anni basta vederne cinque o sei.

In ogni modo il metodo probabilistico è alla base di molte operazioni che ci semplificano la vita: il machine learning viene impiegato dai filtri anti-spam per eliminare la posta indesiderata, da Facebook per indovinare quali sono i nostri amici nella foto, permette ad Amazon o a Netflix di suggerirci quali libri leggere o quali film vedere o a Spotify di classificare le canzoni in base al genere musicale.

Ma il machine learning è in marcia.

Guiderà le nostre automobili, ma già adesso ci può assistere come avvocato, soprattutto nelle pratiche internazionali.  Un avvocato capace di scartabellare nei database legali di tutto il mondo.

E non dimentichiamo Watson – l’intelligenza artificiale di IBM – che può diagnosticare i tumori con precisione maggiore di molti medici ospedalieri.

Riassumendo. Per la cosiddetta intelligenza artificiale i due fattori fondamentali sono il potere di calcolo e i dati.  Quest’ultimi devono essere di buona qualità essendo la materia grezza alla base delle conclusioni o predizioni del network.

Come dicono gli informatici, se inserisci spazzatura, esce spazzatura.

Qual è allora il problema?

È che spesso i dati forniti alle IA (intelligenze artificiali) includono molti pregiudizi umani che si riflettono inevitabilmente sui risultati ottenuti con le macchine.

L’esempio di scuola di questa constatazione è quella del bot progettato da Microsoft e chiamato Tay.  Ne abbiamo già parlato.

Appena ha cominciato a immagazzinare dati si sono scatenati i troll che hanno iniziato a comunicare con Tay dandogli in pasto una miriade di opinioni razziste e omofobe diventando nel giro di 24 ore il primo esempio di intelligenza artificiale nazista.

Un aneddoto racconta che un istante prima di essere chiuso Tay twittò: Hitler was right I hate the Jews.

Lasciando stare i troll un altro problema nella distorsione delle IA è l’uso di training set facilmente accessibili e a basso rischio legale dal punto di vista del copyright.

Due esempi spiegano bene il problema.

Una fonte per istruire i network neuronali sono le e-mail.  In un caso furono usate le mail di una compagnia petrolifera texana.  Sembravano perfette fino a quando questa compagnia non fu denunciata per truffa.

Va da se, la IA aveva assorbito l’arte di truffare!

Spesso per evitare i copyright si usano dati provenienti da opere che non sono più soggette ad esso.  Per esempio, in lingua inglese, Shakespeare, Joyce, Scott Fitzgerald.

Ma anche in questo caso c’è un problema non da poco.

Sono autori pubblicati prima della seconda guerra mondiale e un dataset che faccia affidamento sui  loro scritti non farebbe altro che riflettere i pregiudizi del tempo e lo stesso farà il sistema di intelligenza artificiale nutrito con questo dataset.

Si tratta di un problema enorme e delicato, soprattutto per quanto riguarda l’ordine pubblico,  perché, come si è già verificato, certe etnie – solo a causa di statistiche mal impostate – sono state considerate come naturalmente più predisposte a diventare terroristiche o a commettere crimini.

Il problema diventa ancora più delicato con i software predittivi in mano alle forze dell’ordine perché spesso essi finiscono per causare – come dice la sociologia – una profezia che si auto-avvera o che si auto-adempie.

 

In sociologia una profezia che si auto-adempie o che si auto realizza, è una previsione che si realizza per il solo fatto di essere stata espressa.

Predizione ed evento, infatti, sono in un rapporto circolare, secondo il quale la predizione genera l’evento e l’evento verifica la predizione.

Ad esempio nel mercato azionario ad una convinzione diffusa dell’imminente crollo di un’azienda, gli investitori possono perdere fiducia e mettere in atto una serie di reazioni che possono causare proprio il crollo della stessa.

In una campagna elettorale un candidato che dichiari di non credere nella sua vittoria può indurre apatia o rassegnazione nei suoi potenziali elettori, che si concretizzano in una diminuzione della sua base elettorale.

In psicologia, una profezia che si auto-adempie si ha quando un individuo, convinto o timoroso del verificarsi di eventi futuri, altera il suo comportamento in un modo tale da finire per causare tali eventi.

 

In conclusione il pericolo sta nel fatto che gli algoritmi – protetti dalla loro aurea di scientificità – potrebbero diventare una giustificazione per profilazioni in sé inattendibili e generare equivoci.

In sostanza, ogni sistema di profilazione o predittivo è efficace solo se i dati inseriti sono corretti e privi di bias.

 

Fenomenologia del “dato”.

Il fenomeno dei big data ha smesso da tempo di essere un argomento specialistico per diventare un tema ricorrente sui social network.

Su LinkedIn, per esempio, ci sono più di duemila gruppi dedicati all’argomento, può sembrare strano, ma non dimentichiamo che i data sono il nuovo petrolio, o se preferite uno dei temi centrali della contemporaneità.

Alla base di questa situazione ci sono le tecnologie digitali oramai essenziali a innumerevoli attività professionali, della comunicazione, dell’economia, dell’industria, della cultura.

Così come ci siamo noi, che siamo sempre più dipendenti a una serie di dispositivi digitali necessari per svolgere un numero sempre più elevato di compiti quotidiani e dotati di un numero sempre crescente di sensori e strumenti di registrazione.

È per questo motivo che la natura dei dispositivi digitali è quella di essere delle macchine che in prima istanza producono dati.

Il più famoso di essi lo chiamiamo ancora “telefonino”, ma lo smartphone è a tutti gli effetti un computer portatile di dimensioni ridotte, ed è proprio la sua vera natura che lo fa costare così poco.

Lo facciamo senza pensarci, ma la mattina quando lo accendiamo o, meglio, lo avviamo – sempre che non lo lasciamo acceso in continuazione – il nostro smartphone invia a più soggetti, con i quali ci collega, il segnale che il device è attivo.  Quali sono questi soggetti?

Il produttore del telefono, il produttore del sistema operativo, quelli delle app che abbiamo installato e ad altri a essi collegati.

Poi se sul nostro smartphone abbiamo attivato la geo-localizzazione, verranno registrati anche i nostri tragitti quotidiani che finiranno a far parte di quell’insieme di dati che trasmettiamo a tutti i soggetti a cui siamo legati per suo tramite.

In altri termini, se una mezzora dopo essere usciti di casa il nostro smartphone raggiunge un indirizzo che corrisponde a quello di un’azienda o di una scuola, come nel nostro caso, e da qui non si muove per un certo periodo di tempo, sarà piuttosto facile per chiunque abbia i mezzi per raccogliere questi dati anche processarli e trarne delle conclusioni.

In passato questa acquisizione di dati creava spesso frizioni, oggi avviene in modo automatico, senza interferenze, perché ogni dispositivo che noi utilizziamo crea una traccia digitale fatta di dati che possono essere aggregati, analizzati e letti.

Questa situazione è oggi accentuata dall’internet delle cose (Internet of Things) – che abbiamo già definito come l’implementazione di connettività all’interno di elettrodomestici ed oggetti di uso comune – che ha fatto crescere le dimensioni della nostra traccia digitale trasformandola in modo radicale, dando vita all’ombra delle nostre abitudini di consumo.

Diciamo che con la mole di dati raccolti si può fare un vero e proprio profilo virtuale della nostra esistenza, esistenza di cui senza una piena consapevolezza cediamo la proprietà e il controllo ai produttori di device e ai fornitori di servizi digitali.

 

Dunque ancora un problema di dati, la cui importanza – come fenomeno centrale della modernità – fu messa in luce qualche anno fa dalle discussioni sulla post-fattualità.

Post-fattuale(in inglese post-truth) è un termine inventato da David Roberts, un blogger ambientalista americano.  Serve a spiegare la crescente inclinazione di parte della società moderna a credere a notizie false o fortemente alterate, cioè, alle “bufale”, come si dice in Italia.

Semplificando molto, quello che stiamo vivendo è un passaggio da una modalità o schema di giudizio basato sull’osservazione diretta e la testimonianza dei fatti a una modalità di giudizio basata sulla raccolta, l’aggregazione e l’analisi dei dati.

La domanda che, per conseguenza, dobbiamo porci è questa:

In che modo il passaggio dai dati ai fatti come modalità di giudizio cambia il modo in cui vediamo le cose?

In primo luogo dobbiamo rilevare come il ruolo che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci circonda è la loro pretesa oggettività rispetto ai fenomeni che descrivono.

Per verificarlo basta fare un giro sui social network per costatare il modo in cui gli utenti sbandierano dati, statistiche, inchieste di data journalism ed altre forme di presentazione dei dati come se fossero la “bibbia”, con il solo obiettivo di far accettare all’interlocutore l’evidenza della propria posizione.

Molte inchieste hanno dimostrato che nel sentire comune, in primo luogo dei nativi digitali, ciò che viene presentato e supportato attraverso i dati assume la forza di un’evidenza sostanzialmente incontestabile.

O, per dirla in altro modo, sembra che il dato abbia assunto uno statuto simile a quello di un elemento naturale, uno statuto comparabile a quello dei fatti osservabili che per secoli hanno costituito l’unica base possibile di giudizio.

Questa credenza del dato come un paradigma di oggettività è il prodotto di due fattori.

– Da una parte è il risultato dell’abbassamento delle soglie d’ingresso alla produzione e distribuzione delle informazioni che ha reso possibile un mondo caratterizzato dalla parcellizzazione delle opinioni e dei punti di vista competenti, generando quello che i sociologi chiamano un panorama liquido e mutevole.

– Dall’altra è l’effetto ideologico della costruzione di un discorso e di un punto di vista che ha come obiettivo di nascondere e rimuovere la reale natura dei dati.

In effetti, quelli che noi ci siamo abituati a considerare come fatti che si danno in modo spontaneo all’analisi e che chiamiamo comunemente dati, sono in realtà una selezione da un catalogo infinito di possibilità che si danno ai nostri sensi.

Per cui, considerato che l’operazione di selezionare e stabilire delle differenze tra le cose che ci circondano è l’atto stesso di fondazione di una cultura, allora anche i dati che raccogliamo e analizziamo ne portano impresso il segno.

Considerati da questo punto di vista, cioè come un elemento culturale, i dati perdono il carattere dell’oggettività per diventare – come le opinioni – il prodotto delle condizioni e del contesto in cui vengono sviluppati.

In questo senso, anche i dati portano impressi i bias culturali di chi progetta i sistemi per raccoglierli e le cornici concettuali per analizzarli, mettendo così in luce alcuni aspetti a discapito di altri, a seconda dei punti di vista da cui vengono creati.

 

Di alcune rivoluzioni. (Floridi)

Come da tempo è spiegato dalla gnoseologia, la scienza muta la nostra comprensione della realtà in due modi.

Il primo modo è definito estroverso, ossia riferito a ciò che ci circonda del mondo.

Il secondo è definito introverso perché è riferito alla nostra condizione umana, a ciò che siamo o pensiamo di essere.

Ci sono tre rivoluzioni, nel millennio che ci siamo lasciati alle spalle, che hanno avuto un forte impatto sia sul mondo che in quello che siamo.

Vale a dire, queste rivoluzioni nel modificare la nostra comprensione del mondo esterno hanno modificato anche la concezione di chi siamo, hanno radicalmente cambiato la nostra comprensione di sé.

 

Fino a sei secoli fa eravamo abituati a pensare di essere al centro dell’universo, messi lì da un onnipotente dio-padre e creatore.

Era, visto in prospettiva, una pietosa illusione che rassicurava, che ci faceva convivere con l’angoscia generata dall’invenzione del tempo.

Nel 1543, Niccolò Copernico pubblicò il suo trattato sulla rotazione dei corpi celesti.

Quando questo libro uscì nessuno pensava che dopo aver scosso il nostro modo di vedere la terra e i pianeti avrebbe dato l’avvio a una rivoluzione sul modo di comprendere noi stessi.

I fatti sono quello che sono.

La sua cosmologia eliocentrica ha spodestato per sempre la terra dal centro dell’universo e ci ha costretto a riconsiderare la nostra posizione e il nostro modo di rapportarci ad essa.

Le conseguenze di questa rivoluzione si resero visibili quasi subito, costringendoci a una riflessione più obiettiva e approfondita sulla nostra condizione umana.

Abbiamo capito che la terra è un pianeta piccolo e fragile e abbiamo trovato nella ragione la forza per studiarlo e continuare a studiarlo dall’alto delle nostre esplorazioni spaziali.

 

La seconda rivoluzione è avvenuta nel 1859 quando Charles Darwin pubblicò L’origine delle specie.  In questo libro si riassumevano anni di esplorazione sul campo e si affermava che ogni specie vivente è il risultato di un’evoluzione da progenitori comuni attraverso un processo di selezione naturale.  Con Darwin la parola evoluzione acquistò un nuovo significato che molti ritenevano sgradevole e insopportabile.

Un significato che molte religioni ancora oggi rifiutano o accettano solo parzialmente.

In ogni modo, sebbene non fossimo più al centro dell’universo, sebbene fossimo poco più che animali eravamo ancora padroni dei nostri contenuti mentali.

In altre parole la nostra capacità di autocoscienza, di elaborare una coscienza di sé, ci dava ancora un posto speciale nell’Universo.

Penso dunque sono, aveva affermato Cartesio e l’introspezione era considerata un viaggio interiore alla scoperta di sé.  Ci pensò Sigmund Freud a liquidare questa illusione.

La terza rivoluzione mostrò che la mente è inconscia e incontrollabile.

Che ciò che facciamo è soprattutto il frutto dell’inconscio e i cosiddetti stati coscienti sono da noi utilizzati per dare una giustificazione razionale alle nostre azioni.

In altri termini scoprimmo di non essere più liberi neanche nella nostra coscienza, che ubbidisce più all’inconscio che a noi, banalizzando ciò che ritenevamo il frutto della volontà.

 

In ogni modo dopo queste tre rivoluzioni ci restava l’intelligenza, una proprietà difficile da definire, ma che ci poneva in una posizione di assoluto vantaggio tra le forme viventi.

Sapevamo costruire macchine, sviluppare progetti e utilizzare le forme della tecnica.

Blaise Pascal, che visse nella prima parte del XVII secolo, inventò la macchina aritmetica – più conosciuta come la pascalina – con la quale si potevano realizzare la quattro operazioni.

È curioso un fatto, il metodo di calcolo inventato da Pascal e basato sui complementi è analogo a quello che seguono oggi i computer.  Questa macchina ottenne un grande successo e influenzò un altro grande matematico e filosofo del XVII secolo, Gottfried Leibniz.

Ricordiamo che fu Leibniz a inventare il sistema dei numeri binari e che per questa ragione è considerato il primo scienziato dei computer.

In estrema sintesi, per Pascal, pensare era ragionare, ragionare era far di conto e la sua macchina era in grado di farlo.

Si potrebbe dire che i germi della quarta rivoluzione erano stati gettati.

Pascal non poteva immaginare che avremmo costruito macchine in grado di superarci nella capacità di processare informazioni dal punto di vista logico.

Ciò che non era ancora pensabile diventò però chiaro con il lavoro di Alan Turing, il protagonista della quarta rivoluzione.

In altri termini e senza certamente prevederlo, Turing ci ha spodestato dal regno del ragionamento logico.  Dalla capacità di analizzare dei dati e di agire in modo conseguente.

Con il risultato che non siamo più gli indiscussi padroni del mondo dei dati e del loro uso.

La parola computer è a questo riguardo significativa.

Tra la fine del XVII secolo e il XIX era sinonimo di persona che svolge dei calcoli.

Il termine computer è il nome dell’agente del verbo to compute.

L’etimo latino è composto da com / cum (insieme) e putare (tagliare, rendere netto – da cui anche potare) e significa propriamente: confrontare (o comparare) per trarre il netto della somma.

In sostanza, il termine computer indicava originariamente una persona incaricata di eseguire dei calcoli.

Fu grazie a Turing che negl’anni ’50 del secolo scorso la parola computer perse il suo riferimento all’uomo e divenne sinonimo di macchina programmabile, ovvero, macchina di Turing.

 

La quarta rivoluzione ha cancellato del tutto il convincimento della nostra unicità e ci ha ridisegnato come organismi informazionali (inforg) reciprocamente connessi e, al tempo stesso, parti di un ambiente informazionale (infosfera) che condividiamo con altri agenti naturali e artificiali, agenti che processano informazioni in modo logico e autonomo.  …

::::::::::::::::

… Molto probabilmente la prossima generazione sarà la prima a non considerare più rilevante la distinzione tra ambiente online e offline.  Una distinzione opaca fin da oggi, se la casa è dove sono i nostri dati, allora viviamo già da tempo su Google Earth o nel cloud.

Questo, però,  non vuol dire che la rivoluzione digitale ci trasformerà in un’umanità di cyborg.

Un numero di telefono solo nei film si può digitare per mezzo di una tastiera virtuale che appare sul palmo di una mano, più realisticamente, e senza essere cyborg, lo possiamo comporre pronunciandolo, grazie al fatto che il nostro smart-phone ci capisce.

Per comprendere la logica degli ambienti informazionali dobbiamo pensare al fatto che in molti contesti le ICT (le tecnologie dell’informazione e della comunicazione) hanno cominciato ad essere la squadra che gioca in casa nell’infosfera con noi che giochiamo in trasferta.

 

Per spiegare che cos’è un algoritmo e illustrare il meccanismo SE/ALLORA siamo ricorsi al gioco della morra cinese.

Oggi non siamo in grado di battere le ICT neppure a questo gioco poiché un robot è così veloce da riconoscere in un millesimo di secondo la forma assunta dalla nostra mano e scegliere la mossa vincente.

Oggi, per comprendere quello che molti chiamano il nostro destino informazionale dobbiamo tenere presente la distinzione tra tecnologie che migliorano e tecnologie che aumentano.

Impugnature, interruttori, manopole – che caratterizzano le tecnologie che migliorano (come ieri erano martelli, leve, pinze…) – sono interfacce volte a consentire l’applicazione dello strumento al corpo dell’utente in modo ergonomico.

Le tecnologie che migliorano richiamano – se si vuole – l’idea di cyborg.

Invece i dati e i pannelli di controllo delle tecnologie che aumentano sono interfacce tra ambienti diversi.

 

Poeticamente possiamo dire che le vecchie tecnologie formano ambienti funzionali al loro scopo, ambienti raccolti, com’è l’interno acquoso e insaponato di una lavatrice o l’interno bianco e freddo di un frigorifero.

Le ICT, invece, sono forze che modificano l’essenza del nostro mondo, creano o ri-costruiscono realtà che l’utente è in grado di abitare.

DICIAMO CHE NON SONO CHIUSE SU SE STESSE, MA SONO AVVOLGENTI, COSTRUISCONO INTORNO A NOI.  …

:::::::::::::::::::::::

… Ci sono quattro tipi di privacy parlando di digitale ognuna delle quali può essere formulata in termini di “libertà da”.

Prima di tutto c’è la privacy fisica.

Si tratta della libertà del soggetto di essere libero da interferenze o intrusioni tangibili.  Si ottiene limitando la capacità altrui di interagire fisicamente con il nostro soggetto o di invadergli il suo spazio personale.

C’è poi la privacy mentale.

Considera la libertà del soggetto che non può essere oggetto di intrusioni, interferenze, minacce o lusinghe psicologiche.  In altre parole nessuno dovrebbe essere manipolato.

La terza privacy è detta decisionale.

Il soggetto deve essere protetto da interferenze o intrusioni procedurali.  Per farlo occorre escludere gl’altri dalla capacità di intromettersi nelle sue decisioni o in quelle delle persone della sua cerchia amicale.  Queste decisioni possono riguardare molti argomenti, le cure mediche, l’istruzione, la carriera, il lavoro, gli stili di vita, le credenze politiche o religiose, eccetera.

La quarta privacy è quella informazionale.

È la più delicata e difficile da gestire.  Si tratta della libertà del soggetto di non subire interferenze o intrusioni informazionali.  Come poterlo fare?

Stabilendo il novero dei fatti che lo riguardano e che devono restare sconosciuti o inconoscibili.

Per adesso possiamo solo dire che le ICT hanno fatto della privacy uno dei temi più rilevanti della società o, meglio,delle sue forme di governo.  …

:::::::::::::::::::::::::

… La nuova storia, la storia nell’era digitale, dipende in modo considerevole dai big-data, ma ci sono due problemi da considerare.

Il primo riguarda la qualità della memoria digitale perché le tecnologie dell’informazione e della comunicazione digitale hanno una memoria che dimentica.

Cosa vuol dire?

Che queste tecnologie – costi a parte – divengono rapidamente obsolete e rendono tutto molto volatile.  Vecchi documenti digitali sono diventati inutilizzabili perché la loro tecnologia non è più disponibile.  Basti pensare al caso dei floppy.

In Internet, poi, ci sono milioni di pagine abbandonate, vale a dire di pagine create e poi mai più aggiornate o modificate.

Nel 1998 la vita media di un documento, prima dell’abbandono, era di 75 giorni, nel 2008 si è ridotto a 45 giorni, oggi – 2018 – si parla di 37 giorni.

 

Molti studiosi hanno osservato che la nostra memoria digitale appare volatile come la nostra memoria orale anche se l’impressione che la memoria digitale ci trasmette è diversa.

Diciamo, da un punto di vista ideologico che, in questa alba del digitale, le ICT non conservano il passato per metterlo a disposizione del futuro dal momento che le strategie digitali tendono a farci vivere in un eterno presente.

Conservare la memoria, del resto, non è facile, occorre saper cogliere le differenze significative e saper stabilire le sedimentazioni in una serie ordinata di cambiamenti.  …

::::::::::::::::::::::

… Qual è il problema?  È che è lo stesso sistema dinamico, che consente di riscrivere migliaia di volte lo stesso documento, quello che rende altamente improbabile la conservazione delle versioni precedenti per un esame futuro.

“Salva questo documento” significa “sostituisci le versioni precedenti”, per cui ogni documento digitale di qualsiasi genere è destinato a questo destino tecnico-storico. A livello dei singoli utenti, e per certi tipi di documenti, esiste la possibilità di applicare procedure per conservare la storia delle revisioni di un documento (si vedano ad esempio i sistemi SCM – di Source Code Management – di cui il più diffuso è Git), ma il problema metodologico resta comunque complesso.

Qual è il rischio?  È che le differenze finiscano per essere cancellate e le alternative amalgamate.  Il passato costantemente riscritto e la storia ridotta a un perenne qui-ora.

 

Come dicono gli scettici, quando la maggior parte della nostra conoscenza è nelle mani di tale memoria che dimentica, possiamo trovarci e senza volerlo imprigionati in un eterno presente.

 

Questo è il motivo per cui si sono formate molte organizzazioni volte a conservare la nostra eredità culturale digitale come la “National Digital Stewardship Alliance” o l’”International Internet Preservation Consortium”.

In breve, il lavoro di custode delle informazioni digitali è uno dei nuovi mestieri di questo secolo.

Un altro aspetto del problema è che la quasi totalità dei dati è stata creata in pochi anni e tutti questi dati stanno invecchiando.

Invecchiano insieme ai nostri attuali supporti digitali, hard disk e memorie di vario genere.

 

MTBF – Mean Time Before Failure ovvero “il tempo prima del fallimento” è un paradigma che indica l’aspettativa di vita stimata di un sistema.

Più elevato è il MTBF più a lungo dovrebbe durare un sistema.  Un MTBF di cinquantamila ore – vale a dire di cinque anni e mezzo – è la vita media di un hard disk.

Il problema di fondo è che, per come si è sviluppato il sistema digitale, le aspettative di vita dei supporti dei nostri dati sono, al momento, sincronizzate.

Praticamente, i Big-data invecchieranno e diventeranno dati morti pressappoco nello stesso momento.  È chiaro che molti saranno salvati e trasferiti su altri supporti, ma chi stabilirà quelli che dovranno vivere e quelli che dovranno sparire? …

::::::::::::::

… Per capire meglio questo problema c’è un’analogia, è quella che ha riguardato il passaggio dai film in bianco e nero e muti, ai film a colori.  Fu fatto tutto senza un criterio e oggi noi sappiamo che più della meta delle pellicole girate tra i primi anni del Novecento e gli anni Cinquanta sono andate distrutte.

Nel 2007 il mondo ha prodotto più dati di quanti ne possa immagazzinare e ciò a dispetto del fatto che la densità di immagazzinamento degli hard disk stia crescendo rapidamente.

Per fare un esempio, si prevede che alla fine del prossimo anno (2020) un hard disk di 14 terabyte misurerà circa tre centimetri di diametro e non costerà più di una cinquantina di dollari.

 

È importante capire questo.  Nella cultura analogica il problema è cosa salvare.

Nella cultura digitale il problema è cosa cancellare.  …

:::::::::::::::

…Dobbiamo comprenderne il senso e le conseguenze.

Nel digitale il nuovo spinge via il vecchio.  Il primo che entra è il primo che esce.

Le pagine web aggiornate cancellano quelle vecchie, le nuove foto rendono obsolete le vecchie, i nuovi messaggi si sovrappongono ai precedenti, le e-mail recenti sono conservate a spese di quelle dell’anno prima.  …

.fine.