PAGES

IED 2014/15 – Sociologia della comunicazione visuale. – Parte due/tre

IED 2014/15 – Sociologia della comunicazione visuale.

***

 

PARTE

DUE/TRE

(Dispense a circolazione interna, non redazionate.)

Lo sviluppo dei sistemi di comunicazione e di informazione ha conosciuto, soprattutto a partire dagli ultimi due decenni del Novecento, una grande accelerazione, destinata ad avere, in questo secolo, importanti ripercussioni sulla vita economica e politica, oltre che sul costume, sulla cultura, sugli stili di vita.

Molti ritengono che questo sviluppo stia trasformando in profondità le stesse basi biosociali della conoscenza e del pensiero umano.

A questo proposito va ricordato che tra le caratteristiche specifiche dei nuovi-media c’è quella di essere fortemente auto-promozionali, vale dire, capaci di promuovere se stessi, generando miti che alimentano l’immaginario collettivo, suscitando attese spesso immaginarie. 

Oggi, è molto diffusa l’opinione che le conseguenze dello sviluppo dei sistemi di comunicazione siano ambivalenti.

Alcuni ritengono che l’aumento delle informazioni e l’accresciuta velocità nella circolazione dei messaggi, tanto a livello micro o su scala locale, quanto a livello macro, vale a dire su scala planetaria, non significano in modo automatico un miglioramento o un peggioramento nella qualità della vita individuale o della società.

Al contrario, altri ritengono che i sistemi di comunicazione e di informazione abbiano portato a un inquinamento culturale e mentale che sta provocando un degrado dell’ambiente simbolico umano che corre parallelo a quello causato, nell’ambiente fisico e materiale, dal modo di produrre e dall’organizzazione economica della società.

 

In breve, lo sviluppo dei newmedia genera ancora nell’opinione pubblica grandi paure e nuove illusioni.

 

In questo contesto i new-media possono essere definiti come apparati o artefatti sociali nei quali sono incorporate tecnologie per la comunicazione a distanza. 

Possiamo dire che la loro funzione principale, in linea di principio, è quella di connettere e/o di comunicare con il maggior numero possibile di persone, riducendo al minimo i tempi di diffusione dei messaggi.

Nel corso di questo ultimo mezzo secolo essi hanno consentito il moltiplicarsi dei contatti fra culture lontane, accrescendo gli scambi a livello planetario, e quindi sono stati un indubbio fattore di progresso, ciò però non esclude che ci siano molti fattori ambientali che possono ostacolare o distorcere la loro funzione.
Il primo di essi è costituito dal capitolo delle diseguaglianze sociali. 

La mancanza di istruzione e le condizioni di vita precarie o al limite della sopravvivenza in molti paesi – spesso definiti del terzo o del quarto mondo – escludono ampi settori della popolazione dalla fruizione dei media.

Per di più, molti mass-mediologi sostengono che lo sviluppo dei sistemi mediali e l’affermarsi di quella che viene chiamata la società dell’informazione non contribuisce a ridurre il gap esistente tra paesi ricchi e paesi poveri, ma porta a un suo aggravamento, generando nuove e più insidiose forme di diseguaglianza sociale e di ritardo culturale.

Un altro possibile ostacolo alla funzione dei new-media è poi costituito dal fatto che generalmente in tutti i paesi, compresi quelli definiti democratici, essi subiscono, in una forma o in un’altra, condizionamenti esterni da parte di ambienti economici e finanziari, e spesso sono sottoposti a qualche forma di controllo politico.

Inoltre, soprattutto i new-media, che possiamo definire come apparati sociali, sono organizzati in base a routine formalizzate e dunque sono soggetti a quel fenomeno che in sociologia viene chiamato goal displacement, cioè, a una distorsione degli scopi primari per cui si sono o sono stati costituiti.

Le ragioni classiche di questa distorsione possono essere le più diverse, economiche, strategiche, tattiche, politiche.

Tra queste una delle forme più subdole di distorsione, perché inavvertita spesso anche da chi ne è attore, è la cosiddetta autoreferenzialità

Sempre più spesso coloro che hanno a che fare coi newmedia – giornalisti, dirigenti, professionisti dei vari campi della comunicazione – invece di rivolgersi al pubblico finiscono per dialogare soprattutto tra di loro o con quei pochi che hanno un accesso privilegiato alle fonti dei giornali e delle televisioni, come i leader politici, i grandi manager, gli intellettuali di più o meno famosi, insieme ad altre categorie di personalità ritenute, spesso a torto, influenti, dai campioni sportivi ai divi dello spettacolo.

Questa autoreferenzialità dei newmedia condiziona l’importanza attribuita agli eventi e la stessa priorità dei temi etici, economici e sociali nella costruzione dell’agenda politica, portando a uno scollamento tra le élite politiche e l’opinione pubblica.

 

Tra gli effetti strutturali inattesi prodotti dall’espansione dei sistemi di comunicazione vi è poi anche quello per cui quanto più cresce la quantità di informazioni diffuse dai new-media, tanto più diminuisce l’attenzione del pubblico.

In altre parole, nella nostra società, paradossalmente, più i new-media comunicano e meno riescono a farsi sentire.

Si tratta di un fenomeno che può essere spiegato in base al principio dell’utilità marginale che è alla base di molte analisi economiche classiche.

Nella fase storica di sviluppo dei media caratterizzata da pochi canali di comunicazione l’offerta informativa rimaneva relativamente bassa mentre l’attenzione del pubblico e la domanda di comunicazione tendevano costantemente a crescere.

 

Oggi, invece, il continuo flusso di notizie e d’informazioni di cui siamo fatto oggetto fa sì che il pubblico fruisca o approfitti sempre più distrattamente dei messaggi che gli vengono rivolti.

 

Così, il valore aggiunto dei media, come mostra il funzionamento dei mercati pubblicitari, è relativo alla loro capacità di attirare l’attenzione.

 

Da un paio di decenni a questa parte, come oramai è accertato, il pubblico è di fatto in fuga dall’ascolto dei programmi televisivi e dalla lettura dei quotidiani.

Anche se il calo non è drammatico è tuttavia progressivo, e si manifesta in tutti i sistemi mediali giunti a una certa soglia di sviluppo.

Di più, esso sembra irreversibile fuori dagli stati d’eccezione.   

Se non si condivide l’interpretazione semplicistica secondo la quale il fenomeno sarebbe dovuto a una regressione culturale che prima o poi farà il suo tempo e a un disinteresse di massa verso l’informazione, questa contrazione del pubblico va intesa come l’indizio di un mutamento sistemico.

Quale?

Il declino inarrestabile delle comunicazioni di massa tradizionali e l’avvento di modalità nuove di comunicazione mediale.

****

Partiamo da una considerazione.  A partire dal 1980 il sistema dei media è andato incontro a un cambiamento epocale.

Per costatarlo basta ricordare che sino ad allora, in quasi tutti i paesi, vi erano soltanto pochi canali televisivi, spesso in forma di monopolio di Stato e in bianco e nero.

L’introduzione della televisione a colori, avvenuta in quel periodo, apparve da principio solo un miglioramento tecnico, ma in realtà portò a una diversa fruibilità del mezzo e a un cambiamento della forma culturale stessa della televisione, spingendo i produttori a creare nuovi formati e nuovi linguaggi, mentre orientavano il pubblico verso modalità diverse di ricezione e di consumo.

Più o meno nello stesso periodo in cui fu introdotto il colore, fu inaugurata la diffusione di massa della videoregistrazione e l’offerta sul mercato dei primi compact disc.

Ciò portò, tra l’altro, al formarsi di un nuovo settore di consumo mediale, quello del home video.

A rendere ancora più complessa la trasformazione dei mezzi audiovisivi, comparvero soprattutto negli Stati Uniti nuove tecnologie di distribuzione delle immagini e dei suoni, come la televisione via cavo e via satellite e vennero offerti, anche in Europa, i primi servizi interattivi, come il minitel, in Francia, e il teletext, che ebbe una larga diffusione in molti

paesi.

L’effetto principale a livello di sistema di tutte queste innovazioni fu quello di portare a una convergenza e a un uso combinato delle diverse tipologie di produzione audiovisiva, diminuendo fortemente i tempi di circolazione dei prodotti comunicativi e rendendo minimo l’intervallo che separa la produzione dal consumo. 

Tra le innovazioni tecnologiche introdotte in quegli anni va ricordata anche quella del telecomando, che permettendo le pratiche di zapping, lo zigzagare da canale a canale, contribuì a rendere l’audience sempre più mobile, sfuggente e imprevedibile.
Tutto ciò spinse inevitabilmente verso una trasformazione degli assetti formali dei media.

Per esempio, negli Stati Uniti nacque la CNN, una televisione che trasmetteva soltanto informazioni, ventiquattro ore su ventiquattro.

Oltre a rompere il preesistente assetto oligopolistico dominato da alcune grandi compagnie televisive, la CNN introdusse un modello nuovo, quello della televisione tematica a flusso continuo che diffonde i programmi via satellite o via cavo e si finanzia tramite abbonamento. 

In Europa si ebbe la fine del monopolio statale dell’audiovisivo e l’affermarsi di un modello misto, di coesistenza tra radiotelevisione pubblica e radiotelevisione commerciale.

 

La pubblicità, che sino ad allora aveva avuto un’incidenza relativamente ristretta, s’impose come una componente centrale del palinsesto televisivo, investendo il vissuto quotidiano degli spettatori con i suoi stilemi e le sue metafore che contribuirono a alimentare l’immaginario collettivo e a stimolare la formazione di nuovi modelli culturali.

Considerata, soprattutto dal mondo della cultura, negli anni cinquanta e sessanta come una forma di manipolazione e di persuasione occulta, la pubblicità divenne agli occhi di alcuni interpreti, come una tra le forme più originali di espressione della sensibilità e della cultura postmoderna. 

In sostanza, il cambiamento sistemico sviluppatosi in quel periodo portò a un modo diverso di considerare il mezzo televisivo e a mettere in questione il concetto stesso di comunicazione di massa, così com’era stato tradizionalmente inteso in precedenza.

L’espressione comunicazione di massa viene usata di solito per indicare in modo generico la comunicazione a un pubblico di grandi dimensioni.

Non va però dimenticato che, in senso proprio, la comunicazione di massa è quella forma culturale che ha caratterizzato la società industriale di fine Ottocento e dei primi decenni del Novecento, quando i media di fatto non esistevano o erano fruibili solo da una élite, e la circolazione sociale dei messaggi a larga diffusione era assicurata, più che dai media, dalle numerose occasioni in cui una moltitudine di persone si trovava fisicamente in contatto nei luoghi di lavoro, nelle caserme o nelle manifestazioni di piazza, culturali o politiche, spontanee o organizzate.

 

In breve, mentre la folla è un aggregato omogeneo e compatto in cui le differenze individuali si annullano, l’audience è un insieme internamente differenziato di persone disseminate sul territorio.

Spetta a Marshall McLuhan il merito di aver intuito per primo le nuove forme sociali della comunicazione elettronica.

Al suo nascere la televisione era stata considerata nient’altro che un perfezionamento della radiofonia, una scatola dei suoni a cui veniva ad aggiungersi l’immagine.

McLuhan dimostrò che in realtà la televisione è un mezzo del tutto diverso, che incorpora una tecnologia nuova e comunica in base a una logica mediale sua propria.

Il modo che aveva di esprimersi, aforistico e spregiudicato costellato da enunciazioni paradossali, hanno fatto sì che questo autore venisse tanto amato e sostenuto da una schiera di seguaci entusiasti, quanto avversato aspramente e considerato alla stregua di un affabulatore da molti rappresentanti del mondo accademico.

Ciò portò a non poche incomprensioni.

Gli studiosi di comunicazione ricordano, a questo proposito, la spregiudicatezza con cui egli attaccò Wilbur Schramm, considerato allora come il maggior esponente della communication research.

Un filone di ricerca empirica sviluppatosi sin dagli anni quaranta negli Stati Uniti, che aveva accumulato importanti conoscenze sui meccanismi della comunicazione di massa.

Ragionando a distanza di tempo su questa controversia è tuttavia possibile cogliere tra queste due posizioni così diverse per metodo di analisi e stile conoscitivo, un elemento di convergenza.

 

McLuhan sosteneva che la televisione, essendo un mezzo freddo, vale a dire povero di informazioni, in quanto comunica essenzialmente attraverso immagini, richiede per funzionare la collaborazione dello spettatore, che deve poter attribuire un significato a ciò che vede sullo schermo. 

Da questa osservazione McLuhan, in contrasto con la tradizione di studi sulla comunicazione di massa, ne deduceva che la televisione, malgrado l’apparenza, è fondamentalmente un mezzo di comunicazione interattivo.
Dal canto suo, Schramm sosteneva che il pubblico non è passivo, come afferma la cosiddetta bullet theory, o teoria ipodermica, di ispirazione behaviorista, ma si mostra attivo e capace di reagire in modi molto differenziati, a volte anche inaspettati, a uno stesso messaggio.

Questo elemento di convergenza è stato in seguito ripreso da un nuovo filone di ricerca, quello sulla cosiddetta neo-televisione

In sintesi, questo nuovo filone di ricerca pone come centrale il problema della produzione di senso, affermando che il senso si genera solo grazie a un patto più o meno tacito tra media e audience. 

L’introduzione del telecomando, da parte sua, avrebbe poi potenziato le capacità reattive anche delle specie più teledipendenti di spettatori, dotandole di una vera e propria protesi-arma, che avrebbe generato una sorta di mutazione antropologica, mutazione che imporrebbe alle emittenti di blandire con ogni mezzo, anche eticamente scorretto, una audience sempre più sfuggente allo scopo di trattenerla sul suo palinsesto.

Negli anni novanta questo mutamento di prospettiva trova uno sviluppo operativo con il moltiplicarsi degli audience studies, che adottano sempre più spesso metodi di indagine micro-sociologica ed etnografica.
____________________________________________________________________________

La teoria ipodermica (Bullet Theory), o anche teoria dell’ago ipodermico  (dall’inglese Hypodermic Needle Theory) è una teoria che considera i mass media come dei potenti strumenti persuasivi che agiscono direttamente su di una massa  i  genere passiva e inerte.

La teoria ipodermica è uno dei primi tentativi di comprendere il funzionamento della comunicazione interpersonale in maniera sistematica.

Venne sviluppata negli anni Quaranta sulla base delle ricerche della psicologia comportamentale, e in base a questa teoria considera la comunicazione come un processo diretto di stimolo e risposta

Come si vede dalla traduzione letterale, il termine bullet sta a significare la parola “proiettile” ovvero il messaggio mediale è considerato come un proiettile che colpisce direttamente un soggetto che ha poche possibilità di opporsi.

In altri termini, il messaggio “sparato” dal medium viene “iniettato” direttamente nella pelle del ricevente, il quale sostanzialmente ha un ruolo passivo.

La Bullet Theory ha ancora un valore schematico che illustra un particolare aspetto dei media.

Per esempio il concetto di target (letteralmente,  bersaglio), usato soprattutto in pubblicità per indicare i destinatari di un annuncio, deriva da questa teoria.

La teoria ipodermica si sviluppa negli Stati Uniti nel periodo tra le due guerre mondiali (1920-1930), fu elaborata da Harold Lasswell capostipite della communication research (corrente di studio della mass communication) e rappresenta, più che una teoria argomentata, un clima che si respirava in quegli anni circa gli effetti dei media.

In quel momento l’Europa era vittima dei grandi assolutismi politici a partire dai fascismi e le masse erano assolutamente inconsapevoli del reale potere dei mezzi di comunicazione di massa.

Prendendo il nome dall’immagine dell’ago ipodermico utilizzato per le iniziazioni, questa teoria afferma che i messaggi colpiscono gli individui, in modo diretto e immediato, modificandone opinioni e comportamenti. 

Come si può intuire la teoria dell’ago ipodermico o teoria del proiettile postula un forte effetto  dei media su un’audience passiva e indifesa, per cui si parla di manipolazione e propaganda della comunicazione.

Oggi sta ad indicare il fenomeno con cui gli USA e gli altri paesi del mondo occidentale usano gli attuali mezzi di comunicazione (come la televisione interattiva o internet) per inviare i loro messaggi di propaganda, tramite comunicazioni subliminali e pubblicità indiretta.

La teoria ipodermica postula una relazione diretta tra stimolo (esposizione al messaggio) e risposta (comportamento).

In breve, sostiene che se una persona è raggiunta da un messaggio di propaganda, quest’ultima può essere facilmente manipolata e indotta ad agire secondo il messaggio ricevuto.

La teoria ipodermica ha a suo fondamento e giustificazione l’esistenza della “società di massa” che deriva dalla trasformazione della società preindustriale in società industrializzata.

 

Questa teoria classifica gli individui della società di massa in:

– indifferenziati

– isolati e atomizzati

– anonimi e poco colti

– senza organizzazione e leadership

– facilmente suggestionabili;

contraddistinti da comportamenti collettivi uniformi.

Di conseguenza essi costituiscono il bersaglio ideale per i messaggi che mirano ad ottenere dall’opinione pubblica un dato comportamento.

 

Rafforzano in qualche modo le conclusioni della teoria ipodermica le tesi della teoria dell’azione, elaborata nell’ambito della psicologia behaviorista, che studia il comportamento umano attraverso l’esperimento e l’osservazione.

Secondo la teoria dell’azione la società di massa tende a rispondere in modo uniforme e automatico allo stimolo ricevuto dai media e questo meccanismo di risposta è descrivibile con un semplice modello comportamentale di questo tipo:

stimolo del messaggio  risposta dell’audience

Queste teorie accreditano l’idea che ci siano reazioni meccaniche e condizionate ai messaggi.

________________________________________________________________________________

Il behaviorismo nacque negli Stati Uniti in contrapposizione alla riflessologia sovietica e in particolare alla psicologia pavloviana. 

In breve, la riflessologia è il nome attribuito ad una scuola di psicologia nata in Russia, con una strettissima relazione con la fisiologia.  Essenzialmente la riflessologia afferma che i processi psichici sono riducibili a dei riflessi, cioè a processi puramente fisiologici ed elementari.

La riflessologia nacque e si sviluppò in Russia dal lavoro di Sečenov, di Bechterev e soprattutto di Pavlov e della sua scuola.  La sua prima formulazione fu dovuta a Ivan M. Sečenov (1829-1905), costui suppose che si potessero spiegare i processi mentali più complessi studiando l’attività dei centri nervosi superiori localizzati nel cervello. 

Sečenov distinse un “riflesso spinale” per i meccanismi semplici e un “riflesso cerebrale” per quelli complessi.  In questo contesto la psicologia ha il ruolo di studiare l’analisi dei contenuti dell’attività psichica. 

I contenuti vengono acquisiti durante lo sviluppo ontogenetico e quindi sono legati all’ambiente in cui l’individuo cresce. Ma il meccanismo di interazione con l’ambiente è basato sui riflessi, oggetto di ricerca della fisiologia. 

________________________________________________________________________________

Di opinione diversa erano i teorici della cosiddetta scuola di Chicago, che rifiutavano la rappresentazione di una massa indifferenziata e attribuivano ai mass media della prima metà del Novecento una grande potenzialità per lo sviluppo della democrazia (ad esempio per dare voce alle minoranze degli immigrati), sia pure sempre nell’ambito di un’audience tendenzialmente passiva.

Gli sviluppi successivi dei media studies sono stati finanziati e dunque orientati dalla ricerca amministrativa americana, commissionata dalla pubblica amministrazione, da imprese private e dai partiti politici, allo scopo di risolvere i problemi pratici (di contenuto e di effetto sui pubblici) delle campagne pubblicitarie ed elettorali.

Tali sviluppi hanno preso in considerazione due variabili precedentemente trascurate:

– le caratteristiche psicologiche dell’individuo

– i fattori sociali di relazione e di differenza (età, sesso, classe sociale, etnia, eccetera)

Se ne dedusse che non sempre la risposta allo stimolo è passiva, immediata e meccanicistica, ma è mediata da una certa resistenza dei destinatari del messaggio e si configura quindi in questo modo:

stimolo  resistenza  risposta

_____________________________________________________________________________

Ritorniamo in argomento.

A mezzo secolo dalla pubblicazione, avvenuta nel 1964, dell’opera più famosa e completa di McLuhan, Understanding media, molte delle tesi sostenute da questo autore appaiono sorprendentemente attuali soprattutto se riferite alle reti dei computer e alle nuove prospettive della comunicazione interattiva.

L’idea più originale e teoricamente produttiva di McLuhan è stata quella dei media come protesi, ossia estensione del sensorio umano nell’ambiente e come mezzo di interazione con esso. 

Una concezione che ha le sue radici nella tradizione di pensiero americana rappresentata dal pragmatismo e che McLuhan ha rielaborato in maniera originale.

McLuhan sosteneva che la comunicazione elettronica rende “immateriale” il nostro corpo, dilatandolo nell’etere e che questo fenomeno genera una “guerra dei media”, come mostravano, già alla fine degli anni settanta, le nuove forme di terrorismo che si servivano della televisione per diffondere i loro messaggi.

Un’altra idea di McLuhan che è stata largamente ripresa è quella secondo cui la comunicazione elettronica, data la sua velocità e la possibilità di far circolare le informazioni quasi in tempo reale, rende il mondo un “villaggio globale“.
Tra gli interpreti più originali di McLuhan va ricordato innanzitutto Derrick de Kerckhove, che di McLuhan è stato assistente e collaboratore.

De Kerckhove considera i media elettronici come psicotecnologie che stanno modificando il nostro modo di percepire l’ambiente e di pensare le relazioni fra interno ed esterno.

L’antico uomo figlio del Rinascimento è oggi sostituito da un uomo elettrico, che non pensa più come un singolo soggetto, una singola mente, ma è diventato lo snodo di un sensorio elettronico che trascende l’individuo.

Questo nuovo tipo umano possiamo definirlo un uomo transinterattivo.

Sviluppando il tema del villaggio globale in senso idealistico, de Kerckhove ha preannunciato l’avvento di una intelligenza connettiva, basata su un nuovo brainframe, o schema-mente, che renderà obsoleti i limiti sia dell’individualismo che del collettivismo.

Questo tema dell’intelligenza connettevi superindividuale generata dalle reti mediali interattive è stato affrontato anche dal francese Pierre Lévy, che ha cercato di razionalizzarlo e di presentarlo come un progetto ideale di legame sociale senza ostacoli.

Lévy insegna Intelligenza collettiva in Canada.
Quanto all’idea che il computer sia una protesi della nostra mente e che sia possibile, in un futuro più o meno prossimo, collegarlo a essa innestando direttamente dei biochip elettronici nel cervello, in modo da potenziare le nostre facoltà sensoriali e intellettive, è suggestiva e è stata spesso sfruttata e resa popolare dalla letteratura di fantascienza.

Tale filone letterario è stato iniziato da uno scrittore considerato un caso letterario, come Philip K. Dick, il primo che ha affrontato il tema dei simulacri, dei cloni e dei cyborg, e ha trovato uno sbocco nella fantascienza cyberpunk.

Nell’immaginario letterario il protagonista delle narrazioni cyberpunk è un hacker, cioè un nuovo tipo di eroe negativo e, al contempo, una reincarnazione dello spirito underground, il quale si ribella a un mondo inquadrato e computerizzato e, non solo è capace di penetrare nelle banche dati più custodite, ma fa anche saltare le matrici di realtà imposte dalle grandi corporation, liberando gli uomini dalla schiavitù elettronica.

Accenti ottimistici dominano invece nel pensiero dell’americano Nicholas Negroponte, direttore del Media Lab presso il Massachusetts Institute of Technology, una tra le più note figure di guru dei newmedia che predice l’avvento della società digitale.

Negroponte, nel web, è descritto più come un idolo del cinema che come stereotipo del tecnologo d’avanguardia.  Non per caso ama circondarsi di mistero e parlare in modo oracolare.

Attorno alle ricerche e agli esperimenti da lui condotti sono poi nate molte leggende, sapientemente alimentate.

Vediamone alcune.  Giornali elettronici fatti su misura e personalizzati, computer che avranno la dimensione di un bottone, pur essendo infinitamente più potenti di quelli attuali, addirittura abiti la cui fibra sarà intessuta di micro-chip, che non avranno più bisogno di essere lavati e permetteranno di connettersi in continuazione con persone e centri sparsi in tutto il mondo, telefoni che rispondono da soli e utensili intelligenti d’ogni tipo.

 

Un caso emblematico di proiezioni future che hanno suscitato brillanti discussioni, ma che oggi sono spesso ripensate criticamente, è rappresentato da Joshua Meyrowitz, un sociologo americano esperto di comunicazioni, secondo cui i newmedia, in quanto consentono di avere scambi e stringere relazioni personali senza necessità di essere fisicamente presenti, porteranno alla perdita del senso del luogo, cioè, a uno spaesamento psicologico con gravi ricadute sulla socialità.

Di fatto questo punto di vista enfatizza una tendenza, ma non valuta con attenzione la circostanza che per reazione l’era digitale fa nascere anche nuove forme di selezione e di esclusività basate sul luogo e su nuovi bisogni di prossimità sociale.

Diciamo che i newmedia digitali cambiano la nostra concezione dello spazio e offrono la possibilità di creare nuovi luoghi, come le comunità virtuali, che pur non avendo più come base una contiguità territoriale generano ugualmente delle relazioni di prossimità.

Va però costatato che a venti anni di distanza dall’ormai classico lavoro di Howard Rheingold (sulle Realtà Virtuali del 1993), un popolare sociologo americano esperto nell’impatto dei new-media sulla cultura letteraria, le comunità virtuali assimilabili al tipo sociologico del buon vicinato, o al modello della fattoria e del ruralismo homesteading sono rimaste una minoranza e rappresentano più un fenomeno da iscriversi nel filone del neocomunitarismo californiano e delle élite controculturali che un ampio movimento destinato a cambiare la forma delle relazioni sociali.

 

Possiamo tradurre homestead con fattoria e l’homesteading come uno stile di vita rurale auto-sufficiente caratterizzato da un’agricoltura di sussistenza spesso accompagnata da una piccola produzione di prodotti di artigianato o di uso domestico. 

Il moderno homesteading si caratterizza per la ricerca dell’auto-sufficienza energetica, forse un’altra utopia, ma sicuramente un’ipotesi affascinante.

 

****

I limiti della maggior parte delle previsioni sull’evoluzione dei sistemi mediali sono quelli di non saper valutare la complessità e le interazioni tra le tecnologie di comunicazione, il funzionamento dei mercati, la forma organizzativa degli apparati e gli stili di fruizione e consumo da parte del pubblico.

Queste difficoltà derivano dal fatto che è difficile riuscire ad avere dei punti di riferimento sicuri in un settore in continua evoluzione come questo dei new-media.

Pertanto, se negli anni novanta la letteratura sulla comunicazione è stata dominata dalle profezie e dalle mitologie nate e diffuse su internet, la tendenza che sembra affermarsi nel primo decennio del Ventunesimo secolo è quella del ripensamento critico per un bilancio realistico dei possibili sviluppi in corso.
Per esempio, non si è ancora del tutto realizzata la digitalizzazione completa del flusso televisivo che, grazie alla traduzione in un codice binario delle immagini e dei suoni, permetterebbe l’aumento delle frequenze e dei canali disponibili dalle poche decine attuali a più di un migliaio.

Una circostanza che tra l’altro rallenta l’evoluzione della televisione tematica e interattiva via cavo o via satellite.

Si è costatato che il passaggio dal modello di impresa televisiva finanziata dalla pubblicità, con visione gratuita dei programmi, alla televisione a pagamento nelle sue varie forme, compresa quella on demand, è più complesso di quanto non si pensi.

Il prezzo dell’abbonamento o dei programmi pagati a consumo (la TV on demand) è troppo alto per le fasce popolari, di contro il fenomeno della pirateria e delle smart cards contraffatte è così diffuso che per contrastarlo sarebbero necessari grossi investimenti nella sicurezza informatica, tali da rendere queste imprese poco redditizie.

A ciò va aggiunto che i mezzi tradizionali non sono affatto scomparsi, come mostra l’esempio della radio, che ha trovato una propria nicchia e nuovi modi di fruizione da parte di settori considerevoli di pubblico.

 

Web-logs o Blog è un termine coniato nel 1997 da Jorn Borger con riferimento ad una pagina Internet in cui l’autore può liberamente pubblicare in tempo reale notizie, storie, riflessioni, idee, opinioni personali e informazioni, che vengono poi visualizzate in ordine cronologico inverso. 

Nel gergo di Internet un blog è definito come un diario in rete; questa definizione, tuttavia, non spiega realmente cos’è un blog. 

Un blog è come un libro bianco: può essere un diario, un blocco note, un calendario, una collezione di storie e ogni altra cosa l’autore voglia; il contenuto può essere qualunque, e quindi non è il contenuto ciò che definisce un blog.  Ciò che realmente identifica un blog è il tono discorsivo e colloquiale con cui viene scritto, abilitato dalla tecnologia e implementato e diffuso dai blogger. Un diario è qualcosa di personale, mentre un blog nasce per essere condiviso.

 

Jorn Borger è uno dei primi blogger americani, esperto in intelligenza artificiale e studioso di James Joyce.  Il suo successo, qualche anno fa, è entrato in crisi per alcune avventate affermazioni antisemitiche.   

 

Negli Stati Uniti, in base a dati che però risalgono a qualche anno fa del Pew Research Center, la percentuale di coloro che apprendono le notizie dalla rete è ormai superiore e in modo significativo a quella di coloro che le apprendono dalla televisione.

Gli spettatori televisivi che guardano i notiziari sono fortemente diminuiti dal 1993 a oggi passando da valori vicini al sessanta per cento a poco più di un terzo.

Si può dire che oramai, circa l’ottanta per cento dei giovani attinge le notizie del giorno dalla rete, trascurando la televisione.
Infine, va segnalata la convergenza multimediale tra video e computer, anche se per ora il computer rimane soprattutto un manufatto usato di preferenza nel lavoro e nella vita attiva, mentre lo schermo televisivo continua a essere la scatola mediale che presiede al divertimento e al relax.

In ogni modo, anche se con ritmi di cambiamento più lenti del previsto, l’affermarsi di quella che molti definiscono la società dell’informazione, e che altri preferiscono invece definire società digitale o società in rete, sembra gradualmente proseguire.

Lo dimostra il crescente numero di possessori di personal computer, di tablet e smartphone, che secondo un dato stimato sarebbero oggi, 2014, più di due miliardi e cinquecento milioni nel mondo.

Gli utenti attivi di internet, cioè le persone che passano almeno un’ora alla settimana collegandosi alla rete, che erano 327,5 milioni nel 2000, secondo alcune stime sono oggi (2014) più di due miliardi e mezzo, più del venticinque per cento della popolazione mondiale.

 

Altri dati a oggi:

– Gli indirizzi e-mail al mondo sono oltre tre miliardi.

– Il numero medio di e-mail ricevute ed inviate da un utente medio aziendale è di circa 115, mentre è più del 70% la percentuale di spam sulle e-mail totali. 

La percentuale di mail contenenti potenziali virus è intorno allo 0.50 per cento.

– Il numero di siti online supera di molto i 600 milioni. 

 

Stiamo dunque passando da una fase in cui l’attività di connessione e di accesso alle reti erano praticate solo da ristrette élite tecnocratiche o contro-culturali, a una fase in cui entrano in scena fasce sempre più ampie di pubblico, che negli Stati Uniti comprendono già più del setta cinque per cento delle famiglie.

La rapidità di questa evoluzione, anche se ancora fortemente squilibrata, può essere meglio compresa se si considera che alla radio occorsero circa quarant’anni per raggiungere un pubblico di cinquanta milioni di ascoltatori, alla televisione tredici anni, mentre a internet sono bastati solo quattro anni.
Insieme al problema del divario digitale, un altro aspetto importante è quello dell’influenza dei newmedia e dell’impatto che essi possono avere sulla forma dei regime politico e in particolare sulla qualità della democrazia.

 

La difficoltà a accertare quale sia l’influenza dei media ha portato a distinguere tra gli effetti cognitivi della comunicazione e quelli persuasivi.

Questa nuova prospettiva di ricerca è stata aperta innanzitutto dagli studi sul cosiddetto effetto di agenda.

Il termine agenda indica l’insieme dei temi (in inglese issue e in francese enjeux) a cui si attribuisce priorità nei processi di policy making.

Secondo questa teoria, il più importante effetto dei media non è tanto quello di influenzare l’atteggiamento del pubblico pro o contro le alternative che un problema presenta, quanto piuttosto di rendere questo problema più visibile e quindi di metterlo all’ordine del giorno e farlo considerare rilevante sia dall’opinione pubblica che dai politici. 

Ciò viene chiamato agenda setting, o predeterminazione dell’agenda politica. 

Uno tra i contributi più originali alla teoria degli effetti cognitivi della comunicazione è l’ipotesi della spirale del silenzio, avanzata dalla studiosa tedesca Elisabeth NoelleNeumann, che è stata professoressa emerita di scienza della comunicazione all’università di Mainz (Magonza).

______________________________________________________________________________

La teoria detta della spirale del silenzio fu elaborata negli anni Settanta del secolo scorso da Elisabeth Noelle-Neumann fondatrice, nel 1947, dell’Istituto di demoscopia Allensbach (Institut für Demoskopie Allensbach) di Magonza.

Questa teoria si occupa dell’analisi del potere persuasivo dei mass media.

La tesi di fondo è che i mezzi di comunicazione di massa, in particolare la televisione, grazie al notevole potere di persuasione sui telespettatore e quindi, più in generale, sull’opinione pubblica, siano in grado enfatizzare opinioni e sentimenti prevalenti, mediante la riduzione al silenzio delle opzioni minoritarie e/o dissenzienti. 

Nello specifico la teoria afferma che una persona singola è disincentivata dall’esprimere apertamente un’opinione che percepisce essere contraria all’opinione della maggioranza, per paura di riprovazione e isolamento da parte della presunta maggioranza. 

Ciò fa sì che le persone che si trovano in queste situazioni siano spinte a chiudersi in un silenzio che, a sua volta, fa aumentare la percezione collettiva (non necessariamente corretta) di una diversa opinione della maggioranza, rinforzando di conseguenza, in un processo dinamico, il silenzio di chi si crede minoranza.

La teoria ebbe un notevole impatto nella scienza della comunicazione per lo sviluppo del dibattito sui poteri di persuasione dei mezzi di comunicazione, in contrasto con le scuole liberali che sostenevano che l’effetto dei massmedia sul pubblico non fosse rilevavate.

La tesi centrale della spirale del silenzio è la seguente:

Il costante, contemporaneo, ridondante e contorto afflusso di notizie da parte dei media può, col passare del tempo, causare un’incapacità nel pubblico nel selezionare e comprendere i processi di percezione e di influenza dei media; in questo modo verrebbe a formarsi la cosiddetta spirale del silenzio.

In questa situazione la persona singola ha il timore costante di essere una minoranza rispetto all’opinione pubblica generale.

Per non rimanere isolata, la persona anche se con un’idea diversa rispetto alla massa non la mostra e cerca di conformarsi con il resto dell’opinione generale.

Nel corso delle sue ricerche, Noelle-Neumann ha dimostrato che le persone posseggono una specie di senso statistico innato, grazie al quale riescono a capire quale è l’opinione della massa e in questo modo a conformarsi con quella dominante.

I mezzi di comunicazione di massa non fanno emergere da soli la spirale del silenzio (in quanto fenomeni simili sono stati riscontrati anche in società dove non esistono i massmedia) ma accentuano la paura dell’isolamento nell’uomo e quindi il processo di adattamento all’opinione generale.

Uno degli effetti conseguenti della spirale del silenzio è l’esercizio, da parte dei massmedia, di una pervasiva funzione conformativa, di omologazione e di conservazione dell’esistente, ostili al rinnovamento delle sensibilità, dei gusti, delle opinioni..

____________________________________________________________________________ 

Per riassumere secondo questa teoria gli individui si troverebbero da almeno mezzo secolo immersi in uno stato di isolamento, definito dall’autrice pluralistic ignorance, per cui cercherebbero innanzitutto di capire se il loro punto di vista sia condiviso da altri, prima di esprimersi pubblicamente.

Se trovano conferme alla loro opinione, la sostengono apertamente, mentre tendono a tacere in caso contrario. 

Si innesca così un processo a spirale, in cui di volta in volta gli uni si zittiscono e gli altri parlano più forte, finché non si raggiunge un punto di equilibrio e si viene a formare un clima d’opinione dominante. 

media soprattutto i new-media, in questo processo, hanno un ruolo centrale, perché forniscono rappresentazioni e narrazioni delle tendenze che si vanno affermando.

Ma è chiaro che tutto ciò dipende dal grado, maggiore o minore, di pluralismo dei mezzi di comunicazione.

 

In una democrazia pluralistica l’agenda politica si forma entro arene aperte che in qualche modo hanno la loro parodia nei talk-show, dove i leader e gli apparati politici competono fra loro e interagiscono con i media, cercando di stabilire a quali temi vada attribuita la priorità e di affermare una rappresentazione a loro favorevole del clima d’opinione. 

La qualità di una democrazia, come tutti sanno, oltre che dal pluralismo dei mezzi di comunicazione, dipende anche dal mantenimento della distinzione di ruoli tra coloro che informano e i politici.

 

Quando questa distinzione tende a scomparire, la capacità di tematizzazione del giornalismo viene meno, il grado di autoreferenzialità del sistema di governo aumenta portando a un distacco fra élite politica e cittadini. 

Infatti, l’influenza che i media hanno sulla politica varia a secondo del contesto sociale e politico dell’ambiente in cui operano.

Nei paesi dove sono al potere i regimi autoritari, o dove si sta sviluppando una transizione alla democrazia, il giornalismo e i media hanno sempre svolto una importante funzione democratica e possono contribuire positivamente al ristabilirsi delle libertà civili. 

Viceversa, nelle democrazie consolidate l’interazione fra media e politica tende a produrre effetti involutivi.  

Se nelle democrazie consociative, che si basano su dei sistemi elettorali proporzionali, si ha il fenomeno della autoreferenzialità, nelle democrazie maggioritarie, e in particolare nei regimi presidenzialisti, la politica-spettacolo dà luogo a forme di ‘campagna negativa’, basate sullo scandalismo e sull’attacco personale agli avversari, che diffondono cinismo e portano al rifiuto della politica da parte di larghi settori dell’opinione pubblica.

Tra gli elementi strutturali che caratterizzano l’evoluzione attuale delle democrazie mediatizzate, due in particolare vanno segnalati.

Il primo è costituito dall’uso sempre più frequente dei sondaggi d’opinione, non soltanto nell’imminenza delle campagne elettorali, ma in occasione di ogni evento o congiuntura di un qualche rilievo.

Questo crescente ricorso ai sondaggi assume la forma di una continua interrogazione del corpo elettorale e di una ininterrotta messa in discussione del consenso e degli equilibri di potere, che dà luogo al fenomeno della cosiddetta campagna permanente

Intrecciato a questo primo aspetto, vi è poi quello della formazione di apparati sempre più massicci di consulenti ed esperti di comunicazione e di campaigning, che vanno considerati come un tipo nuovo di attore politico, differenziato sia dagli apparati dei media che da quelli dei partiti o dei leader.

Emerge così la figura dello spin doctor, termine intraducibile in italiano, il cui compito è quello di fornire ai media e all’opinione pubblica la versione autentica o meglio, autenticata dei fatti, vale a dire l’interpretazione maggiormente favorevole di eventi e temi scottanti.

 

Su questi temi una linea di interpretazione critica che si potrebbe definire neo-tocquevilliana è stata sviluppata in Francia da Pierre Bourdieu, il quale, già in un saggio del 1973, aveva affermato provocatoriamente che l’opinione pubblica non esiste e che le indagini d’opinione, lungi dall’essere obiettive, sono un simulacro della volontà popolare, costruito con la scusa di dare la parola alla gente e utilizzato poi (questo simulacro) come in strumentum regni.

Un punto di vista non dissimile è stato sostenuto negli Stati Uniti da Benjamin Ginsberg, un filosofo della politica docente alla John Hopkins University nel Maryland, secondo cui quella attuale è un’età in cui dominano le opinioni delle masse manipolate.

Per Ginsberg, tra le masse e i leader viene a formarsi una specie di circolo vizioso: i politici, interessati a assecondare il pubblico, con i sondaggi ne catturano l’immagine per poi usarla come una loro risorsa di potere.

In particolare Bourdieu ha insistito su questo tema anche nei suoi ultimi scritti, accusando la televisione di cedere alla logica commerciale della misurazione dell’audience e di piegarsi alle esigenze demagogiche di quello che chiama il plebiscito commerciale.

C’è poi da osservare che con la diffusione del personal computer e lo sviluppo delle attività connettive e della navigazione in rete si creano nuovi e inediti scenari nell’interazione tra media, politica e opinione pubblica.

A questo proposito emergono due preoccupazioni in un certo senso opposte.

La prima è quella di un rafforzamento del controllo sociale.

Attraverso internet le centrali del potere possono invadere la nostra intimità e giungere a controllare ogni aspetto della nostra vita quotidiana, manipolandola.

Grandi satelliti spia già sorvegliano ogni nostro comportamento e denunciano ogni nostra trasgressione alle regole.

L’uso di carte elettroniche, poi, rivelerebbe in continuazione i nostri movimenti alle grandi compagnie che se ne servirebbero per nuove tecniche di marketing.

Inserite nelle banche dati delle centrali di intelligence queste informazioni personali consentirebbero una gigantesca schedatura della popolazione dell’intero pianeta.

Internet, secondo questo punto di vista, rappresenterebbe l’avvento del Grande Fratello.

 

La seconda preoccupazione è di coloro che temono che la rete porti a un indebolimento del controllo e possa avere conseguenze disgregative e anarchiche rispetto al tessuto dei rapporti sociali, diffondendo disordine.

Che nei meandri del web possano annidarsi terroristi, sette eversive, criminali pronti ad agire, gruppi che mettono a disposizione di chiunque tecnologie distruttive.

 

Entrambe queste tesi estreme contengono qualche verità e sono discutibili, in sostanza colgono aspetti problematici di una realtà in rapida trasformazione.

Come è stato osservato, se la società industriale ha dovuto affrontare il problema della costruzione di una sfera pubblica condivisa, la società dell’informazione deve risolvere quello della costruzione di una sfera privata protetta, vale a dire della tutela dell’individuo di fronte all’invadenza dei media e soprattutto dei new-media.

Un altro aspetto, non meno importante, del rapporto tra new-media e democrazia riguarda il modo in cui vengono prese le decisioni politiche.

Se in passato solo un ristretto numero di specialisti e di attori politici poteva concorrere a definire i provvedimenti da assumere, oggi i new-media e le reti connettive rendono possibili forme di consultazione molto più vaste e decisioni assai più ponderate.

In questo caso i pro e i contro di una scelta politica possono essere resi più trasparenti e messi alla portata di tutti tramite le reti.

In pratica un’adeguata combinazione di sondaggi mirati può rendere il processo decisionale autoriflessivo, cioè capace di correggersi e di imparare dall’ambiente. 

Ma come difendersi da coloro che agiscono nell’ombra degli apparati?

In ogni modo, raccogliendo molti spunti presenti nella teoria dell’agire comunicativo avanzata da Jürgen Habermas, questa concezione è stata chiamata democrazia deliberativa

____________________________________________________________________________

La Teoria dell’agire comunicativo è un saggio di Jürgen Habermas pubblicato nel 1981.

È riconosciuta alivello accademico come un opera importante nel panorama degli studi sull’agire sociale, sulle forme della comunicazione e sulla legittimazione della democrazia.

Habermas è un sociologo e filosofo tedesco che si è formato alla Scuola di Francoforte (scuola a cui appartengono anche Adorno, Horkheimer e Marcuse).

Habermas è l’autore della teoria dell’agire comunicativo.

Con questa teoria egli sviluppò un’analisi globale dell’azione sociale, nei suoi aspetti soggettivi, strutturali ed evolutivi.

Oltre a molti rimandi a diverse correnti filosofiche e psicologiche, i riferimenti sociologici maggiormente presenti nel pensiero di Habermas sono la teoria dell’azione di Max Weber, l’interazionismo simbolico di Margaret Mead, la sociologia fenomenologica di Allfred Schütz, il funzionalismo e l’etnometodologia di Harold Garfinkel e Aaron Cicourel, un sociologo americano fondatore della sociologia cognitiva.

____________________________________________________________________________

L’etnometodologia è una scuola di sociologia critica in dissenso con la tradizione ufficiale.

Il suo fondatore è stato Harold Garfinkel con i suoi Studi etnometodologici (1967)

Il nome di questa scuola rinvia all’insieme dei metodi di cui i membri di un gruppo etnico si servono per comprendere la loro stessa attività.

Per elaborare i principi su cui si basa la scuola etnometodologica, Garfinkel prese ispirazione dalla filosofia fenomenologica di Edmund Husserl, dalle ricerche di Alfred Schütz, da alcuni presupposti del funzionalismo di Talcott Parsons e dalle teorie dell’interazionismo simbolico.

L’etnometodologia si fonda principalmente su due concetti che hanno risvolti importanti sul modo di intendere l’agire sociale: l’indicalità e la riflessività.

Secondo il concetto dell’indicalità, nessuna affermazione può avere un significato indipendente dal suo contesto. 

Perché?

Perché il senso di ogni affermazione contiene qualcosa in più rispetto al significato letterale e dunque la sua comprensione avrà significati diverse in contesti diversi.

Il concetto di riflessività rimanda al principio che un’affermazione è riferibile solo a sé stessa e, dunque, non fa riferimento a nessuna realtà diversa da sé stessa, vale a dire non esiste una realtà oggettiva e dei modi privilegiati per descriverla, ma ogni osservazione costituisce la realtà stessa.

Secondo i presupposti dell’indicalità e della riflessività si ritiene che i membri di un gruppo etnico mentre agiscono costruiscono allo stesso tempo un senso a quello che fanno e in un certo qual modo lo spiegano.

In pratica è come dire che il senso del loro agire è l’azione stessa.

Secondo gli etnometodologi, in ogni gruppo etnico una gran parte del significato delle affermazioni della vita quotidiana viene data per scontata. 

In breve, l‘etnometodologia rappresenta una presa di posizione critica nei confronti della sociologia ufficiale, il suo presupposto riposa sul fatto che la spiegazione scientifica, così come ogni altra forma di spiegazione, è comprensibile solo in riferimento alla situazione specifica in cui è espressa.

Di contro, la sociologia ufficiale privilegia tra i suoi obiettivi quello di giungere a spiegare in modo oggettivo l’agire sociale prescindendo dal contesto.

In questo senso possiamo dire che fin dalla sua origine, un problema cruciale che la sociologia ha cercato di risolvere è quello dell’oggettività della conoscenza scientifica ed in particolare della conoscenza scientifica nell’ambito delle scienza sociali.

________________________________________________________________________

Per tornare a Habermas diciamo che questo autore considera l’agire nei termini di un’interazione che si costituisce in base a regole fondate sulla comunicazione linguistica.

Da qui il suo interesse nei confronti dei modelli dell’agire che strutturano la comunicazione linguistica come un insieme di dire e di fare, cioè di forme pragmatiche

_____________________________________________________________________________

La pragmatica è una disciplina della linguistica che si occupa dell’uso della lingua come azione reale e concreta sul mondo.  

Dunque, non si occupa della lingua come un sistema di segni, ma cerca di capire come e per quali scopi la lingua viene utilizzata e in che misura soddisfi esigenze e scopi comunicativi.  

 

In altri termini, la pragmatica si occupa di come il contesto (sociale, ambientale, psicologico) influisca sull’interpretazione dei significati.  

_____________________________________________________________________________

Habermas è nato nel 1929.  Ha studiato a Bonn e ha conseguito la libera docenza a Marburgo.

È stato assistente di Adorno a Francoforte (dal 1956 al 1961), ha insegnato ad Heidelberg (1961-1964) e a Francoforte (1964-1971).

Negli anni Settanta e Ottanta ha diretto l’Istituto Max Planck di Starnberg e l’Istituto Max Planck di Monaco.  In seguito ha nuovamente insegnato a Francoforte.

Fra i suoi scritti principali ricordia­mo: Storia e critica dell’opinione pubblica (1962).  Logica delle scienze sociali (1967).  Conoscenza e interesse (1968).  Teoria dell’agire comunicativo (1981).   Coscienza morale e agire comunicativo (1983, tradotto in italiano con il titolo Etica del discorso, 1985).  Il discorso filosofico della modernità (1985).  Il pensiero post-metafisico (1988).  Fatticità e validità (1992, tradotto in italiano con il titolo Fatti e norme, 1996).  L’inclusione dell’altro (1996).

 

Il filo conduttore del suo pensiero è l’idea di una ragione critica al servizio dell’emancipazione umana.

Egli ha inizialmente aderito al programma neo-marxista della Scuola di Francoforte di una teoria critica della società, interessandosi soprattutto al tema dell’opinione pubblica (Òffentlichkeit), o, se si preferisce della sfera pubblica.

Per opinione pubblica o sfera pubblica Habermas intende quella zona della vita sociale, affermatasi verso la fine del Settecento, in cui vengono di solito dibattute le questioni di interesse collettivo.

La sfera pubblica, poi, pur implicando una carica potenzialmente innovativa (vedi il caso dell’Illuminismo), ha finito per ridursi, nella società a capitalismo avanzato dei newmedia, in un luogo del consenso coatto.

Pur condividendo la diagnosi negativa della so­cietà amministrata formulata dalla teoria critica, Habermas crede in una valorizzazione dello Stato di diritto, concepito come un tipo di società in grado di risolvere in maniera consensuale i conflitti di interesse fra i suoi membri.

Negli anni Sessanta Habermas ha difeso le istanze della ragione critica contro lo scientismo della sociologia positivistica.  Pole­mizzando, insieme ad Adorno, contro Popper e Hans Albert, Habermas ha fatto valere l’ideale di una sociologia dialettica che, per non arrendersi ai fatti, si appella ad una razionalità critica di tipo hegelo-marxiano.

In Cono­scenza e interesse (1968) egli distingue tre tipi di conoscenza: quella delle scienze empirico-analitiche, volte alla ricerca di leggi.  Quella delle scienze storico-ermeneuti­che, volte alla comprensione del senso.  Quella delle scienze critico-riflessive, volte ad elaborare una teoria critica dell’uomo e della società.

Più in particolare, alla base delle scienze empirico-analitiche stanno interessi conoscitivi condizionati da interessi tecnici, cioè obbedienti alla logica dell’agire stru­mentale.

Alla base delle scienze storico-ermeneutiche stanno interessi pratici condizio­nati dall’ideale di una possibile intesa comunicativa fra i partner del dialogo interper­sonale.

Alla base delle scienze orientate criticamente, che concepiscono l’auto-riflessio­ne in vista dell’auto-liberazione, stanno interessi emancipativi diretti a costruire una società esente dal dominio.

In altri termini, dall’idea di un soggetto inteso come coscienza solitaria, cioè come entità autosufficiente che interagisce con l’ambiente, Habermas passa all’idea di un soggetto pubblico strutturato in termini linguistici, ossia al concetto della comunità lin­guistica come luogo in cui, e attraverso cui, la coscienza si costituisce.

Nella Teoria dell’agire comunicativo (1981) — che incarna la svoltaHabermas mette a punto una teoria pragmatica del linguaggio, vale a dire una teoria che, non limitan­dosi alla dimensione semantica (concernente i rapporti fra i segni e la realtà) o a quella sintattica (concernente i rapporti dei segni fra di loro), prende in considerazione il rapporto fra il linguaggio e il soggetto che ne fa uso

 

Per ricapitolare. Le straordinarie potenzialità offerte dalle tecnologie della comunicazione, per essere sfruttate appieno, devono essere considerate sia in relazione ai rischi connessi che a un loro inappropriato utilizzo.

Nella modernità il discorso sulla tecnica è spesso polarizzato: o mette in luce, in maniera acritica, il suo potere taumaturgico, oppure rievoca angosce e paure.

Il timore che la tecnologia possa sfuggirci di mano è sempre in agguato e ha radici profonde: basti pensare al mito di Prometeo o a figure come il Golem o Frankenstein.

Diciamo che da qualche tempo non sono solo il nucleare, la chimica e la manipolazione genetica a rivelarsi pericolosi,  ma possono diventarlo anche le tecnologie digitali e alcuni fenomeni culturali spesso sottovalutati, come l’esplosione informativa

Per comprendere queste paure dobbiamo considerare anche le loro proporzioni.

Mentre la biblioteca di Alessandria, con i suoi circa 700.000 rotoli di papiro e pergamena, conteneva tutto il sapere del mondo occidentale antico, il patrimonio librario della Bibliothèque Nationale de France che occupa oggi oltre 400 chilometri di scaffali, è solo un frammento delle nostre conoscenze.

 

Questa moltiplicazione delle informazioni, divenuta esponenziale con internet e la telefonia cellulare, sta generando due fenomeni pericolosi perché ancora incontrollati: l’anoressia informativa e il suo contrario, l’obesità informativa.

In ogni modo in entrambi i casi il crescente proliferare dell’informazione riduce la capacità dell’uomo di assimilare in maniera razionale la conoscenza, spingendo, soprattutto i giovani, a assorbire in maniera ossessiva, e spesso acritica, informazioni non nutrienti.

A ciò si aggiunge il cosiddetto sporco digitale, cioè le tracce che lasciamo sulla rete tendono progressivamente a diventare indelebili.

Come è noto i motori di ricerca registrano tutto, ma non esiste un processo condiviso che elimina dalle liste dei motori le informazioni non più attendibili o invecchiate.

Anche strumenti rivoluzionari e apparentemente democratici come l’enciclopedia online Wikipedia vanno usati con grande cautela perché è la massa dei lettori che decide circa la veridicità dell’informazione, ma questa massa, come è oramai assodato, tende a riportare solo fatti banali e dati ritenuti oggettivi, eliminando giudizi e opinioni.

Questo processo di gestione del consenso tende a creare un’unica base condivisa e massificata di conoscenza, eliminando le differenze, le ambiguità, le incertezze, la criticità.

Ecco perché da occasione democratica Wikipedia tende sempre più a mutarsi per chi non sa già in un pericoloso strumento di omogeneizzazione culturale.

 

Di fatto ogni analisi delle nuove tecnologie della comunicazione non dovrebbe assolutamente prescindere da come l’uomo ha reagito e si è adattato a esse e questo perché le tecnologie sono da tempo indissociabili dal cammino dell’uomo verso la conoscenza e l’affrancamento dalle forze della natura. 

Questo potenziamento delle capacità umane, infatti, si trascina dietro aspetti fortemente problematici.

Oltre ai benefici immediati e osservabili – maggiore velocità e capacità di calcolo, possibilità di accedere a enormi quantità di informazioni – possono subentrare effetti collaterali che, alla lunga, rischiano di vanificare i benefici conseguiti.

Non è raro, oggi, che l’espansione di una funzionalità possa tradursi in una atrofizzazione di un’altra, soprattutto a livello dell’esperienza sensoriale.    

In passato, se l’uomo non era in grado di usare una specifica tecnologia, si limitava a non utilizzarla, o la faceva usare da chi n’era capace.

Oggi, con le tecnologie digitali, questo non è più possibile, non soltanto per la pervasività di tali tecnologie, vale a dire che tendono costantemente a diffondersi in ogni aspetto della vita corrente, ma anche e soprattutto, per la loro percepita necessarietà.

Oggi Internet è considerato un diritto e il cosiddetto – divario digitale – la separazione fra chi può accedere alla rete e chi no – viene ritenuta una nuova forma di esclusione che deve, almeno a parole, essere combattuta a tutti i costi, con attenzioni e investimenti importanti.

Gli individui, dunque, non possono chiamarsi fuori dalle tecnologie digitali e dal loro impatto sulla loro vita corrente, ma non è tutto perché nel frattempo queste tecnologie continuano a progredire parallelamente a un altro fenomeno, quello degli individui che leggono e studiano sempre di meno.

Un tale divario tra l’uomo e la tecnica sta facendo nascere una vera e propria patologia della personalità, intesa come una mancata armonizzazione e sincronizzazione tra il mondo umano e quello rappresentato dalla tecnica e dalle tecnologie.

Le tecnologie. In particolare, stanno assorbendo tutta la capacità intellettuale dell’uomo, ma a danno delle sue potenzialità sentimentali, pulsionali ed emotive. 

È se esse nutrissero la cultura delle cose, invece che la cultura degli individui.

 

Vediamo adesso il problema da un’altra angolazione. 

Nel mondo occidentale dimenticare ha un’accezione prevalentemente negativa.

Colui che dimentica è, per definizione, distratto, poco attento alle cose, svogliato, forse addirittura malato.

Ma per le neuroscienze non è così.

Se non si dimenticano i concetti obsoleti, non c’è spazio per le nuove idee. 

L’economista Joseph A. Schumpeter parlava di distruzione creatrice per indicare la necessità di cancellare attività non più remunerative e per liberare risorse da destinare a progetti innovativi.

In linea generale, se non scordassimo positivamente o attivamente alcune esperienze, o perlomeno se non fossimo in grado di contrastare i ricordi, non sempre potremmo apprendere qualcosa di nuovo, correggere i nostri errori, innovare vecchi schemi.

Per fare buon uso della memoria è necessario quindi sia saper ricordare sia saper dimenticare. 

Dimenticare, in buona sostanza, è importante tanto  quanto saper accumulare informazioni.

Quanto saper alleggerire la mente dai suoi fardelli, ogni qualvolta questi tendessero a diventare eccessivi.

Possiamo quindi parlare di una vera e propria auspicabilità dell’oblio, soprattutto nella società attuale, dove il bombardamento informativo supera spesso i livelli di guardia.

Il medium digitale poi è doppiamente pervasivo

È presente in modo sempre più diffuso negli spazi dove viviamo, ma soprattutto tende a interagire con tutti gli aspetti della nostra vita corrente: lavoro, studio, divertimento, sessualità, religione.

Ciò ha fatto emergere di riflesso un’identità digitale che ci renda riconoscibili e unici anche all’interno di questa sfera e ci consente di costruire relazioni virtuali con altre identità digitali.

Questo processo che permette a ciascun soggetto di costruirsi una vera e propria identità di rete sta subendo negli ultimi anni una vera e propria accelerazione.

Uno dei fenomeni più interessanti, dal punto di vista delle scienze sociali, è stata la nascita dei cosiddetti siti personali.

Questi siti personali – che sono spazi web in server pubblici gestiti da utenti che immettono i propri contenuti personali – risalgono com’è noto ai primi anni Ottanta del Novecento.

L’esempio storico più noto è Geocities, dove gli utenti compravano a basso prezzo uno spazio e un indirizzo da cui accedervi. Questi indirizzi erano organizzati come città, con nomi di quartieri (le aree tematiche) e numeri civici (i singoli siti personali).

Legato alla creazione dei siti personali, vi è un altro aspetto che sta assumendo – con la progressiva diffusione di Internet – grande importanza: la necessità di gestire la propria immagine in rete o, più semplicemente, di sapersi vendere nel mondo immaginario. 

Una delle tecniche emergenti di rappresentazione del sulla rete sono gli avatar, che possono essere pensati come una vera e propria maschera digitale che si indossa per identificarsi e collocarsi nei nuovi ambienti virtuali 3D.

Gli avatar sono un vero e proprio simbolo dell’identità contemporanea; un’identità che sfuoca nell’immaginario, poco definita, transitoria, destinata a non raggiungere mai la sua forma compiuta.

Questo uso delle tecnologie digitali non consente solo un’estensione e un potenziamento delle nostre capacità mentali, ma in prospettiva consente un vero e proprio sdoppiamento della nostra personalità. 

Infatti i siti personali possono avere vita propria, possono venire consultati da terzi senza che i proprietari siano in quel momento collegati online, possono raccogliere automaticamente le informazioni, segnalare eventi, rispondere a richieste esterne.

L’esempio più popolare è quello delle nuove tecnologie vocali che permettono ai computer o alle segreterie telefoniche non solo di parlare e leggere i messaggi, ma anche di capire quello che gli chiediamo.

Oppure alle tecnologie di personalizzazione che consentono di lasciare tracce in ambienti digitali pubblici, consentendo all’utilizzatore di essere riconosciuto, di riprendere il lavoro fatto fino all’ultimo collegamento, di ricordare le preferenze manifestate.

Tutti questi contenuti richiedono un luogo personale di archiviazione che potremmo chiamare personal digital space i cui aspetti innovativi non sono legati tanto alla dimensione tecnica, quanto alle potenzialità del sistema rese disponibili nella forma di uno strumento conoscitivo.

Potenzialità che consentono di realizzare una vera e propria memoria estesa, a complemento e integrazione di quella fisiologica. 

In  breve, ogni riflessione sulla comunicazione digitale non può prescindere da questa trasformazione dei recettori dei messaggi comunicativi.

Tra i numerosi caratteri di questi spazi digitali personali, uno è la sua proprietà di forzare la sintesi, la strutturazione e l’organizzazione dell’informazione consentendo un’archiviazione orientata al riutilizzo.

Il riassunto (o la selezione) di un saggio in forma cartacea non è riutilizzabile: si può solo rileggere, invece il riassunto in forma elettronica si può riutilizzare e anche integrare con altri contenuti.

La stessa letteratura moderna, che in qualche modo si può definire un’arte combinatoria, con i suoi gettoni lessicali, grammaticali e semantici ereditati può essere continuamente combinata e ricombinata in sequenze di espressioni.

Come è facile costatare una parte importante della letteratura, delle arti e della musica contemporanea è infatti costruita su citazioni e reiterazioni più o meno metaforiche.

Il poter disporre quindi in forma digitale di citazioni, frasi, tabelle numeriche, concetti provenienti da saggi e soprattutto di strumenti che ne facilitano il riuso combinatorio diventa uno straordinario strumento per potenziare il processo creativo.

Inoltre l’esplicitazione dei collegamenti associativi contenuti rende evidente sul sito ciò che accade anche nella nostra memoria.

Per questo il web può trasformarsi anche in una vera e propria memoria estesa.

Ogni volta che viene inserita nel sito personale un’informazione, vengono agite due operazioni cognitive:

– la definizione dell’area tematica prevalente relativa all’informazione,

– la messa in coerenza (talvolta un vero e proprio riallineamento) di tale informazione con gli altri elementi informativi presenti nell’area.

Poiché più si riutilizzano i contenuti più la conoscenza viene assorbita e diventa fondamentale – per una reale padronanza di un argomento – poter rivisitare lo stesso materiale in tempi differenti e in contesti modificati.

Tutto ciò facilita il ripasso ‘narrato’ della conoscenza, combattendone l’oblio causato dalla labilità della memoria.

Il personal digital space consente anche il cosiddetto dimenticare consapevole, risparmiando alla memoria lo sforzo di memorizzare informazioni in quel momento non rilevanti.

Quando un’informazione curiosa o particolare (ma di cui non ci è chiara l’utilità) viene inserita nel sito in un punto dove sia naturalmente facile recuperarla nel futuro, la nostra memoria si può occupare di qualcosa d’altro e può rilasciare l’energia di memorizzazione.

Senza questo strumento, la memoria rimane ingaggiata nel ricordare l’informazione e nel tentare – spesso senza elementi di contesto o di finalità – di collocarla in una qualche unità di senso.

Il fenomeno dei siti personali è ancora relativamente poco diffusa, anche se la sua componente più narcisistica, il blog, sta esplodendo.

I blog oggi si occupano più di rendere disponibili i punti di vista di chi vi scrive che non di organizzare la propria conoscenza per un facile riutilizzo.

Infatti i contenuti dei blog sono pubblici, mentre le memorie estese tendono a essere protette da password

Sotto l’aspetto tecnologico le mutazioni originate dalla crescente disponibilità di banda stanno rendendo possibili nuovi servizi e nuove tipologie di contenuti audiovisivi, cosi come il passare dal testo ai linguaggi visivi aumenta il potenziale espressivo e consente letture più ricche

Un testo ha un inizio, una fine e un percorso obbligato di lettura, mentre un’immagine no. Inoltre, al contrario delle parole, le immagini posseggono una capacità di estensione verbale quasi infinita, in quanto l’osservatore deve, per poterle gestire, trasformarsi a sua volta in narratore.

Le nuove forme comunicative una volta che hanno superato la struttura testuale che ha caratterizzato le origini di Internet, stanno dando vita a forme espressive contaminate e complesse.

…….

Glossa: L’intelligenza collettiva.

L’intelligenza collettiva, così come la descrivono Tom Atlee, Douglas Engelbart, Cliff Joslyn, Ron Dembo e altri studiosi, è un particolare modo di funzionamento dell’intelligenza che supera tanto il pensiero di gruppo e la sua tendenza a degenerare in conformismo quanto la cognizione individuale, permettendo a una comunità di cooperare mantenendo prestazioni intellettuali affidabili.

In questo senso rappresenta un metodo efficace di formazione del consenso o del dissenso.

Un pioniere dell’intelligenza collettiva è stato George Pór, autore di The Quest for Cognitive Intelligence (1995).

Egli ha definito questo fenomeno come “la capacità di una comunità di evolvere verso una capacità superiore di risolvere problemi, di pensiero e di integrazione attraverso la collaborazione e l’innovazione.

Paradossalmente anche una comunità scientifica può essere considerata una sorta di intelligenza collettiva, così come Internet e alcune sue applicazioni come Wikipedia possono essere lette come forme o implementazioni di una intelligenza collettiva planetaria.

 

Fra i primi autori che hanno fatto esplicito riferimento all’idea di una intelligenza collettiva nel senso generale esposto sopra (pur usando altre espressioni o definizioni) si possono citare H.G. Wells con il saggio World Brain, Pierre Teilhard de Chardin con il suo concetto di “sfera del pensiero umano”, Herbert Spenser con alcune tesi contenute nel suo Principi di sociologia.

Fra gli autori moderni si possono ricordare Pierre Lévy con il libro Intelligenza collettiva, Howard Bloom con Global Brain e Howard Rheingold con Smart Mobs.

 

In linea teorica i progetti di intelligenza collettiva più noti sono i partiti politici classici, che mobilitano grandi numeri di persone per governare, scegliere candidati, finanziare e condurre campagne elettorali.

Così come eserciti, sindacati e grandi aziende, sia pur concentrati su interessi particolari, sono forme embrionali di intelligenza collettiva.

Il concetto di intelligenza collettiva può essere studiato come esempio particolare di manifestazione di comportamento emergente che ha luogo in particolari sistemi dinamici non lineari (come ad esempio gli stormi di uccelli, i banchi di pesce azzurro, i sistemi frattali.

L’intelligenza collettiva può essere interpretata alla luce di questo concetto, come appunto un aggregato sistematico di intelligenze individuali, le cui relazioni reciproche e la cui collaborazione producono effetti massivi a livello culturale, sociologico, politico e antropologico di tipo emergente e difficili da studiare con i criteri applicati sui singoli individui che ne fanno parte.

È il caso della stessa Wikipedia: un sistema enciclopedico universale fondato sulla collaborazione collettiva, tentativo di coprire in maniera completa e il più accurata possibile qualsiasi branca dello scibile umano, obiettivo difficilmente realizzabile per un singolo individuo.

 

TRE

La scrittura e l’evoluzione dei testi scritti.  

Ripensiamo la scrittura per comprendere uno dei paradigmi della moderna comunicazione.
Prendiamo in considerazione il passaggio dei testi scritti da un uso esclusivamente pubblico a un consumo anche individuale.
Questo passaggio è cruciale, perché costituisce la premessa da cui poi deriverà la funzione sociale   di quei particolari oggetti di uso quotidiano come sono i libri, i giornali, le agende e successivamente, per arrivare ai nostri giorni, i dischi, le cassette, i CD rom, i DVD, gli e-book, eccetera…

È un passaggio che avviene, da un punto di vista storico, in concomitanza con la comparsa dei codici, come sono chiamati quei fogli di pergamena piegati ed uniti per il dorso in modo di formare una sorta di quaderno.
La pergamena, o cartapecora, era realizzata con pelle di capra o di pecora conciate e lisciate. 

Si chiama pergamena perché si ritiene che sia apparsa, per la prima volta, a Pergamo, una città dell’Asia Minore, a circa un centinaio di chilometri da Smirne. 
Riuniti per il dorso i fogli di cartapecora formavano dei quaderni che, a partire dal secondo secolo dell’era comune, furono usati soprattutto dalle comunità cristiane. 

Il formato portatile e la leggerezza ne permettevano una comoda consultazione e una facile distribuzione. 

Insieme al diffondersi dei codici si verificherà un altro importante evento.

In principio questi codici si erano radicati nella cultura religiosa cristiana e, di conseguenza, la loro diffusione era cresciuta soprattutto tra i credenti.

Con il crollo dell’impero romano d’Occidente, seguito a breve da quello di Oriente, e il conseguente periodo di decadenza che si produsse partire dal V secolo dopo cristo, calò drasticamente il numero degli alfabetizzati e, al contempo, si ridusse l’interesse per la lettura.  

Questo stato di cose contribuì a diffondere nel corso dell’alto Medioevo una concezione sacra e magica del libro manoscritto.
I codici si trasformarono in una sorta di contenitori d’immagini, molto simili a delle icone e si arricchirono di simbologie e di testimonianze spesso fantastiche e visuali.

In altri termini, le raccolte di codici perdettero molto della loro natura di oggetti d’uso destinati alla lettura  e alla riflessione, per trasformarsi in segni di fede da ammirare, soprattutto se non si sapeva leggere. 

 Diventarono delle memorie acritiche di un sapere da inculcare nella coscienza dei fedeli e degli illetterati.   
Tutto questo favorì la nascita e la diffusione di quella che potremmo chiamare una scrittura artistica, molto bella e complessa dal punto di vista calligrafico, e il diffondersi di testi sempre più preziosi, anche a prescindere dalla loro veridicità o importanza sapienziale.  
In breve, questi libri manoscritti, o codici, si riempirono di illustrazioni, divennero raffinati nell’impaginazione, preziosi sotto l’aspetto estetico, con la conseguenza che, in moltissimi casi, si smarrì l’uso del codice come mezzo di analisi e di riflessione critica. 

Si modificò notevolmente anche il loro aspetto, diventarono sempre più grandi, perdendo in maneggevolezza e in praticità, fino a promuovere quello che in seguito è stato definito come una sorta di sguardo figurale.
In sostanza, dal punto di vista di una storia della comunicazione, sono secoli in cui non ci sono reali progressi né sotto il profilo dei congegni di comunicazione, né dei contenuti trasmessi.

Sul piano dello sviluppo delle forme culturali questa stagione – che si potrebbe definire di analfabetismo diffuso e che durerà qualche secolo – creerà non pochi problemi sia alla diffusione dei saperi e delle informazioni che all’affermazione delle forme politiche e dei loro sistema di rappresentanza, facendo in molti casi regredire il riconoscimento dei diritti civili fondamentali e favorendo l’avvento dei massimalismi autoritari.

Sul piano aneddotico per fronteggiare l’analfabetismo molti problemi di governo e di ordine pubblico furono parzialmente risolti con accorgimenti tecnici al limite della bizzarria, come, per esempio, introducendo l’arte dei sigilli e la colorazione degli inchiostri nella stesura degli atti ufficiali.
L’inchiostro rosso, per esempio, segnalava in molti casi a chi non sapeva né leggere, né scrivere che il documento era emanato di un’autorità e dunque aveva l’imperio di legge ed obbligava all’obbedienza.

Per conseguenza, la detenzione abusiva di sigilli e d’inchiostri colorati era punita con la tortura e la morte per squartamento.

Da questa situazione di stallo si cominciò ad uscire solo con la grande espansione universitaria del  tredicesimo e quattordicesimo secolo.
In questo periodo, sia pure lentamente, si riformò un pubblico di lettori.
Per la prima volta, dopo secoli, ci fu anche una significativa domanda di libri di argomento laico.

Si diffusero soprattutto i manuali, questi libri diventano agili, pratici e consultabili da tutti, senza eccessive difficoltà formali o ideologiche.
Va anche detto a questo proposito che, con il consolidarsi del sapere umanistico e scientifico, le nascenti università favorirono sempre più la lettura critica e la libera discussione dei testi, che finirono per alimentare un bacino di lettori sempre più grande.
________________________________________________________________________________
In questi anni compare anche un nuovo supporto di scrittura, la carta

Viene dalla Cina ed importata in Europa dagli arabi. 

Siamo intorno al 1100/1200. 
La carta sarà poi fabbricata e migliorata a Fabriano, in Italia, dai maestri fabrianesi
Anche questo supporto, comunque, resterà relativamente costoso bisognerà aspettare il 1799 prima che la sua fabbricazione diventi intensiva con l’invenzione della macchina a  produzione continua. 

Fino all’introduzione della carta, infatti, un ostacolo di rilievo alla praticità dei libri era costituito soprattutto dai supporti di scrittura che erano o in pergamena, resistente ma di lunga lavorazione, o in papiro, fragile e costoso.
_______________________________________________________________________________
Un problema che condizionava la diffusione capillare dei testi era costituito dal fatto che essi circolavano solo all’interno di specifici organismi, religiosi e amministrativi, così il loro flusso era legato al funzionamento di queste istituzioni.

In breve, fino a quando la produzione dei testi restò in massima parte legata all’attività degli ordini religiosi e dei loro centri di produzione l’attività editoriale restò sganciata da uno stabile coordinamento tra produzione e consumo.

Con l’avvento della manualistica  e dei testi universitari, invece, cominciano a formarsi dei protoeditori.
A questo proposito va anche detto che, misurate su un’economia di scala, le tirature di questi testi erano relativamente basse e ciò costituiva un serio ostacolo al diffondersi della lettura e, di riflesso, alla necessità d’imparare a leggere e a scrivere. 
Un tale quadro rimarrà sostanzialmente immutato almeno fino all’invenzione della macchina per stampare a caratteri mobili, che tradizionalmente si fa risalire a Johann Gutenberg (1400 circa-1468)  con la quale, a Magonza (nella Renania-Palatinato) nel 1455, stampò un esemplare della Bibbia. 
In realtà, fu un’invenzione diffusa, nel senso che in questi anni in molte parti d’Europa furono costruite macchine per stampare. 

 Gutenberg ha solo il merito di essersi fatta una buona pubblicità con un libro da tutti stimato e ritenuto importante, in realtà già da molto prima in Europa era fiorita una pamphlettistica  anticlericale, antistatuale e libertina.   

In breve va costatato che, a partire dai primi anni del XV secolo, nelle città universitarie, i metodi di produzione dei libri acquistarono una dimensione imprenditoriale stabile.
Questi editori si affidavano a gruppi di copisti coordinati, esperti e di grande fiducia, che contribuirono a consolidare la loro fama e la loro attendibilità professionale.
Va anche costatato che i libri cominciano ad essere realizzati in piccola serie.

C’è un aspetto di questa nascente attività editoriale da considerare e che ritroviamo sostanzialmente immutato, oggi, con internet, quello dell’attendibilità dei testi o dell’aderenza dei testi copiati agli originali.

Erano anni in cui nelle copisterie circolavano spesso, accanto a copisti diligenti, dei copisti infedeli per i motivi più svariati, ideologici, religiosi, etici, personali o di superstizione, oppure, semplicemente motivati dal desiderio di diffamare tesi altrui o dimostrare che erano sbagliate. 
Questi copisti inevitabilmente seminavano con i loro errori, voluti o involontari, o con le loro personali correzioni, seri dubbi sull’autenticità delle fonti. 

Per tanto la serietà del responsabile della sede di copiatura era fondamentale.
Più questo proto-editore era conosciuto e rispettato, più si riteneva veritiera la copia dello scritto copiato, soprattutto se era stato tradotto da una lingua antica o da una lingua poco conosciuta.

Fatte le debite proporzioni è un problema arrivato fino a noi. 

Ancora oggi più un editore è famoso e più, istintivamente, ci fidiamo del libro che ci vende, soprattutto se l’autore ci è sconosciuto. 
È logico tutto questo? 

Non potrebbe darsi, invece, che il grande editore, che ha problemi di profitto sia meno interessato a ciò che stampa di un piccolo editore che pubblica solo libri di cui condivide le tesi?   

Poi nel XV secolo si verificano due fatti di portata rivoluzionaria.
Il primo è costituito dal formarsi, per i testi universitari, di uno stabile e duraturo mercato della comunicazione.

Il secondo fatto è ancora più significativo, perché il libro viene a rappresentare, nella cultura europea, la prima produzione di serie di una certa importanza. 

Per questo la mercelibro e i suoi mercati cominciarono a diventare un forte elemento di trasformazione della società.

Per verificarlo basta un dato.

Tra il XV secolo e le prime decadi del XVI secolo, nelle quali, come abbiamo visto, la stampa a caratteri mobili fa la sua comparsa, si realizzarono più libri manoscritti che in tutto il millennio precedente.

Si può affermare che la stampa, nel XV secolo, porta a termine quella traiettoria connettiva del sapere, attraverso la scrittura, nata in Grecia otto secoli prima di cristo. 

Vediamo, ora, qualche effetto, sul piano delle relazioni sociali, che è seguito all’introduzione della stampa.
Uno.

Assistiamo al passaggio da un mondo dominato dalla differenza – cioè da attività originali e irripetibili – ad un mondo dominato dalla regolarità nel quale si realizza una sostanziale discesa dei prezzi di molti beni e servizi.

Questa idea di una uniformità ripetibile finisce per diffondersi nella società favorendone la sua organizzazione e il suo sviluppo, soprattutto, attenuando gli effetti di quella anomia sociale che la dominava.

Due.

Aumenta la varietà dei prodotti della comunicazione, in ognuno dei quali si materializzano specifici contenuti cognitivi.

Tre.

Il mercato tende sempre di più a diventare la forma economica che regola e impone, sotto i più svariati aspetti, la grande maggioranza degli scambi comunicativi.

Quattro.

Questo è un punto estremamente importante.  Diviene abituale, soprattutto nelle città più sviluppate da un punto di vista culturale, come sono quelle che hanno sedi universitarie, la circolazione di nuclei interpretativi del mondo, in particolare di quelli che riguardano la politica, il costume e le leggi. 
Questi nuclei interpretativi del mondo, spesso in aperta concorrenza tra di loro, favoriranno  i cosiddetti mercati delle ideologie, sviluppando una vera e propria arte d’interpretazione dei fatti, a cominciare da quelli storici e politici.

Per capire che cos’è un mercato delle ideologie si può fare riferimento allo sport

È facile constatare come dietro a delle semplici performance da anni si è formato un mercato delle notizie fondato sulla polemica, un mercato che gira capitali ingenti spesso legati o compromessi con il mondo della finanza e della politica.  

C’è d’aggiungere che, a partire dal XVII secolo, l’acquisto di libri, che fino a questo momento era abbastanza episodico e slegato nel tempo, con l’aumento della produttività e il crescente interesse per la lettura rompe il vincolo dell’episodicità.
Compare l’acquisto di flusso, come dicono gli esperti di marketing, cioè l’acquisto che si ripete nel tempo e conseguentemente si moltiplicano le biblioteche pubbliche e compaiono le prime grandi biblioteche private.

Che cosa consegue a tutto questo?
Uno.

Che i testi scritti, qualunque sia la loro tipologia, cominciano ad essere scambiati sulla base del prezzo di produzione e non del loro contenuto.
Due.

Che il prezzo rende possibile il calcolo economico e la pianificazione della produzione.

 

Sempre sotto l’aspetto dei fatti sociali, si constata che l’informazione genera valore circolando.

Ciò non toglie che, per la natura stessa dell’informazione, comincino a svilupparsi anche dei contenuti cognitivi che hanno interesse a restare riservati e segreti.

Basti pensare alla riservatezza che circonda i nuovi procedimenti industriali, la ricerca scientifica, certe particolari attività artigianali, i documenti contabili, i testamenti, gli accordi riservati tra le diplomazie, eccetera.
Sono casi, come è facile intuire, in cui l’informazione ha valore solo se resta circoscritta a chi la gestisce.

Oggi, questa dialettica tra ciò che può essere divulgato e ciò che deve restare riservato, se non addirittura segreto, è diventata una parte integrante delle strategie dell’informazione, fino a punto da aver dato vita alla scienza della disinformazione, come arma per combattere gli avversari, in guerra, nelle competizioni finanziarie ed economiche, nella gestione delle notizie politiche.  

In ogni modo, come principio generale diciamo che, quanta più informazione circola tanto maggiore è il valore che essa può generare.   
È un principio che ha sorretto almeno fino al web le strategie relative alla diffusione e alla valorizzazione dei contenuti cognitivi.

La prima strategia agisce sull’asse spaziale, è quella che punta ad incrementare il raggio di azione, di vendita e di consumo dell’informazione.

La seconda strategia di valorizzazione, invece, opera sull’asse temporale.
Mira a gestire, riducendolo, l’intervallo di tempo che separa la fonte cognitiva dal consumatore.

Nel caso della carta stampata è come dire che ci sono prodotti editoriali che mirano ad espandersi velocemente sul territorio, perché i loro contenuti non sono durevoli, come succede con le notizie dei quotidiani.
Così come ci sono prodotti editoriali che si dispiegano nel tempo, perché i loro contenuti non sono effimeri, sono o dovrebbero essere i libri di un certo valore culturale e scientifico.   

Nell’ambito dell’informazione attraverso i giornali il valore della conoscenza deriva da una duplice radice: la tempestività e la diffusione capillare.

Senza il requisito della tempestività, soprattutto oggi, il valore dell’informazione per un quotidiano, come è intuitivo capire, è uguale a zero.
La crisi che questi prodotti stanno attraversando nasce proprio da questo problema, dalla concorrenza che muovono loro i media digitali.

Un’osservazione.

Dal punto di vista delle scienze sociali questo incremento delle capacità operative dei congegni connettivi, posta, libri, opuscoli, giornali, eccetera, si rivelerà un elemento essenziale per il perfezionamento della macchina dello Stato, in particolare, della sua centralizzazione che vedrà, da lì a poco, il suo trionfo, nella forma di nazione. 

****

Una nota sulla pubblicità.   
All’inizio del Novecento, come abbiamo osservato altrove, la pubblicità migliorò le sue strategie operative e aggiunge nuovi significati al suo messaggio.

La crescita quantitativa dell’offerta di beni e servizi spinse sempre di più i produttori a ricercare degli strumenti di competizione diversi dal prezzo, anche se spesso di difficile gestione, strumenti basati soprattutto su i cosiddetti fattori immateriali.

La pubblicità cessò di essere un accessorio contingente al meccanismo della vendita e diventò per le aziende che producono beni e servizi di largo consumo un ulteriore elemento di conoscenza da offrire al consumatore e di contatto con il mercato.

Questa conoscenza o veniva inglobata nel prodotto stesso, in questo caso consisteva soprattutto di etichette ammiccanti, di imballaggi di qualità e prestigio, di foglietti d’istruzione sapientemente redatti in modo da fidelizzare, come si dice oggi l’acquirente.
Oppure, questa conoscenza era fatta giungere al consumatore per vie esterne, vale a dire, per posta, attraverso i giornali, le affissioni stradali, gli annunci radiofonici, eccetera.

Sono forme di conoscenza in concorrenza tra di loro, perché ogni produttore cercava, com’è naturale, d’inventarsi una propria strategia operativa, esse avevano un unico scopo, agganciare l’attenzione del pubblico che consuma e spingerlo a consumare di più, anche attraverso una sapiente gestione dell’obsolescenza psicologica dei prodotti.

Possiamo dire che l’apparato analitico che il mondo della pubblicità costruì nel giro di una generazione, tra l’inizio del secolo e gli anni trenta, rappresentò una suggestiva innovazione concettuale nell’ambito delle strategie per vendere o incrementare i consumi e in sub ordine la conoscenza delle merci.   

Per la prima volta nella storia della comunicazione commerciale – attraverso una sistematica raccolta di opinioni – le idee correnti, le abitudini, i gusti e gli stereotipi della gente comune vennero interrogati, analizzati, classificati ed usati al fine di aumentare le vendite.

In altri termini, le motivazioni, le intenzioni, e i sentimenti che la sociologia aveva sempre interpretato dal punto di vista della persona, cominciarono ad essere esplorati anche sul piano collettivo ed usati nell’opera di persuasione a fare o a non fare determinate cose, ad assumere o a non assumere determinati comportamenti. 

Come è facile intuire questi avvenimenti segnarono la nascita della ricerca sociologica sul campo che da questo momento e fino alla fine del ventesimo secolo caratterizzerà la sociologia americana.

Sul piano della psicologia sociale sono progressi giganteschi e pericolosi, perché si ottennero  penetrando nell’intimità degli individui, cioè, nella loro individualità.

Come sappiamo il pudore non è una faccenda di centimetri di stoffa in più o in meno, ma una sorta di vigilanza su noi stessi che decide del grado di apertura o di chiusura verso gl’altri e l’ambiente.

In breve, queste ricerche, nell’esplorare la personalità degli individui/consumatori, finirono per renderla pubblica con il risultato di alterare le forme di pudore e di omologare l’espressioni dell’intimità.

Possiamo dire che s’instaura una relazione dialettica molto stretta tra pubblicità e spudoratezza! 

Apriamo una parentesi. 
Alcune ricerche sugli schemi comunicativi interpersonali furono svolte, a cominciare dalla fine degli anni ’50 dalla cosiddetta Scuola di Yale, in particolare intorno al tema della persuasione.
Esse si riallacciavano alle ricerche empiriche compiute, dopo la fine della prima guerra mondiale, per stimolare il mercato dei beni e dei servizi di largo consumo, mentre la loro ripresa derivò dal rinnovato interesse per il problema della comunicazione che si diffuse dopo la seconda.

Tra l’altro, i finanziamenti pubblici che ricevettero contribuirono a rendere queste ricerche particolarmente accurate e ampie.
Abbiamo visto nel corso propedeutico come un messaggio si componga di una fonte, del messaggio vero e proprio e di un ricevente.
Questi tre elementi, dal punto di vista della persuasione, mettono in campo tre interrogativi.
Sulla fonte: 
Qual è l’effetto della sua credibilità?
Sul messaggio:  Come deve essere strutturato un messaggio per essere persuasivo?
Sul ricevente:  Quali sono le persone più facilmente influenzabili?

Ma quali sono le ragioni ultime di questi interrogativi?    

Uno.

La comunicazione persuasiva ha leggi sue proprie.
Vale a dire, ci sono comunicazioni che hanno a che fare con quesiti che non possono essere risolti attraverso l’osservazione diretta e che presentano delle conclusioni rispetto alle quali si possono sollevare opinioni diverse.
C’è di fatto una distinzione tra atteggiamenti ed opinioni.
Le opinioni, in genere, sono risposte verbali o scritte delle quali emerge qualche questione generale. 
Gli atteggiamenti sono risposte implicite strettamente legate alle opinioni che orientano l’individuo.

Due.

Le opinioni al pari delle abitudini derivano dall’apprendimento e tendono ad essere mantenute fino a quando l’individuo non vive o subisce un esperienza di apprendimento diversa.

Tre.

Affinché la nuova opinione sostituisca quella di cui l’individuo già dispone è necessario che essa venga associata ad un vantaggio o ad un incentivo.

In questo schema, da dove scaturisce la credibilità di chi comunica, cioè della fonte?  
Per chi riceve il messaggio la credibilità deriva da tre elementi, la conoscenza, l’affidabilità e la veridicità. 

Quanto al messaggio di per sé i ricercatori di Yale partirono dal presupposto che l’argomentazione a sostegno di una tesi o mette in luce i vantaggi legati all’adesione a questa tesi, oppure gli svantaggi della non-adesione, ma il percorso che l’individuo fa per arrivare a una decisione è  spesso contradditorio.

Le ricerche, in questo senso, appurarono che quando un individuo è esposto ad un messaggio contenente delle minacce per il Sé, per esempio, se fumi raddoppi la tua probabilità di morire di cancro ai polmoni, vengono sempre indotte reazioni emotive sgradevoli, con il risultato che l’individuo diventerà fortemente motivato a prendere in considerazione delle risposte diverse, di rimozione, almeno fino a quando non troverà quella che riequilibra lo stato emotivo negativo.
La cosa più sorprendente fu lo scoprire che l’appello alla paura più è elevato e più induce ad una maggiore tensione emotiva nell’audience. 

Così come scoprire che la più suggestiva influenza sul comportamento, nella direzione desiderata da chi emette il messaggio, si ottiene quando l’appello è debole, non solo, il risultato così provocato è anche più stabile nel tempo.

Per concludere i ricercatori appurarono che un appello forte provoca uno stress emotivo talmente intenso che pur di alleviare la tensione i riceventi del messaggio tendono ad ignorarlo o a minimizzarlo.
A proposito del ricevente si costatò anche come la comunicazione che illustra i vantaggi derivati dall’accettazione di una data posizione può risultare persuasiva soltanto in relazione alle motivazioni personali del ricevente.

Fu anche notato che, dal momento che gli individui vivono generalmente in gruppi, il livello di resistenza al cambiamento dipende spesso dall’attaccamento che un individuo ha rispetto al gruppo di appartenenza e questo più di quanto non dipenda da alcuni caratteri della personalità come l’autostima, l’aggressività, l’intelligenza. 

Va da sé, allora, che conviene di più agire sul gruppo di appartenenza e sulle convinzioni culturali condivise dai soggetti che interessano la fonte che emette il messaggio, piuttosto che sul singolo individuo.

Va anche osservato che queste ricerche, nate per incrementare i livelli di produzione dei beni di consumo, sono anche quelle che faranno fare, con i loro massicci investimenti finanziari, passi da gigante alla teoria della ricerca sociologia, alla microsociologia e alle tecniche sociometriche.   

Oggi il giudizio che le scienze sociali hanno della pubblicità è radicalmente diverso, essa è accusata di creare conformismo e di contribuire a costruire falsi bisogni. 

Un giudizio che però risulta ambiguo considerato che molte ricerche sociologiche sono sostenute dai capitali che orbitano intorno al mercato de i beni di consumo.
In astratto, comunque, possiamo dire che la pubblicità crea conformismo, alimenta gli stereotipi della vita banalizzata e fabbrica falsi bisogni nel tentativo di aumentare i bilanci di spesa moltiplicando le offerte di gadgets e di merci superflue.

Lo aveva notato, con molta ironia più di un secolo fa Oscar Wilde, quando affermava che nulla più del superfluo è assolutamente necessario.