SOCIOLOGIA DELLA COMUNICAZIONE
PARTE SECONDA
APPUNTI NON REDAZIONATI AD USO SCOLASTICO. – IED 2018-19.
Appunti di Sociologia della Comunicazione – parte II – versione PDF
I NUOVI SCENARI SOCIO-DIGITALI.
Nota Introduttiva.
C’è una importante correlazione che si sta sviluppando tra le ICT digitali (tecnologie dell’informazione e della comunicazione) e quella che in filosofia è chiamata la coscienza del sé.
(L’espressione indica l’uso della tecnologia nella gestione e nel trattamento dell’informazione, specie nelle grandi organizzazioni. In particolare riguarda l’uso di tecnologie digitali che consentono all’utente di raccogliere, creare, memorizzare, scambiare, utilizzare e processare informazioni (o “dati”) nei più disparati formati: numerico, testuale, audio, video, immagini e molto altro.)
Il ciclo dell’informazione: Generare – Raccogliere – Registrare e immagazzinare – Processare – Distribuire e trasmettere – Usare e consumare – Riciclare e cancellare.
Questa correlazione coinvolge sia il nostro modo di confrontarci con l’Altro da noi, che il nostro modo di relazionarci al mondo o, meglio, alla natura materiale delle cose.
Oramai è un dato di fatto. Da almeno una ventina di anni, grazie al digitale, siamo circondati (molti dicono immersi) da/in nuovi e inediti geo-scenari sociali e culturali e dai loro risvolti economici e politici.
Diciamo che siamo circondati dalle nanotecnologie. Siamo avvolti nell’internet delle cose. (Nelle telecomunicazioni l’internet delle cose è un neologismo riferito all’estensione di internet al mondo degli oggetti e dei luoghi concreti.) Siamo circondati dal web semantico.
Con il termine di web semantico – un termine coniato dallo scienziato inglese Tim Berners-Lee – si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, ecc…) sono associati ad informazioni e a dati che ne specificano il contesto semantico in un formato adatto all’interrogazione e interpretazione.
In questo modo, con l’interpretazione del contenuto dei documenti del Web semantico saranno possibili sia ricerche più evolute delle attuali – basate sulla presenza nel documento di parole chiave – sia operazioni specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.
Ancora, siamo utenti del cloud computing. Una tecnologia che consente di usufruire, tramite server remoto, di risorse software e hardware (come memorie di massa per l’archiviazione di dati), il cui utilizzo è offerto come servizio da un provider tramite abbonamento.
Possiamo usufruire di giochi basati sul movimento del corpo.
Di applicazioni per gli smartphone, per i tablet, per il touch screen.
Abbiamo la possibilità di usufruire del GPS, un sistema di posizionamento satellitare che permette in ogni istante di conoscere la longitudine e la latitudine di un oggetto
Ricordiamo che i dispositivi muniti di un ricevitore GPS sono tantissimi: navigatori, smartphone, tablet, smartwatch, solo per citarne qualcuno.
GPS è l’acronimo di Global Positioning System, si tratta di un sistema per il posizionamento globale. Grazie al GPS è possibile localizzare la longitudine e la latitudine di oggetti e persone.
Il tutto avviene con i satelliti che stazionano nell’orbita terrestre e permettono di sapere in ogni istante l’esatta ubicazione di un luogo.
Ricordiamo a questo proposito che i satelliti contengono un orologio atomico che calcola con estrema precisione l’ora del momento in cui avviene la trasmissione del segnale dal satellite, informazione essenziale, insieme a quella della posizione del satellite, perché il ricevitore GPS possa calcolare di conseguenza la propria posizione.
Non da ultimo siamo immersi nella realtà densificata, tra droni (vale a dire oggetti volanti radiocomandati), auto che si guidano da sole, stampanti 3D, social media, cyber-guerre…
Sono tutti argomenti che costituiscono un terreno di polemiche tra tecnofili e tecnofobici e un’ampia discussione tra coloro che si domandano che cosa non si comprenda o si nasconda dietro tutto questo.
Che cosa dobbiamo aspettarci?
E soprattutto, la cosa più importante: possediamo una prospettiva ermeneutica per comprendere e gestire tutto questo?
La difficoltà maggiore è riuscire a comprendere quanto queste tecnologie sono estese e come hanno potuto diventare forze ambientali, antropologiche, politiche, sociali e, non da ultimo, culturali, vale a dire, capaci di interpretare e di trasformare il qui ora dell’esistenza.
Queste nuove tecnologie, a differenza di quelle arcaiche, hanno il potere:
– di creare e plasmare la realtà fisica e intellettuale,
– di modificare la nostra capacità di giudizio,
– di cambiare il nostro modo di relazionarci con gl’altri,
– di modificare la nostra Weltanschauung e,
– differenza importante, sono in grado di fare tutto questo in modo pervasivo, profondo e continuo.
In conclusione, volenti o nolenti – noi globalizzati – ci troviamo a vivere nell’infosfera all’alba di un millennio che ancora non comprendiamo.
I punti critici di queste nuove problematiche sono noti.
Saremo capaci di ottenere il massimo dei vantaggi dalle ICT?
Saremo capaci di minimizzarne gli svantaggi?
Quali rischi corriamo nel trasformare il mondo in un ambiente sempre più digitale?
A parte ciò, a ragione della loro natura queste tecnologie ci costringeranno dentro spazi fisici sempre più inconsistenti e concettualmente sempre più limitati.
Perché queste domande sono necessarie?
Sostanzialmente perché oggi le novità non danno più vita a delle fratture nella continuità che siano facilmente e a breve termine ricomponibili o assorbibili.
In linea generale per comprendere queste novità abbiamo bisogno di una nuova filosofia della natura e della storia, di una nuova antropologia e di una nuova scienza della politica.
Diciamo che ripensare il presente e il futuro in un mondo sempre più digitalizzato richiede una nuova filosofia dell’informazione.
La società dell’informazione ha le sue radici nella scrittura e nell’invenzione della stampa e dei mass media.
Cioè nella capacita di REGISTRARE e di TRASMETTERE.
Oggi questa società si è evoluta con la capacità di PROCESSARE.
Una capacità che, paradossalmente, ha contribuito a generare nuove forme di DEFICIT CONCETTUALI.
I paesi del G7 – Canada, Francia, Germania, Giappone, Gran Bretagna, Italia, Stati Uniti – (in realtà questi paesi sono molti di più), costituiscono quella che si chiama una società dell’informazione.
Perché?
Perché più del settanta per cento del PIL dipende da beni intangibili – vale a dire che concernono l’informazione – e non da beni materiali, come sono quelli del settore agricolo e manifatturiero.
***
Vediamo alcuni lemmi legati al tema dell’infosfera a partire dalla definizione di algoritmo.
L’algoritmo è un processo logico-formale che si struttura, articolandosi in una serie di passaggi logici elementari.
Questo processo conduce a un risultato definito da un numero finito di passaggi. (L’espressione di algoritmo deriva dalla latinizzazione del nome del matematico persiano Muhammad Ibn Musa al-Khwarizmi, vissuto nel nono secolo dell’era comune.)
Lo schema logico di un algoritmo si può esprimere con la forma if / then – SE/ALLORA.
Nel mondo che viviamo sappiamo (per esperienza) che ogni passaggio logico comporta una decisione che influenzerà il passaggio successivo.
C’è un gioco che illustra bene questo. È la morra cinese.
Per vincere a questo gioco i passi elementari possibili sono tre:
Se sasso, allora carta. Se carta, allora forbice. Se forbice, allora sasso.
Fatte le debite proporzioni, i computer che giocano a scacchi operano nello stesso modo.
A ogni mossa del nostro avversario un algoritmo cerca le contro-mosse possibili, valuta le possibilità e seleziona la migliore.
L’importanza degli algoritmi (cioè di questi processi logico-formali) è esplosa con la nascita dell’informatica.
L’informatica è la scienza che studia l’elaborazione delle informazioni e le sue applicazioni.
Più precisamente, l’informatica si occupa della rappresentazione, dell’organizzazione e del trattamento automatico della informazione.
Il termine deriva dal francese informatique (composto di INFORMATion e automatIQUE, informazione automatica) coniato da Philippe Dreyfus nel 1962.
L’informatica è una scienza indipendente dal calcolatore che ne è solo uno strumento, ma va da se che lo sviluppo dell’informatica è stato ed è tuttora strettamente legato all’evoluzione del calcolatore.
Infatti, pur avendo radici storiche antiche l’informatica si è sviluppata come disciplina autonoma solo a partire dagli anni 1960, sulla spinta innovativa dei sistemi di elaborazione e del progresso nella formalizzazione del concetto di procedura di calcolo, che possiamo far risalire al 1936, quando Alan Turing elaborò un modello di calcolo, oggi noto come macchina di Turing.
Dunque, in linea generale possiamo dire che i computer, i tablet, gli smartphone e gli oggetti connessi sono costruiti secondo uno schema teorico chiamato “macchina di Turing”.
In realtà questa macchina non è un oggetto, ma un concetto logico astratto elaborato dal matematico inglese Alan Turing.
Si compone di due parti.
– La prima parte è capace di interpretare una famiglia di algoritmi.
– La seconda è capace di immagazzinare i dati ai quali questi algoritmi si applicano o che da loro si ottengono.
Così, dal punto di vista dell’informatica un computer è la realizzazione fisica di una macchina di Turing.
In questa macchina i dati sono scritti su una memoria – l’hard disk – e processati da circuiti logici chiamati processori.
Questi processori sono la parte della macchina che è capace di compiere i passaggi logici, come estrarre i dati immagazzinati nella memoria, interpretarli, eseguire le istruzioni ricevute.
In pratica, qualsiasi programma che fa funzionare un computer o che può essere fatto funzionare da un computer non è altro che un complesso di algoritmi.
Non è difficile comprendere come alla base di tutti questi processi c’è un problema, la velocità di calcolo.
Oggi, l’aumento importante delle capacità di calcolo dei processori ha permesso di poter far funzionare, su una macchina-ad-hoc, algoritmi sempre più complessi, vale a dire dipendenti da più variabili.
La rete, di contro, ha permesso di mettere insieme una moltitudine di enormi database che nutrono questi algoritmi.
Ci sono vari tipi di algoritmi.
I più popolari sono gli algoritmi di ottimizzazione che cercano la soluzione che minimizza o massimizza una funzione. E gli algoritmi probabilistici, molto diffusi grazie alla possibilità di trattare grandi masse di dati (i Big Data).
Big data è un termine adoperato per descrivere l’insieme delle tecnologie e delle metodologie di analisi di dati massivi. Il termine indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire, portare alla luce i legami tra fenomeni diversi e prevedere quelli futuri.
Gli algoritmi probabilistici sono detti anche predittivi, in quanto sono strumenti capaci di prevedere la probabilità dell’insorgenza di un evento – come sono, per fare qualche esempio, le epidemie di influenza, il diffondersi di malattie infettive o, lo scoppio di crisi finanziarie.
I suggerimenti per gli acquisti che trovate sulla schermata di un computer (ti potrebbe interessare anche… oppure, sono spesso comprati insieme, ecc…) si basano sulla stessa logica algoritmica, essi analizzano quegli eventi come sono le visualizzazioni, i click o gli acquisti correlati a specifici individui.
C’è un problema etico che è ben espresso da questa storia vera.
Target – una società americana di vendite – fa affidamento sull’analisi dei profili di acquisto di venticinque prodotti al fine di assegnare a ciascun acquirente femmina un tasso chiamato previsione di gravidanza. Questa profilazione stima la data del parto e invia dei coupon per l’acquisto scontato di prodotti correlati ai diversi stadi della gravidanza.
Ciò causò seri problemi di privacy finiti in tribunale allorché i coupon furono inviati a una famiglia la cui figlia – liceale – non aveva informato i propri genitori del suo stato.
Ritorniamo al tema degli algoritmi. Possiamo distinguere tre serie di passaggi articolati.
Quello dei dati in entrata – input.
Quello dell’algoritmo propriamente detto – elaborazione.
E quello dei dati in uscita – output.
Ricordiamo che un computer opera esclusivamente su dati digitali che esso stesso ha generato in maniera digitale oppure su dati che sono stati digitalizzati.
Si tratta di sequenze di bit, indicati con le cifre 0 (zero) 1 (uno) che corrispondono alla presenza o all’assenza di un determinato livello di tensione elettrica all’estremità dei transistor che compongono un computer.
Vediamo meglio un aspetto dei Big Data.
Come abbiamo accennato rappresentano un insieme di dati quantitativamente enorme, molto vario e in continua e rapida evoluzione.
Il concetto di Big Data nasce alla fine del secolo scorso in corrispondenza all’aumento esponenziale della capacità di trattamento e di salvataggio dei dati che rese disponibile grandi quantità di informazioni sotto forma digitale.
La sigla VVV, elaborata da una multinazionale di consulenze informatiche, è generalmente usata per distinguere le tre caratteristiche che distinguono i Big Data.
Vale a dire, Volume (la quantità di informazioni), Velocità (la velocità di acquisizione, rinnovamento e trattamento dei dati), Variety (la differenziazione qualitativa di questi dati).
Una curiosità.
VVV è stato il titolo di una rivista surrealista pubblicata a New York, di cui uscirono soli quattro numeri dal 1942 al 1944.
André Breton, rifugiatosi nel 1941 a New York per fuggire la guerra, tentò di mettere insieme un nuovo gruppo surrealista radunando altri artisti europei in esilio e vari artisti americani.
Le idee del nuovo gruppo surrealista trovarono una larga espressione nel progetto editoriale di VVV.
In quanto francese, per la legge statunitense Breton non poteva essere l’unico direttore di un periodico. Pertanto assegnò il ruolo di condirettore al pittore David Hare, mentre nel comitato di redazione compaiono Marcel Duchamp e Max Ernst.
La rivista nacque sul modello del Minotaure, il più famoso dei periodici surrealisti. Anche per VVV venne mantenuta la consuetudine di rendere speciali le copertine attraverso la commissione di opere destinate a questo solo scopo.
Su VVV Breton pubblicò, fra l’altro, i Prolégomènes à un troisième Manifeste du surréalisme ou non (“Prolegomeni ad un terzo Manifesto del surrealismo o meno”).
L’unità di misura di volume dei Big Data è il petabyte che rappresenta un milione di gigabyte.
Proviamo a valutare che cos’è un petabyte.
Una foto in alta definizione occupa cinque millesimi circa di un gigabyte quindi un petabyte può contenere 200 milioni di foto o 250mila pellicole cinematografiche masterizzate in dvd.
Il DVD, sigla di Digital Versatile Disc, originariamente Digital Video Disc, è un supporto di memoria di tipo disco ottico, in via di sparizione.
Un esempio di Big Data sono le informazioni collezionate in tempo reale dai social network o dai grandi mercati online o mediante le applicazioni che usiamo sui nostri telefoni.
Sono, come si può intuire, un’enorme massa di dati acquisiti velocemente e con varie tipologie.
Tra queste tipologie ricordiamo: Localizzazione, Sistema operativo, Plugin (cioè, il modulo aggiuntivo di un programma, utilizzato per aumentarne le funzioni), Preferenze del nostro navigatore, Pagine visitate e tempo passato su di esse, Foto e video selezionati, Contatti e-mail, Ricerche.
A questo va poi aggiunto tutto il contenuto testuale, audio, video e fotografico postato o condiviso sulla nostra bacheca.
Ci sono poi molti casi di raccolta dei dati utilizzati nel campo della sicurezza e del controllo sociale.
Gli algoritmi di riconoscimento facciale – sempre più numerosi nelle stazioni ferroviarie o negli aeroporti – per fare un esempio – si basano sulla capacità di stoccare e analizzare in tempi brevi flussi di dati provenienti da telecamere istallate in questi luoghi o da foto postate su un qualsiasi social network o sito web.
Tra le opportunità offerte dai Big Data ci sono il deep learning e gli algoritmi predittivi.
Il deep learning (apprendimento profondo) – su cui ritorneremo – è una forma di intelligenza artificiale costituito da algoritmi che consentono a una macchina di prendere decisioni, operando sulla possibilità di far convergere tecniche di calcolo – tecniche con un’alta probabilità di correttezza o di affidabilità.
Gli algoritmi predittivi, invece, sono algoritmi che permettono di stimare la probabilità di realizzazione per un determinato evento a partire dalle condizioni misurate in un dato momento.
Sono oggi molto usati nella prevenzione di molte specie di malattie a sviluppo lento.
Il cuore della predittività sta nella possibilità di correlare tra di loro eventi fisici di varia natura.
Per esempio, associati alle leggi della fisica questi algoritmi consentono con una precisione definita chirurgica di calcolare dove cadrà un missile, conoscendone la potenza, la quantità del propellente, l’alzo del carrello di lancio e il peso.
Abbiamo poi quello che si definisce un approccio statistico quando la correlazione non viene dedotta dalle leggi della fisica, ma astratta per inferenza da un insieme di dati.
(L’inferenza (in generale) è una deduzione intesa a provare o a sottolineare una conseguenza logica.
L’inferenza statistica (o statistica inferenziale) è il procedimento per cui si inducono le caratteristiche di una popolazione dall’osservazione di una parte di essa (detta “campione”), selezionata solitamente mediante un esperimento casuale (aleatorio).
In linea generale, più grande è l’insieme di dati più probabilità ci sono che le correlazioni osservate statisticamente riflettano la legge che regola il comportamento del fenomeno in questione.
In questo senso, la novità rappresentata dai Big Data consente di migliorare gli algoritmi predittivi, anche e grazie a metodi di deep learning, rendendo questi algoritmi sempre più performanti.
Tra i molti dubbi e problemi, sul piano meramente scientifico, che si possono avere sui paradigmi predittivi, quello che qui importa sottolineare è il problema etico perché l’analisi e lo sfruttamento dei Big Data è in mano a pochi, ovvero a grandi gruppi industriali e militari.
Moralmente qui siamo di fronte al problema del controllo delle inferenze compiute e di fatto sottratte all’analisi scientifica.
Oggi si può dire che i Big Data assomiglino a delle forme oracolari pseudo-scientifiche a cui è comodo affidarsi, evitando la ricerca e formulazione di una teoria scientifica.
O, meglio, invece di essere usati per formulare ipotesi e cercare verifiche sul campo, sono usati (soprattutto quelli commerciali) per convincere senza dimostrare, partendo dal presupposto che i dati parlano da sé, basta saperli interrogare e ascoltare.
Profilazione Digitale.
Premessa.
Il concetto di identità personale si riferisce all’insieme delle caratteristiche dell’individuo, ed è materia di autodeterminazione. Vale a dire, essa è auto-costruita e deriva dal processo di identificazione con uno o più modelli proposti dall’ambiente socio-culturale e politico in cui l’individuo si trova a vivere.
L’identità digitale, invece, è una rappresentazione di un individuo.
Un’identità identificabile da coloro che creano e usano i dataset (cioè le collezioni di dati) in cui questa identità è memorizzata.
In sintesi, una persona digitale è la rappresentazione digitale di un individuo reale, una persona astratta che può essere connessa a questo individuo reale e comprende una quantità sufficiente di dati per essere usata in ambiti specifici, o come delega di questo individuo reale o a sua insaputa.
Roger Clarke, un esperto di cultura digitale australiano, ha definito due tipi di identità digitale: quella progettata e quella imposta.
La progettata è creata dallo stesso individuo, che la trasferisce ad altri per mezzo di dati (ad esempio: con la creazione di un Blog personale, di una pagina personale su un social network, eccetera.)
Quella imposta è quella proiettata sulla persona, in un certo senso, illuminata per mezzo dei dati collezionati da agenzie esterne quali sono le società commerciali o le agenzie governative (dati che hanno lo scopo, per esempio, di valutare il suo grado di solvibilità ai fini della concessione di mutui, valutare il suo stato di salute a fini assicurativi o creditizi, le sue preferenze musicali, ecc.)
In una conferenza a Roma di qualche anno fa, Roger Clarke – uno dei primi ricercatori a discutere di Persona Digitale – ha definito quattro categorie di persona digitale modellate sull’individuo reale come forme di un inconscio digitale:
– alla prima categoria troviamo una persona che non è a conoscenza degli archivi che conservano i suoi dati sensibili.
– alla seconda, una persona che è a conoscenza degli archivi dati, ma non può accedere ad essi.
– alla terza, una persona che è a conoscenza degli archivi e ne ha accesso ma non conosce i codici per decodificare le informazioni di tali archivi.
– all’ultima categoria troviamo una persona che nonostante abbia accesso ai suoi dati sa che ad essi sono state sottratte molte delle informazioni che la profilano senza conoscerne il motivo.
In quest’ottica il profiling è l’insieme di quelle tecniche che servono per disegnare il profilo di un utente in base al suo comportamento.
Questo modello di profiling deriva direttamente da quello in uso da tempo dalle forze dell’ordine e reso popolare dai film e dalle serie televisive.
Si tratta di una tecnica che ha l’obiettivo di portare alla luce dei pattern, cioè, degli schemi ricorrenti nel modo di agire di un indiziato.
L’obiettivo del profiling è di prevedere il momento del reato e intervenire per evitarlo.
Per analogia, come il profiling criminale identifica il comportamento di un delinquente, allo stesso modo il profiling digitale identifica il comportamento di un utilizzatore di servizi.
Ha rappresentato un grosso passo in avanti qualitativo rispetto al meccanismo della fidelizzazione (dall’inglese fidelity, fedeltà), perché si tratta di un monitoraggio che non riguarda solo i consumi correnti, ma è in grado di anticipare i desideri di consumo, così come il profiler criminale anticipa il momento e il modo del reato.
Il campo di studio del profiling digitale, applicato ai consumi, non riguarda solo l’area degli acquisti, ma l’insieme delle interazioni e dei sentimenti che un individuo sviluppa in un ambiente sociale predisposto per mezzo del web.
L’obiettivo è quello di tracciare un’area esplicativa dei legami sociali e, per conseguenza, dell’identità che si “co-costruisce” entrando in relazione con gl’altri.
Quest’area di studi oltre a essere complessa è delicata da valutare perché in genere – per motivi politici e culturali – siamo abituati a pensare che il tema del controllo sia di esclusivo appannaggio delle istituzioni – più o meno legittime – che detengono il potere e non una nuova prerogativa commerciale.
In genere, se un governo spia la popolazione o settori di essa si rende colpevole per l’opinione pubblica di un comportamento scandaloso e antidemocratico.
Di contro e fino ad oggi, invece, non c’è scandalo, né riprovazione morale se questo controllo è esercitato dalle multinazionali del digitale.
Da un punto di vista fenomenologico, va detto, il profiling è una delle tecniche più sofisticate per reificare un individuo, cioè renderlo simile a una cosa, in questo caso, una cosa misurabile e valutabile.
In genere non pensiamo mai che siamo tutti sottoposti alla profilazione e, questo, indipendentemente dall’uso che facciamo dei servizi gratuiti in rete.
Come dicono i critici digitali a questo proposito:
SE È GRATIS VUOL DIRE CHE LA MERCE SEI TU.
Questo perché l’obiettivo dei servizi che ci offrono è il profitto e non certo quello di metterci in contatto con altri o condividere con noi le esperienze della vita.
La profilazione, dunque, è l’insieme delle tecniche che consentano di identificare e classificare gli utenti in base al loro comportamento.
Quello che viene raccolto e conservato non è come nelle indagini di mercato classiche una sorta di istantanea in un dato momento, ma è un flusso di dati in movimento che aumenta costantemente e si modifica in continuazione, realizzando una sorta di controllo continuo.
In sostanza ogni utente che è in rete sviluppa e acquisisce un’impronta identitaria unica e in perenne metamorfosi.
Il tracciamento di questa impronta avviene in vari modi e per mezzo delle applicazioni che ci mettono in contatto con i servizi.
Il principale è il browser, cioè il navigatore, con cui surfiamo nel Web.
(Browser: programma per navigare in Internet che inoltra la richiesta di un documento alla rete e ne consente la visualizzazione una volta arrivato.)
Il modo più conosciuto per tracciare un’impronta è il sistema dei cookie, che tutti conoscono perché per legge deve essere segnalato sul sito dove si sta navigando.
Va però aggiunto che questi cookie sono quasi sempre soggetti a domini esterni rispetto a quello su cui il cookie si trova.
Ma che cos’è un cookie?
È una stringa di codice, diversa per ciascuno, che ci viene assegnata ogni volta che siamo su un sito e al cui interno sono contenute le impostazioni dell’utente relative al sito Web visitato.
Quando si ritorna su questo sito i cookie impostati in precedenza vengono di nuovo inviati al sito.
A cosa servono?
Se sul sito di una compagnia aerea effettuiamo una ricerca con la frase: Voli per Londra o treni per Berlino, sul nostro browser viene istallato un cookie con questa richiesta (query).
Il termine query viene utilizzato per indicare l’interrogazione da parte di un utente di un database, strutturato. L’analisi del risultato della query è oggetto di studio dell’algebra relazionale.
Poi, in seguito a questa richiesta, un software istallato sul sito consultato farà uso di tale informazione (Voli per Londra, treni per Berlino) per offrirvi della pubblicità legata alla ricerca, come hotel, noleggio auto, ristoranti centri di shopping, eccetera.
Questo perché il cookie istallato è un cookie di proliferazione.
In ogni modo ci sono sistemi di tracciamento anche più sofisticati come gli LSO (Local Shared Object) più conosciuti con il nome di flash cookie, e gli e-tag, una sorta di database nascosti dentro il browser e usati soprattutto dalle grandi compagnie come Google, Yahoo, Amazon e così via.
Il tag è una sequenza di caratteri con cui si marcano gli elementi di un file per successive elaborazioni. (Da qui la sua definizione più popolare, di sigla apposta come firma dall’autore di un graffito).
Perché tutto questo ci riguarda?
Perché il nostro browser generalmente è farcito di software di cui non sospettiamo l’esistenza e che hanno lo scopo di tracciarci. La pratica di ripulire il proprio browser è importante, ma non risolve il problema.
In linea di massima ogni volta che una tecnologia Web permette a un server di salvare qualche dato all’interno del browser questo può essere usato come sistema di tracciamento.
Ma oggi c’è anche una proliferazione di tipo attivo.
Quando utilizziamo Google Doc o Gmail condividiamo con il server tutte le informazioni sui contenuti, le condivisioni e le modalità d’uso che ne facciamo.
È un tracciamento di tipo attivo di cui abbiamo accettato le condizioni, vale a dire, quei “Termini del Servizio” che nessuno legge mai e che, in sostanza, ci comunicano che, per esempio, Google, con ciò che mettiamo a sua disposizione, si riserva di fare quello che vuole al fine di migliorare il servizio (sic).
Per concludere, dobbiamo PRENDERE ATTO che i servizi che ci vengono promessi come gratuiti non lo sono affatto.
LA MONETA DI SCAMBIO È RAPPRESENTATA DALLA NOSTRA IDENTITÀ – CHE SI COSTRUISCE ATTRAVERSO IL WEB – E DAL CONTENUTO DELLE NOSTRE INTERAZIONI CON GL’ALTRI.
Per interazione sociale intendiamo qui una relazione di tipo cooperativo svolta da due o più attori detti soggetti agenti, che orientano le loro azioni in riferimento ed in reazione al comportamento di altri attori.
Queste relazioni sono caratterizzate da una certa durata, intensità (cognitiva e emotiva) e ripetitività nel tempo.
Il termine trae origine dalla scuola sociale americana ed è in qualche modo l’equivalente di relazione sociale. Vedi: Modelli di interazione / Erving Goffman – (introduzione di Pier Paolo Giglioli) – Bologna, Il Mulino, 1971. 485 p. (Contiene in trad. italiana: Interaction ritual. Strategic interaction.)
***
Lemmi.
Tecnocrazia.
Premessa. La teoria della tecnocrazia è una teoria moderna, ma la sua matrice può essere individuata nella dottrina classica del governo dei custodi.
L’idea della monopolizzazione delle decisioni collettive ad opera dei detentori di saperi specialistici o dotati di una qualche superiorità di tipo cognitivo costituisce un tema popolare nel pensiero occidentale.
Platone è all’origine di una influente tradizione ponendosi con il suo modello del governo dei custodi in opposizione a una concezione della politica ben esemplificata dal mito di Protagora, secondo cui la distribuzione di rispetto e giustizia, che insieme costituiscono la tecnica politica, deve, a differenza delle altre tecniche, andare a beneficio di tutti.
Diversamente da Protagora, che con quella tesi provvede a legittimare il nuovo ordine democratico di Atene, Platone è convinto che, nella misura in cui la politica è una tecnica, essa abbia come tutte le tecniche pochi ed esclusivi detentori.
L’idea di un governo dei custodi fondato sulla coniugazione di potere e sapere attraversa così l’intera esperienza politica dell’Occidente – e non solo nei termini di una proiezione utopica.
Dai consiglieri del principe e dai tecnici della ragion di Stato agli intellettuali delle università, intese come vivaio di scienze utili al governo, s’instaura, come ha scritto Michel Foucault, un nuovo rapporto “tra la politica come pratica e la politica come sapere”, da cui emerge la “possibilità di un sapere specificamente politico”.
Si fa strada così un modello tecnicistico, in cui lo Stato è machina machinarum, ideata dal pensiero filosofico e resa funzionante da una classe di specialisti.
Modello che fornirà la base su cui si svilupperanno, pur nel quadro di una reazione antipolitica, le moderne teorie tecnocratiche.
Il passaggio a queste teorie avverrà tuttavia solo nel momento in cui il progresso delle scienze e delle tecniche investirà la sfera economica della produzione e del consumo, rivoluzionando in profondità le modalità di esistenza e le aspettative di jouissance degli individui.
Il governo dei custodi è, di fatto, il governo di coloro che sanno.
Ma nel corso della storia questo ideale è variato a seconda dei modelli di sapere dominante (la dialettica di Platone, la geometria di Thomas Hobbes, la sociologia di Auguste Comte, la psicologia, come nel racconto utopico Walden two di B. Frederic Skinner), di diffusione del sapere, di organizzazione delle informazioni e di elaborazione dell’identità del gruppo che aspirava al monopolio del potere ideologico.
Fin dall’antichità è un modello di potere (e sapere) che tenta di neutralizzare il peso del passato, di addomesticare la tirannia della tradizione e al tempo stesso di ipotecare il futuro.
Ma è alle soglie dell’età moderna che l’utopia tecnocratica trova la sua prima formulazione nella New Atlantis di Francis Bacon, in cui è delineato l’ideale di una società interamente fondata sulla scienza e sulla tecnica, dai cui progressi dipende il livello del benessere collettivo.
Entro questa cornice trovano collocazione le diverse varianti di ‘tecnocrazia’, ‘sofocrazia’ e ‘ideocrazia’ che compongono l’immaginario utopico e ideologico della modernità.
Ma il quadro di riferimento resta, per quanto concerne la determinazione delle qualità specifiche dell’élite governante, platonico.
Quando Robert Dahl (un politologo americano) individua nella comprensione morale, nella virtù e nella conoscenza strumentale le componenti della competenza politica, possiamo senza difficoltà riconoscere in questo intreccio la connessione tra conoscenza, potere e arte tematizzata da Platone nella sua analisi del sapere politico.
Da sempre l’espressione ‘governo dei custodi’ è stata carica di ambivalenze.
Ancor più ciò si può dire nel nostro secolo, in cui l’espressione è tornata in uso e il concetto è stato discusso sia nella variante autoritaria, antagonistica rispetto alla forma democratica e allo Stato di diritto, del sistema precettorale o tutelare.
Sia nella variante più moderata, coniugabile con la democrazia liberale, che la vede sinonimo di “principio del governo meritocratico”.
Persino la più ristretta nozione platonica dei guardiani-guerrieri è riapparsa nel dibattito intorno a quelle decisioni sulle armi nucleari e la deterrenza che sfuggono al controllo democratico e tendono a essere monopolizzate dai tecnici della strategia.
Anzi, proprio da questa specifica questione ha preso le mosse Robert Dahl nel riproporre e discutere l’alternativa “democracy versus guardianship”.
In tempi più recenti si è richiamata invece la formula del governo dei custodi per definire, nelle democrazie contemporanee, l’anomalia di un (vero o presunto) governo dei giudici, in relazione all’espansionismo del potere giudiziario in generale e alla crescita delle prerogative delle corti costituzionali in particolare (nella loro funzione di custodi delle costituzioni).
Se la figura del custode o del guardiano evocava primariamente l’azione di un protettore armato o la decisione saggia di un sapiente qualificato da una superiorità etica, quella del tecnocrate ha le sue radici nel mondo della produzione e dell’economia, anche se di un’economia non confinata ai processi elementari dell’appropriazione, della produzione e dello scambio, ma potenziata da forme complesse di organizzazione che incorporano sapere.
In entrambi i casi non si tratta comunque di funzioni propriamente specialistiche all’interno di uno schema di divisione del lavoro, ma di una competenza che include un momento generale di sintesi.
Anche se la distanza tra il tecnocrate e il tecnico non è più quella che intercorreva tra il custode platonico e il detentore di tecniche creative, resta vero anche per il mondo moderno che fra i due tipi sociali sussiste una differenza di fondo: mentre il tecnico si qualifica come un esperto del particolare, il tecnocrate va definito (e si definisce) come un esperto del generale.
Riassumendo, la tecnocrazia è una ipotetica forma di governo in cui le decisioni politiche vengono prese da “tecnici”, cioè da esperti di materie tecnico-scientifiche o più in generale da studiosi di campi specifici. Per definizione la tecnocrazia comporta sempre una delega tecnocratica (cioè, operativa).
Etimologicamente la parola tecnocrazia deriva dalle parole potere (krátos) e tecnica (techné).
L’idea di base che sta dietro questa ideologia è che la vita corrente deve essere gestita da esperti competenti nelle varie scienze e tecniche, considerati i soli in grado di proporre le soluzioni migliori.
Come dire l’economia agli economisti, la città agli urbanisti, la salute ai medici.
Ma il problema è: come si decide chi sono gli esperti di chiara fama, considerato che il più delle volte l’appartenenza a una categoria di esperti è determinata da gerarchie e meriti che nella cultura occidentale sono opachi e compromessi?
La caratteristica specifica della tecnocrazia digitale è quella di porsi e di agire come uno strumento di delega dei nostri desideri e di controllo delle nostre capacità cognitive.
La rete ci informa dei libri che vogliamo leggere, dei film che vogliamo vedere, della musica che vogliamo ascoltare. Facebook ci garantisce la possibilità di rimanere “in contatto con le persone della nostra vita” – come recita la sua home-page.
Ci sono poi servizi che si occupano di trovarci un partner sessuale, altri ancora il ristorante dove vogliamo cenare o il viaggio che vogliamo fare.
Può apparire paradossale, ma questa delega tecnocratica è una limitazione delle nostre libertà se pensiamo alla libertà come un problema di scelte.
La tecnocrazia digitale ci blandisce con il miraggio di scelte illimitate, ma poi è essa stessa a scegliere per noi. In cambio di cosa?
In cambio della nostra identità, in cambio di tutti i particolari delle nostre relazioni sociali, dei nostri gusti, delle nostre preferenze.
La tecnocrazia digitale, in sostanza, è una forma politica che si presenta come apolitica.
Come il frutto della ricerca scientifica oggettiva e disinteressata. Un tema che ci riporta all’annosa e per molti versi priva di senso discussione sulle tecnologie buone e cattive.
Ma perché la tecnologia digitale non può essere neutra?
Perché – volenti o nolenti – le macchine e gli algoritmi che le fanno girare riproducono le ideologie dei loro creatori.
Queste macchine sono costruite da individui mossi da interessi economici, politici, ideologici e le interazioni tra gli operatori e le macchine configurano relazioni di potere, un potere prodotto e gestito a scopi di dominio.
Una reazione diffusa di fronte alla tecnocrazia digitale è il luddismo digitale.
Questo luddismo ha vari aspetti.
Uno è quello di imputare alle macchine la responsabilità di aggravare certi rischi legati al loro sviluppo, rischi che non esistevano in passato.
In altri termini, quando gli strumenti tecnologici industriali crescono oltre una certa misura si ritiene che la soglia della loro inutilità cresce ed essi tendono a diventare nocivi.
È stata la posizione di Ivan Illich. (Vienna 1926 – Brema 2002. Uno scrittore, storico, pedagogista e filosofo austriaco. Personaggio di vasta cultura, poliglotta, per la sua vasta conoscenza di svariati idiomi, e storico).
A questo proposito va anche ricordata una posizione ancora più radicale, come quella di John Zerzan (Salem, 1943) un anarchico americano della corrente primitivista.
John Zerzan ha scritto numerosi articoli e saggi di opposizione radicale ad ogni forma di civilizzazione, individuando ciò che c’è da rifiutare nei concetti di agricoltura, linguaggio, pensiero simbolico.
Zerzan rifiuta l’oppressione, che ritiene intrinseca alla civilizzazione, e propone la riconquista di una libertà primordiale ispirata ad un modello di vita preistorico basato sulla caccia e la raccolta, caratterizzato da egualitarismo sociale e abbondanza di tempo libero, oltre che da un maggior benessere fisico e psichico.
I suoi libri più significativi sono: Elements of Refusal (1988), Future Primitive and Other Essays (1994), Against Civilization: A Reader (1998) e Running on Emptiness (2002).
Zerzan, in sostanza, individua nell’avvento della civiltà l’origine di ogni forma di potere, ciò che ha condotto alla domesticazione dell’uomo, degli animali, dell’ambiente.
Si tratta di una macchina sociale che ha introdotto il principio della proprietà, della divisione del lavoro, della legge.
Tale struttura si regge attraverso l’ausilio di alcuni artifici quali il tempo, il linguaggio, la scrittura, il numero, la religione (funzionali all’esigenza alla classe dominante di stabilire i confini delle proprietà, i ritmi di lavoro, la codificazione delle norme).
Ci sono poi i luddisti tecnofili.
Sono quelli che amano e detestano il digitale in uguale misura, se ne servono, ma non vogliono apprenderne il funzionamento.
Fanno il paio con gli entusiasti, con quelli che ritengono che il digitale può essere controllato per il bene di tutti delegandone la gestione a delle istituzioni o degli organismi transnazionali.
In linea generale osserviamo questo.
La tecnocrazia è in sé scientista e non accetta critiche. Chi le contesta viene tacciato di oscurantismo, ingenuità e di paura del progresso.
Essa ha un solo grande obiettivo: il controllo.
Hacker.
L’hacker, in informatica, è un esperto di sistemi informatici e di sicurezza informatica.
In genere è considerato capace di introdursi in reti informatiche protette e di acquisire un’approfondita conoscenza del sistema sul quale interviene, per poi essere in grado di accedervi o adattarlo alle proprie esigenze.
L’hacking è l’insieme dei metodi, delle tecniche e delle operazioni volte a conoscere, accedere e modificare un sistema hardware o software.
Il termine, tuttavia, avendo accompagnato lo sviluppo delle tecnologie di elaborazione e comunicazione dell’informazione ha assunto diverse sfumature a seconda del periodo storico e dell’ambito di applicazione.
Sebbene venga usato principalmente in relazione all’informatica, l’hacking si riferisce più genericamente a ogni situazione in cui è necessario far uso di creatività e immaginazione nella soluzione di un problema.
Al suo nascere la cultura digitale ha fatto spesso ricorso all’aneddotica per spiegare certi suoi singolari punti di vista.
Uno di questi aneddoti definisce che cos’è un hacker.
Consideriamo una fontana con un bel rubinetto.
Le persone in genere sono interessate a ciò che fuoriesce dal rubinetto.
L’hacker, invece, si interessa a come funziona, sarà tentato di smontarlo, valuterà se può aumentare il suo flusso d’acqua, giocherà con l’acqua…
Cosa significa?
Che l’hacking è una questione di attitudine.
I suoi fan si divertono a studiare le macchine, a smontarle, a ricomporle e nel caso di macchine digitali, a scrivere codici per farle funzionare meglio, metterle in contatto, o come dichiarò un hacker a un giudice, nutrirle e dar loro una nuova vita.
Ci sono molti tipi di hacker. I coder sono specialisti in linguaggi e danno vita ai programmi informatici.
I security hacker si occupano in genere delle strategie per bucare o aggirare le protezioni di un sistema. Qualche volte lavorano per garantire e incrementare la sicurezza di grandi aziende, governi, istituzioni…
Gli hacker dell’hardware sono esperti nel costruire macchine saldando, tagliando, assemblando, riparando computer, radio, stereo…
I geek (disadattati) che noi in genere chiamiamo smanettoni, anche se non hanno grandi competenze nella scrittura dei codici, sono capaci di muoversi nei mondi digitali, e usare strumenti come l’ IRC (Internet Relay Chat).
L’Internet Relay Chat (IRC) è un protocollo di messaggeria istantanea su Internet.
Consente, sia la comunicazione diretta fra due utenti, che il dialogo contemporaneo di gruppi di persone raggruppati in stanze di discussione, chiamate canali.
La chat è una forma di comunicazione online durante la quale un utente intrattiene una conversazione con uno o più utenti, in tempo reale e in maniera sincrona, attraverso lo scambio di messaggi testuali o stabilendo una connessione audio/video con essi.
La chat nasce come forma di comunicazione testuale supportata da tecnologia IRC (Internet Relay Chat) che consente la comunicazione sia uno a uno, sia uno a molti.
Questa ultima forma avviene in stanze di discussione o canali (channel), a cui ogni utente accede servendosi di un nickname e conservando quindi l’anonimato. I canali possono essere identificati da un soggetto di discussione specifico, oppure essere semplicemente finalizzati all’incontro con persone sconosciute. L’ambiente virtuale nel quale avviene la conversazione si definisce chatroom.
Alle chat basate su tecnologia IRC si sono nel tempo aggiunte le chat basate su altre tecnologie ospitate da server autonomi, definite web chat e le chat basate sui servizi di messaggistica istantanea.
Tali piattaforme – come MSN Messenger, Google Talk, Skype – integrano funzionalità di posta elettronica, trasmissione dati, interazione audio-video con l’interlocutore e consentono di arricchire con le emoticon il linguaggio puramente testuale tipico di IRC.
Identità digitale.
L’identità digitale è, di fatto, la base dei profitti del web 2.0.
(Il termine, apparso nel 2005, indica la seconda fase di sviluppo e diffusione di Internet, caratterizzata da un forte incremento dell’interazione tra sito e utente.
Vale a dire: (uno) Maggiore partecipazione dei fruitori, che spesso diventano anche autori (blog, chat, forum, wiki). (due) Più efficiente condivisione delle informazioni, che possono essere più facilmente recuperate e scambiate con strumenti peer to peer o con sistemi di diffusione di contenuti multimediali come Youtube. (tre) Sviluppo e affermazione dei social network.)
Possiamo dire che l’architettura del web 2.0 ha avuto come obiettivo principale quello di pensare l’identità degli utenti.
Come abbiamo già visto, la raccolta delle informazioni sulle identità, attraverso le tecniche del profiling, costituisce ciò su cui si fondano i profitti delle società di servizi gratuiti online.
Come abbiamo già detto, il web 2.0 è gratuito, ma se il servizio è gratuito allora la merce sei tu.
Come si fa a trasformare un utente in merce?
Con la reificazione, un concetto che sotto un’altra forma costituisce uno degli argomenti della teoria critica della società elaborata nel secolo scorso soprattutto dalla Scuola di Francoforte.
Occorre cioè rendere l’utente un oggetto di studio misurabile.
Creare di esso un modello semplificato sul quale poter compiere elaborazioni come si fa con un insieme di dati.
L’aspetto di questo problema che non va sottovalutato è questo.
L’identità – come è mostrato dalle scienze sociali – è un concetto complesso, costituisce il frutto delle relazioni in cui viviamo. Come si fa a renderla misurabile?
Con la profilazione, vale a dire con quella tecnica che permette di identificare i singoli utenti e catalogarli in base al loro comportamento.
Ecco il trucco: l’utente viene reificato (messo a nudo) attraverso il suo comportamento.
Analizzando la nostra condotta sono registrate le nostre azioni il cui significato è calcolabile attraverso la costruzioni di parametri.
In altri termini, sul web commerciale noi siamo quello che facciamo.
Dal più piccolo movimento del mouse fino al tempo che passiamo senza far nulla sulla schermata di una pagina web.
Va anche rilevato che nei panottici digitali del web il credito e la visibilità sono direttamente proporzionali a quanto noi riversiamo sui framework, la piattaforma che funge da strato intermedio tra un sistema operativo e il software che lo utilizza.
Più il nostro account è raffinato, più ci personalizziamo, maggiore sarà il dettaglio della nostra immagine profilata sui data center delle aziende che conservano i nostri dati.
(L’account è il complesso dei dati identificativi di un utente. Quei dati che gli consentono l’accesso a un servizio telematico. L’account di posta elettronica, in particolare, è il nome e la parola d’accesso per poter usufruire del servizio di posta).
Esistono da questo punto di vista due copie della nostra identità.
Una è quella che vediamo sullo schermo del nostro computer, che aggiorniamo e attraverso la quale ci rapportiamo con gli altri. È, di fatto, l’identità con la quale ci presentiamo nell’infosfera.
L’altra è quella che sta sul server, è molto più estesa perché conserva in memoria ogni nostro dettaglio a partire dalle interazioni, dalle correzioni e dalle osservazioni passive che abbiamo svolto.
Panottico digitale.
Panottico (un’espressione che deriva dal greco) indica la capacità di vedere tutto (pan + optikon). L’uso di questa espressione deriva dall’architettura.
Lo spazio panottico è lo spazio architettonico pensato in modo da controllare in modo totale tutto ciò che è posto al suo interno senza essere visti.
Michel Foucault – parlando delle sue tesi sulla società disciplinare nel libro Sorvegliare e punire – analizza l’architettura panottica che Jeremy Bentham aveva immaginato sul finire del XVIII secolo come modello di carcere ideale.
È un’idea di reclusione che suppone la possibilità di manipolare il comportamento delle persone senza un intervento diretto, ma solo sottoponendo gli individui a un regime di visibilità costante.
Si tratta, in breve, di un’idea di architettura che ha l’obiettivo di fabbricare individui obbedienti.
Questa idea fornisce la formula per una generalizzazione che parte dal carcere e arriva alle altre istituzioni disciplinari come sono la scuola, l’esercito, l’ospedale, la fabbrica, l’ufficio…
Se dovessimo indicare quale tecnologia oggi rappresenta e sviluppa le caratteristiche della disciplina panottica non potremmo non dire il web 2.0.
Il web dei servizi gratuiti che si basa sul controllo e la manipolazione degli utenti.
Va aggiunto che come media sociale si tratta di un luogo in cui entriamo senza esservi costretti e senza l’obbligo di consumare.
Questo luogo ha la stessa configurazione di un panottico:
– il potere che lo muove è inverificabile e sempre sul chi vive;
– gli spazi sono ridotti al minimo e uguali per tutti;
– i movimenti possibili sono rigidamente prestabiliti.
Il panottico digitale è in quest’ottica la continuità del panottico disciplinare, ma sostituisce l’obbedienza con la performance.
In questo spazio paraideale in cui non esistono più gl’altri della tradizione sociale – gli stranieri, gli anormali, i devianti, gli abietti – perché sono stati inglobati in categorie compatibili come sono gli amici, i followers, le persone della tua vita.
È una grande rappresentazione interconnessa senza distinzioni di razza, reddito, classe, età, orientamento sessuale.
È un unico grande frame.
Un’unica matrice per operazioni la cui semplicità è, allo stesso tempo, perfetta e sospetta, che da una sensazione di egualitarismo e democrazia.
La vera differenza tra il panottico disciplinare e quello digitale sta nel piacere.
Il piacere di una comunità operosa, dove il singolo non è prigioniero, ma è stimolato a esprimere la propria diversità.
Come ha osservato Foucault la quantificazione numerica crea piacere. Il consumo di questo piacere reso in senso sociale crea un reddito psichico che ci fa sentire più ricchi e ottimisti.
Quantified Self.
È un movimento nato in rete per incorporare la tecnologia nell’acquisizione di dati relativi a ogni aspetto della vita corrente.
Il motto di questo movimento è: self knowledge through numbers.
Nata nel 2007 su iniziativa della rivista Wired la pratica del lifelogging (la pratica di registrare le immagini di una vita in senso biologico) grazie alla diffusione di dispositivi bio-metrici connessi alla rete globale ha consentito un balzo in avanti del monitoraggio delle attività biologiche.
In principio fu il blog.
Ma adesso, dopo che i social network come Facebook e Twitter hanno elevato il “web-log”, ossia il “diario online”(questo il significato del termine) a fenomeno universale, è arrivato il momento del lifelog: il diario della propria vita per immagini da postare tutto intero su internet.
Una nuova microvideocamera digitale che si può attaccare ai vestiti, in grado di effettuare automaticamente due foto al minuto, permette di mettere in rete tutto quello che facciamo 24 ore al giorno.
Prodotta dalla Memoto, una start-up americana, crea – se uno la “indossa” per più o meno dodici ore al giorno (ovvero se la si tiene sempre accesa, tranne quando si dorme) – quattro gigabyte di nuovo materiale ogni 24 ore.
La mini macchina fotografica scatta 10 mila immagini alla settimana, 40 mila al mese, mezzo milione all’anno.
Volendo, si può fare in questo modo la “cronaca fotografica” di una vita intera, due foto al minuto dalla culla alla tomba, pari all’incirca a 40 milioni di fotografie: mentre mangiamo, studiamo, lavoriamo, chiacchieriamo, giochiamo, facciamo l’amore.
Sarà il “lifelogging”, si è chiesta la Bbc illustrando il nuovo fenomeno, la prossima mania del web?
Per gli ottimisti, come Martin Kallstrom, fondatore e presidente della Memoto, significa che non avremo più bisogno della memoria cerebrale per ricordare la nostra esistenza: basterà scaricare su internet e salvare l’archivio digitale di parole, suoni e immagini che scorre come un doppione, come una “second life”, accanto alla nostra vita reale, di cui è lo specchio fedele.
Per i pessimisti, tuttavia, questa “information overload”, questo carico eccessivo di informazioni digitali, può diventare una minaccia sociale, perché ogni parvenza di privacy va in frantumi nel momento in cui viene condiviso con altri utenti sul web.
In altri termini, può funzionare una società in cui, perlomeno teoricamente, tutti sanno tutto di tutti (o almeno possono saperlo) con un semplice clic del mouse o semplicemente premendo i polpastrelli su uno schermo?
Una cosa è certa: le nuove frontiere della comunicazione digitale si spingono sempre più avanti, sempre più in fretta.
La Memoto ha prodotto il congegno temporaneamente più piccolo, ma non è certo l’unica azienda dell’IT, cioè dell’information technology, a operare nel campo del lifelogging.
La Microsfot ha creato una minivideocamera chiamata SenseCam che scatta automaticamente una foto ogni 30 secondi in maniera analoga.
Google Glass e Twitter offrono strumenti per filmare e postare in modo simile ogni attimo della nostra giornata.
“L’osservazione di massa sta diventando una tendenza globale”, osserva il professore Henry Jenkins, docente di studi sui nuovi media alla University of Southern California. “Viviamo in una cultura più esibizionistica ma al tempo stesso ci sono persone a disagio davanti a tutta questa mole di informazioni”.
Il timore è quello che il Grande Fratello immaginato da George Orwell nel suo romanzo futuristico “1984” non sia più un occhio che vigilia dal di sopra sull’esistenza umana, ma un minuscolo gadget che ciascuno di noi porterà volontariamente all’occhiello.
Tuttavia vanno considerati anche gli aspetti positivi: le immagini digitali riprese con i telefonini da centinaia o migliaia di spettatori hanno aiutato la polizia a individuare rapidamente gli autori dell’attentato all’arrivo della maratona di Boston.
È un fenomeno che gli esperti chiamano “sousveillance”, il contrario di surveillance (sorveglianza). Invece di un governo che ci guarda dall’alto, ci sono gli individui che guardano dal basso, magari per mettere su internet il lifeblog della propria vita.
(Tratto da La Repubblica, aprile 2013).
Ogni aspetto vitale è definito in termini di input, stati o condizioni, performance, quantità di cibo consumato, qualità dell’aria respirata, umore, eccitazione, eccetera.
I sensori si possono indossare e sono in grado di monitorare l’attività fisico-chimica dell’organismo, sequenziare il DNA e le cellule microbiche che abitano il corpo.
Il desiderio e la ricerca della verità del sé – che ha la sua culla nell’insegnamento delfico GNOTHI SEAUTON (conosci te stesso) si sta trasformando in uno strumento di auto-addestramento.
Misurare le manifestazioni fisiologiche del proprio corpo con gli strumenti di monitoraggio digitali, tenere una traccia costante del proprio corpo organico serve solo al confronto profilato.
Società della prestazione.
È una società nella quale si misura, si quantifica e si restituisce una valutazione di ogni azione compiuta e senza soluzione di continuità con l’obiettivo di aumentare il livello delle prestazioni.
Il controllo delle prestazioni avviene o attraverso sistemi di misurazione automatici o attraverso altri utenti che provvedono a valutare la performance con i loro contributi.
In sintesi la società attuale esige dagli individui un livello di prestazioni in costante crescita.
Non solo dobbiamo avere un reddito adeguato, ma anche una forma fisica ottimale.
Siamo costantemente spinti a migliorare la nostra salute, a creare nuove opportunità di amicizia, a frequentarci.
Con le debite proporzioni le stesse cose sono richieste alle nazioni.
Devono mostrarsi in continua crescita, esibire uno sviluppo economico senza flessioni, sapersi battere con successo sui mercati finanziari.
Questa affermazione di una società della prestazione è stata resa possibile dal costante miglioramento dei sistemi di raccolta e misurazione dei dati.
In questa società sfumano sempre più le distinzioni fra digitale, analogico, online, offline, umano, meccanico.
Sappiamo anche che in questa società il nostro cercare la soluzione giusta modifica la soluzione come cercare l’offerta giusta modifica l’offerta stessa.
C’è però un altro aspetto da considerare.
È la sostituzione, di fatto, dei vecchi mediatori dell’informazione – editoria, radio, tv, cinema – con Google, Amazon, Facebook, Apple, Microsoft.
Questa sostituzione aumenta in modo esponenziale l’enorme asimmetria di interazione tra individui e le grandi corporazioni transnazionali.
Il risultato di queste deleghe alle organizzazioni corporative (da parte di settori sempre più ampi della società) è che tutte le informazioni fornite dagli individui in maniera più o meno volontaria vengono registrate e immagazzinate per diventare una parte importante dei Big Data.
In questa prospettiva le cosiddette nuvole di computer dove si condensano i servizi sociali sono in realtà distese di macchine protette da guardie armate.
Proviamo a riflettere.
Il costo delle nuvole è notevole come sono costosi i servizi offerti nel web2.0, così anche se lo stoccaggio, il recupero e l’aggiornamento sembrano gratuiti, di fatto non lo sono.
Il successo di questa tecnologie sta nel fatto che si prendono cura della nostra identità, o meglio, della nostra identità digitale.
Queste tecnologie ci conoscono meglio di quanto noi non conosciamo noi stessi e sanno suggerirci con grande precisione i libri da leggere, i film da vedere, i luoghi da visitare, i modelli di vacanza, i ristoranti adatti ai nostri gusti.
Un paradosso significativo, che nessuno affronta, sta nel fatto che le pratiche di profilazione sono antitetiche ai principi della privacy, oltre che opache.
Va aggiunto che i sistemi tecnosociali sono co-evolutivi, nonostante la loro frammentazione verso il basso – com’è quella che produce la lingua o le abitudini legate alla tradizione – e la direzione verso la quale muovono è una sola: l’aumento delle prestazioni dell’utente che controllano.
Questa è la ragione per la quale siamo costantemente chiamati a dichiarare quello che vogliamo e questo vuol dire che dobbiamo adattarci all’ideologia della trasparenza.
La profilazione viene in genere accettata come inevitabile. Ma c’è di più.
I processi decisionali degli individui sono assistiti, guidati, fusi con il dominio degli algoritmi. Cosa significa?
Che singoli individui e gruppi delegano a queste procedure la creazione di collegamenti tra le persone e le cose del mondo.
L’Internet of Things, l’internet delle cose rappresenta oggi la nuova frontiera di una socialità reificata.
Il frigorifero può fare la spesa da solo perché conosce i gusti dei suoi proprietari, verifica che un certo prodotto consumato regolarmente sta finendo e può collegarsi con i fornitori.
Il nostro smartphone sa come guidarci alla scoperta di una città che non conosciamo, come suggerirci locali o attrazioni.
Che cosa significa?
Che ci muoviamo in un mondo di significati grazie a relazioni costruite per noi e gestite da algoritmi. Algoritmi in mano a privati sconosciuti e sottratti a dei controlli democratici, cioè accettati e condivisi.
Tutto questo non significa rimpiangere un’utopica armonia e non significa certo ignorare che la storia dell’uomo è anche la storia della tecnica e dell’invenzione di linguaggi.
Da un punto di vista fenomenologico storia è sinonimo di età dell’informazione. Ne consegue che la storia, di fatto, inizia con le pitture del neolitico e prosegue con l’invenzione della scrittura in Mesopotamia. Ma è solo di recente che la vita sociale e il progresso hanno cominciato a dipendere dalla gestione del ciclo di vita dell’informazione.
Vuol dire, al contrario, mettere in luce che la società delle prestazioni si basa su sistemi di condizionamento molto efficaci, ma di cui ignoriamo le conseguenze.
Paradossalmente, invece di punire le infrazioni alle regole, si premiano le prestazioni e il conformismo.
Si accettano sistemi che si presentano come giochi, classifiche, performance.
Da un punto di vista psicologico le persone tendono sempre più a comportarsi come macchine, vale a dire, a reagire in maniera irriflessa e automatica.
Di contro i socialbot che simulano gli utenti dei social network sono sempre più indistinguibili dagli umani.
Il bot (abbreviazione di robot) in terminologia informatica è un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani (per esempio, che accede alle pagine Web, invia messaggi in una chat, si muove nei videogiochi, e così via).
I social bot sono dei bot (cioè, qualsiasi software in grado di automatizzare delle azioni normalmente compiute da utenti umani) che vengono programmati per agire sui social network.
Ne esistono molti tipi che è possibile raggruppare in tre macro categorie in base alla funzione specifica per cui sono stati creati:
Spambots (quelli che spammano contenuti vari).
Paybots (pagati per portare traffico, spesso copiano tweet aggiungendo una short-URL che non c’entra con il contenuto e rimanda al sito pagante).
Influence bots (influenzano le conversazioni relative a un determinato argomento, gonfiano campagne marketing o hashtag per motivi che possono andare dalla semplice promozione alla propaganda politica).
Per le scienze sociali la “delega tecnocratica” favorisce l’emergere di pseudo-soggettività e di identità eteronomiche, cioè, che ci vengono imposte e che risultano superficiali e semplificate.
Va anche osservato che gli occhi sono gli unici organi di senso direttamente collegati al cervello e che la plasticità celebrale è continuamente stimolata dal visuale.
In questo modo il cervello si modifica, con la conseguenza che le persone imparano e sentono in maniera diversa.
Ciò non dipende dall’età anagrafica – l’espressione di nativi digitali è solo una formula efficace a sottolineare le nuove forme di apprendimento tecnologico delle giovani generazioni – ma dall’utilizzo massiccio della memoria procedurale nell’interazione con i new-media.
Più semplicemente dalle ripetizioni procedurali interattive pensate da altri – sconosciuti – per scopi precisi – profilazione e profitto – che assumono la forma di ritualità ossessive.
Uno degli effetti più vistosi di questo ordine di cose è l’alterazione della coerenza narrativa che finisce per compromettere l’autonomia degli individui.
Come dicono i critici, si tratta di imparare a gestire le sirene dell’automatizzazione per evitare di essere mercificati.
Comunità e condivisione.
Comunità è una delle espressioni più ricorrenti della rete. Tutto ciò che si rivolge al singolo ha una community di riferimento. È una sorta di a-priori che garantisce la nostra collocazione sociale.
Va però notato che la parola inglese community è ambigua e non ha nessun riferimento con il sociale o la socialità. Semplicemente indica una comunità di consumatori.
L’analogia con la comunità sociale deriva dal fatto che l’architettura digitale imita lo spazio pubblico come se fosse la piazza di una città.
In breve, l’obiettivo dei media sociali è quello di raccogliere informazioni per disegnare un profilo identitario degli utenti il più realistico possibile e siccome questa identità si costruisce in relazione con gl’altri – l’uomo è per definizione un animale sociale – è essenziale che il soggetto sia inserito in un contesto che faciliti la comunicazione reciproca.
Chiamiamo questo spazio così costruito una community.
L’obiettivo di una community è la creazione di una comfort zone che faccia sentire l’utente un privilegiato. Questo però non deve farci dimenticare che le comunità mediatiche sono più simili a comunità di sudditi che a comunità di cittadini
La community si lega a un altro tema.
In informatica condividere significa mettere a disposizione, da parte di chi ne ha la competenza, un’opera o un artefatto digitale da lui creato.
La condivisione nasce negli anni Settanta, ma si diffonde velocemente quando vengono commercializzati i primi personal computer. È tanto popolare da diventare una sorta di movimento politico, poi con il free software diviene una sorta di economia del dono.
Da qui il passaggio commerciale all’open source per arrivare all’ultima metamorfosi, quella di una sharing economy.
Dunque, alla lettera condividere significa mettere in comune un artefatto.
Quando “condividiamo” un file su una piattaforma stiamo solo spostando una cosa da un posto a un altro.
Un prodotto che ha fatto la storia della condivisione in rete è il sistema operativo Unix – l’ispiratore di Linux – nato alla fine degli anni ’70 nei laboratori della Bell.
Siccome alla AT&T (proprietaria della Bell) fu proibito di entrare nel settore dell’informatica Unix venne venduto a un prezzo simbolico alle università le quali si ritrovarono ad avere una piattaforma comune completa di codice sorgente.
Per queste ragioni e in modo spontaneo si creo una rete di collaborazioni attorno al codice di questo sistema operativo coordinata dall’Università di Berkeley e questo può essere considerato un primo grande momento di condivisione.
Ma poi tutto finì e furono impedite anche le pratiche del patch.
È la toppa, ovvero una modifica effettuata al codice per farlo funzionare meglio. Patchare un programma significa questo.
Digital labour.
Labour qui va inteso come fatica, come lavoro contrapposto a capitale, dunque lavoro nel senso di sfruttamento più che di impiego.
Il digital labour è un’espressione che risale ai primi anni di questo secolo, non va confusa con il digital work che si riferisce ai lavoratori del settore informatico. È una forma di lavoro ambigua e opaca, scovarla consente di denunciare forme di sfruttamento che non sono evidenti.
Di essa non esiste una definizione unanimemente accettata.
Nel caso del lavoro uberizzato i profitti della piattaforma Uber – ma anche i servizi di recapito di cibo a domicilio o di AirBnB – non coincidono con il plus valore derivato dalla differenza tra capitale investito e profitto ottenuto.
Uberizzazione. Con questa espressione si intende la trasformazione di servizi e prestazioni lavorative continuativi, propri dell’economia tradizionale, in attività svolte soltanto su richiesta del consumatore o cliente. Una trasformazione del lavoro sul modello dell’attività economica caratteristico della multinazionale Uber.
Airbnb è un portale online che mette in contatto persone in cerca di un alloggio o di una camera per brevi periodi, con persone che dispongono di uno spazio extra da affittare, generalmente privati. Il sito fu aperto nell’ottobre del 2007.
La questione del digital labour si fa ancora più complicata con i media sociali.
Apparentemente il loro uso è un’attività di svago, non a caso a questi media si connettono molti utenti (più o meno discretamente) durante l’orario di lavoro retribuito.
Per comprendere la questione occorre partire dal concetto di “merce-audience” (audience commodity) elaborato dal sociologo canadese Dallas Walzer Smythe alla fine degli anni ’70 a proposito della televisione e della radio. Smythe è stato un esperto di economia politica della comunicazione. La misurazione dell’audience in questo contesto è cruciale perché è il cuore stesso del modello commerciale di questi due media.
Il consumatore può divertirsi a guardare gratuitamente un film perché il suo tempo di attenzione costituisce una parte della merce venduta.
Questo comporta il fatto che occorre saper scegliere cosa diffondere in rete per ottenere la massima attenzione possibile dal maggior numero di spettatori.
Secondo Smythe il tempo passato guardando la televisione è, nel mondo occidentale, qualcosa di assimilabile al lavoro perché i telespettatori – loro malgrado – svolgono compiti essenziali di marketing per i produttori di beni di consumo.
A maggior ragione in una società digitale il soggetto – una volta effettuato il login – diventa un produttore e un contributore.
Guidato dall’interfaccia l’utente contribuisce, attraverso la proliferazione a cui si presta, con un messaggio, un commento, una foto, ma soprattutto con il suo tempo di attenzione, a modellare in maniera sempre più precisa la merce venduta dagli inserzionisti.
Sul tema del digital labour rinviamo ai lavori di Tiziana Terranova, ricercatrice e docente presso l’Università degli Studi di Napoli dove insegna Sociologia delle comunicazioni, Studi culturali e postcoloniali e Teorie culturali inglesi e nuovi media.
La Terranova si occupa anche di sottoculture tecnologiche, di cyberpunk, di newsgroups e di cultura tecno californiana.
Aggiungiamo che Tiziana Terranova vede nello spazio informatico non tanto un territorio istituzionale da conquistare (come la televisione all’epoca della lottizzazione) quanto un ambiente dinamico con cui attivamente confrontarsi.
Sono concetti sviluppati nel volume Culture Network.
******
Appunti di cultura digitale.
Intorno alla metà del ‘700 in molte città europee si cominciò, strada dopo strada, a numerare le abitazioni in ordine crescente, erano nati i numeri civici.
Più che per problemi postali o dei singoli cittadini questo provvedimento veniva incontro alle richieste del fisco e delle forze dell’ordine per mappare, come si direbbe oggi, rintracciare e identificare facilmente le persone.
Ci furono, soprattutto nella mitteleuropea, molte proteste di cittadini contrari a questa misura che in alcune circostanze era anche discriminatoria, come nel caso degli ebrei di Boemia, obbligati a usare per la numerazione delle case i numeri romani anziché quelli arabi.
È facile immaginare i mille sotterfugi che furono inventati, come rompere la targa con il numero, metterla capovolta, così che il sei diventa nove, imbrattarla di vernice o di fango, eccetera.
A Parigi fu Napoleone che introdusse i numeri civici nel 1805.
Walter Benjamin nel suo Parigi, capitale del diciannovesimo secolo, racconta che nei quartieri proletari questa misura fu subito percepita come repressiva e che gli artigiani – con in testa quelli del fouburg Saint-Antoine – si rifiutavano di usare il numero della loro abitazione come indirizzo.
Charles Baudelaire – il poeta de I Fiori del male – definì questa numerazione come un’intrusione criminale nella vita quotidiana dei cittadini, possiamo aggiungere non senza un qualche interesse, considerato che era perennemente assediato dai creditori che volevano essere pagati e che lui evitava cambiando spesso il suo indirizzo.
L’analisi di Benjamin, però, è più complessa.
Per questo grande saggista europeo anche l’invenzione della fotografia è un punto di svolta nello sviluppo del controllo amministrativo e identificativo che dovrebbe essere affrontato in modo specifico.
Queste osservazioni sulla nascita della numerazione stradale ci mostrano l’enorme distanza che separa quei giorni dall’epoca nella quale viviamo, caratterizzata dalle identità digitalizzate e geolocalizzate.
Possiamo dire che mai come oggi, nella storia dell’umanità, si è disposto di una quantità così enorme di informazioni immagazzinate su i fenomeni e i comportamenti sociali, che confluiscono nell’area dei Bigdata.
Da almeno una generazione, con piccole quantità di dati, algoritmi e macchine di analisi, siamo in grado di estrapolare informazioni mirate, ma i Bigdata hanno reso obsoleto questi metodi mettendoci nella condizione – mai avuta prima – di possedere una quantità di dati maggiore di quella che i mezzi più accessibili ci permettono di gestire.
Vediamo qualche grandezza.
Nel 2000 – l’anno di nascita dei nativi digitali – le informazioni registrate erano per il 25 per cento supportate da un formato digitale e per 75 per cento contenute su dispositivi analogici (carta, pellicola, nastri magnetici, ecc…)
Nel 2013 le informazioni digitalizzate erano stimate intorno ai 1200 exabyte, vale a dire erano il 98 per cento, mentre quelle analogiche si erano ridotte al 2 per cento.
La mole delle informazioni digitalizzate è tale che se le stampassimo su carta coprirebbero una superficie grande come cinquanta Stati Uniti.
A parte il volume delle informazioni c’è da considerare che questi dati fanno capo a pochissimi soggetti, sono concentrati in pochissime mani.
Cosa vuol dire? Che Facebook – per fare un esempio – ha collezionato il più grande insieme di dati mai assemblati sul comportamento sociale delle persone.
CHE, con molta probabilità, ALCUNE DELLE NOSTRE INFORMAZIONI PERSONALI NE FANNO PARTE.
La caratteristica di questi dati – oltre alla loro quantità – sta nel fatto che essi provengono da fonti diverse e sono “estratti” con metodi diversi, in questo modo costituiscono un dataset complesso e allo stesso tempo destrutturabile, che richiede, per essere sfruttato, elevate capacità di calcolo e di efficienza algoritmica.
Va aggiunto che i dati non provengono solo dagli addetti ai lavori, ma anche alle azioni quotidiane di milioni di utenti digitali che non ne sono consapevoli o non se ne rendono conto.
Tutto questo va considerato tenendo presente il carattere pervasivo (nel senso che tende a diffondersi ovunque) delle nuove tecnologie di cui non siamo, per ora, capaci di immaginare gli scenari.
Non per caso molti sociologi parlano di una “dittatura planetaria degli algoritmi” che nella sostanza favorisce le disparità economiche e i soprusi sociali.
La polizia di Los Angeles, per esempio, da qualche tempo a questa parte sta implementando un programma chiamato Predpol che grazie all’analisi dei dati dovrebbe riuscire a prevedere i crimini.
Per ora i risultati non sono stati soddisfacenti e spesso sono stati distorti dai pregiudizi razziali che hanno accompagnato la raccolta dei dati, ma torneremo sull’importante tema dei bias.
Implementare, dall’inglese (to) implement, a sua volta del lat. implēre “condurre a termine”, si usa quando si rende eseguibile un programma attraverso la formalizzazione dell’algoritmo risolutivo.
La digitalizzazione (e quindi l’automazione dei processi, così come la ratificazione delle esistenze), richiede capitali enormi tale da renderla un’attività altamente selettiva e qualificata, ma il danno più grave la digitalizzazione lo produce a livello della precarizzazione del lavoro cultuale e cognitivo individuale.
In altri termini la digitalizzazione rende sempre più simbiotico il rapporto tra mente e macchina e accentua l’importanza del lavoro di gruppo eterodiretto.
Ma c’è di più.
La data e sentimental analysis mostra come oggi l’estrazione dei dati che determinano i flussi è un lavoro complesso e molto lungo che produce un plusvalore (Nella terminologia marxiana, la differenza tra il valore del prodotto del lavoro e la remunerazione sufficiente al mantenimento dei lavoratori, della quale, in regime capitalistico, si appropriano gli imprenditori) non solo a partire dal singolo individuo, ma anche dal valore aggiunto di milioni di corpi e di menti messe in relazione.
Ricordiamolo:
SE NON PAGHI, IL PRODOTTO SEI TU!
Facebook e Google sono gratis, ma solo per il fatto che a lavorarci siamo anche noi quando li usiamo.
È una sorta di neo-potere, caratteristico delle piattaforme, che ha dato vita a un nuovo potere politico ed economico tale che le proprie policy di utilizzo si trasformano di fatto in leggi internazionali.
(Con policy si indica un insieme di azioni (ma anche di non azioni) poste in essere da soggetti di carattere pubblico e privato, in qualche modo correlate ad un problema collettivo privato o pubblico).
Queste piattaforme, grazie alla loro tecnologia, forniscono servizi basati su standard che spesso sono superiori a quelli dei servizi classici – sia privati che pubblici – innescando, senza che ce ne rendiamo appieno conto, processi di privatizzazione consensuale, silenziosi e inavvertiti.
Tra l’altro, questo è il motivo per cui i padroni del web si stanno imponendo nella ricerca scientifica e nella formazione.
E questa è la causa di un conflitto in atto – inedito nella storia moderna: degli Stati nazionali contro le piattaforme transnazionali.
C’è da aggiungere che – in virtù della sua deterritorializzazione – si è anche sviluppata una sorta di etica hacker anarco-capitalista che ha come obiettivo un mercato digitale libero da ogni regolamentazione.
A questo proposito va osservato che la grossa capacità di calcolo e di elaborazione dei dati possono consentire alle grandi aziende dell’informatica di fornire analisi in qualunque settore, potendo attingere non solo alle risorse del proprio recinto di dati, ma anche da fonti ad accesso libero.
In realtà la produzione di dati a mezzo di dati fa si che la volontà di offrire piattaforme aperte è più che altro una forma di capitalismo travestito di buonismo, nel quale il lavoro individuale diventa una opportunità di contribuire al loro progresso.
Perché?
Perché il meccanismo alla base delle nuove forme di intelligenza artificiale è il cosiddetto apprendimento automatico o machine learning.
Per capirci, mentre nell’algoritmica classica la macchina esegue determinati compiti prefissati da un ordine, nel machine learning l’algoritmo si nutre in modo autonomo di dati, dati che sono la sua materia prima.
Facciamo un esempio, se vogliamo creare un programma che sappia distinguere le foto degli asini da quelle dei cavalli, occorre metterlo in condizione di esaminare un enorme dataset di immagini di asini e di cavalli.
L’algoritmo studierà queste foto contrassegnate da un etichetta che li distingue “riequilibrandosi” in continuazione in modo da commettere sempre meno errori possibili di riconoscimento.
Alla fine sarà in grado di distinguere con una buona approssimazione un asino da un cavallo da una foto che non ha mai visto.
L’importanza di questo processo è che può essere applicato a qualunque cosa inerte o vivente,
sia esso il software per riconoscere una traccia musicale, come per identificare una persona partendo da come cammina o per come parla.
L’unica cosa di cui abbiamo bisogno è un dataset sufficientemente grande di informazioni adatto al contesto.
Lo stesso processo può poi essere applicato al sentiment analysis ovvero a quei sistemi sviluppati per determinare il livello di “positività” o di “negatività” di un testo.
Un’analisi importantissima sia nel mondo della pubblicità, come in quello della politica e della diplomazia.
Questo perché siamo tutti, nessuno escluso, produttori di dati e di relazioni che entrano in modo sempre più diretto nei processi di accumulazione capitalista legati ai Bigdata o per via di espropriazione o per via di assoggettamento.
(Gottfried Leibniz (Lipsia 1646 – Hannover 1716) è stato un matematico, filosofo, logico, giurista storico e magistrato tedesco di origine soroba o serba.
A lui dobbiamo il termine di funzione che egli usò per individuare le proprietà di una curva. Leibniz, assieme a Newton, è colui che sviluppò il calcolo infinitesimale e in particolare il concetto di integrale.
È considerato il precursore dell’informatica e del calcolo automatico e fu l’inventore di una calcolatrice meccanica detta macchina di Leibniz . È considerato uno dei più grandi esponenti del pensiero occidentale).
È stato Leibniz il primo a cercare di elaborare un modello logico capace di risolvere con un calcolo qualunque problema. Oggi, per gli ingegneri della Silicon Valley, ma soprattutto per i proprietari dei dati e delle macchine di calcolo, questo è un mito che appare se non vicino, perlomeno pensabile.
Un po’ di cronaca. Nel 2008 su Wired fu pubblicato l’articolo – ora celebre – di Chris Anderson che annunciò l’era dei Petabyte.
Il Petabyte è un’unità di misura dell’informazione o della quantità di dati.
Il termine deriva dalla unione del prefisso SI peta con byte e ha per simbolo PB.
Il prefisso peta deriva dal termine greco penta e sta ad indicare 1000 alla quinta.
Perché sono importanti i Petabyte?
Perché hanno reso obsoleti molti aspetti del metodo scientifico classico e dell’elaborazione di modelli teorici, sostituendoli con l’analisi dei dati.
Perché hanno creato una nuova forma di fiducia verso gli algoritmi e la correlazione statistica delegando – di fatto – alla macchina la capacità di analisi che si credono obiettive.
L’algoritmo valuta l’efficacia dei manager o degli insegnanti. Come investire in borsa. Quando vi ammalerete e, con buona approssimazione, perché.
Ci ricorda cosa ci piace, quale musica ascoltare, quali libri acquistare.
Dov’è la zona oscura?
L’algoritmo, in ultima analisi diventa il nostro critico, il nostro esperto, il nostro giudice.
Per dirla in maniera più tecnologica l’algoritmo apprende, elabora, costruisce una “scatola nera” capace di valutazioni e di fornire risultati senza che il programmatore sia a conoscenza dei criteri che portano al risultato finale.
Che cosa interessa in modo specifico di questo processo alla sociologia?
Che nella fase di apprendimento la macchina si appropria anche di bias, distorsioni ed errori che possono essere nel dataset di partenza.
È un caso di scuola il caso di Tay, il Twitter-bot di Microsoft che fu ritirato perché antisemita.
In informatica il significato di bot (da robot) si è trasformato nel tempo.
Inizialmente indicava un software usato per svolgere automaticamente attività ripetitive su una rete, ad esempio un mailbot risponde con messaggi automatici a e-mail inviati a uno specifico indirizzo di posta elettronica.
Oggi il bot descrive anche programmi che possono interagire autonomamente con sistemi o utenti, come i bot sui social che simulano persone reali.
I bot di Twitter (Twitter bot) gestiscono automaticamente account e sono programmati per comportarsi come utenti umani: seguono altri account, ri-twittano e generano automaticamente contenuti e se malevoli possono anche diffondere notizie false e sfruttare hashtag e parole chiave degli argomenti più popolari per inserirsi aggressivamente in scambi tra persone reali e provocarne le reazioni.
Secondo gli americani sono quelli che sono intervenuti e modificato in modo significativo il risultato delle elezioni americane.
In altri termini, il mito – pericoloso e in ogni caso e per molto ancora irrealizzabile – è quello di una oggettivazione del giudizio.
Al pari di un individuo qualsiasi – la cui capacità di analisi e di valutazione è influenzata dalla sua cultura e da ciò che gli è capitato di vivere – l’algoritmo di machine learning si sviluppa apprendendo.
Per le scienze sociali dobbiamo considerare le implicazioni politiche di questo congegno, ovvero di come spesso un dataset possa essere confezionato ignorando le minoranze etniche, culturali e politiche, sottovalutando le diversità.
Così operando la macchina s’imbeve di opinioni e gusti che riflettono l’opinione dominante e, allo stesso tempo, da vita a una retorica che appare oggettiva.
Come dicono gli scettici: gli algoritmi di deep learning sono intelligenti o stupidi tanto quanto chi li programma e per adesso sono spesso destinati a confondere la correlazione con la causalità.
Prima di concludere queste note vale la pena di rilevare due cose.
Lo scontro tra apocalittici e integrati nell’ambito delle nuove tecnologie digitali è più che altro un scontro emotivo legato alla sensibilità culturale.
Occorre invece pensare alla tecnologia come una forza autonoma e riconoscere che è determinata dai rapporti di proprietà e di produzione, gestita dalle relazioni di potere e di classe.
Un esempio che risale al primo secolo prima dell’era comune può essere illuminante.
In questo secolo il matematico Erone di Alessandria concepì una specie di macchina a vapore che se sviluppata avrebbe potuto anticipare la tecnologia a vapore di almeno diciotto secoli.
Ma questa macchina non trovò nessuna applicazione pratica perché la grande quantità di schiavi a disposizione rendeva superfluo studiare questa tecnologia.
La seconda cosa è che il mito della neutralità algoritmica discende dal mito della neutralità scientifica.
In realtà come mostra la critica marxista ci sono condizionamenti reciproci tra scienza e rapporti sociali di produzione. Il concetto di neutralità non è che una forma particolare di feticismo che attribuisce a proprietà oggettive intrinseche dei prodotti dell’attività intellettuale e manuale degli uomini ciò che discende dai rapporti sociali che tra di essi intercorrono.
En passant. Molti sociologi parlano a proposito di algoritmi di autorità algoritmica sull’informazione e la conoscenza, parlano di algocrazia nel mondo del lavoro, così come di identità algoritmiche bio-politicamente calcolate e assegnate agli ignari utenti dei social media.
Così come si parla di black box society, di algorithmic life.
Questa attenzione rivela una preoccupazione sulle conseguenze politiche micro-sociali e culturali del digitale, ma soprattutto sulla trasparenza dei processi computazionali.
Secondo il sociologo americano Ted Striphas la cultura americana si sta progressivamente trasformando in una algorithmic culture caratterizzata da un forte determinismo tecnologico.
Per semplificare al massimo quello che preoccupa in questo momento le scienze sociali non è l’input – i Big data estratti dall’attività di miliardi di consumatori – né l’output, ma la non trasparenza che sta nel mezzo, vale a dire le righe di codice che guidano il processo con cui gli algoritmi on line ingeriscono i dati sui comportamenti degli utenti.
Algoritmi che abbiamo detto più volte rappresentano un investimento da custodire – insieme ai dati – con grande cura perché gran parte dei ricavi di colossi come Netflix e Amazon derivano proprio dai suggerimenti automatici.
Infatti, molti degli algoritmi delle nostre tracce digitali sono disegnati da privati per scopi commerciali, le conseguenze, però sono pubbliche e spesso inquietanti.
Il caso di scuola è quello del recommender algorithm di Amazon che in piena stagione di terrorismo suggeriva le componenti per fare una bomba artigianale in quanto “spesso comprate insieme”.
In questo aneddoto – vero – per riprendere un’espressione di Hanna Arendt, sta quella che si potrebbe chiamare la banalità dell’algoritmo: il semplice e apparentemente neutrale eseguire gli ordini può produrre esiti indesiderati e pericolosi.
Una nota sul data minig.
Definiamolo prima di analizzarlo.
Il data mining concerne l’estrazione di informazioni – eseguita in modo automatico o semi-automatico – da grandi quantità di dati – conservati nelle banche dati – per la ricerca di pattern e/o relazioni non note a priori.
Implica l’uso di tecniche di analisi che si avvalgono di modelli matematici e statistici per l’interpretazione e la previsione dell’andamento di serie temporali e consentono di implementare le capacità analitiche di tipo predittivo.
Il data mining viene sempre più spesso utilizzato per orientare le opinioni e i processi decisionali.
Va anche detto che questo lavoro sui dati non si limita alla pura constatazione e osservazione di fatti, perché il suo fine è quello di mettere in atto azioni capaci di produrre valore.
Ci sono quattro misure – dette anche le quattro V – che consentono di catalogare i dati raccolti e di poterne individuare una grandezza.
Queste misure sono:
Il Volume, è una misura facile da intuire in quanto riguarda l’accumulo dei dati, ma va valutata.
Ogni minuto vengono caricate sulla piattaforma di sharing Youtube più di trecento ore di video.
Facebook genera quasi cinque petabyte di dati al giorno.
Twitter gestisce oltre 600 milioni di tweet ogni 24 ore.
Il numero di mail scambiate ogni giorno nel mondo e poco più di duecento miliardi di unità.
(Sono dati del 2016 e sono per la nostra esperienza impensabili)
La Velocità. Concerne la necessità di ridurre al minimo i tempi di analisi dei dati cercando di effettuarli in real time o quasi e distinguendo quelli che potrebbero essere o diventare in tempi brevi obsoleti.
La Varietà. È una delle caratteristiche più importanti in quanto incide sul valore di rete generato.
I dati – a una classificazione di massima – possono essere dati strutturati (costituiscono il venti per cento di tutti i dati). Dati non strutturati sono i dati conservati senza alcuno schema e composti da un elevato numero di metadati, ossia di informazioni che specificano il contenuto e il contesto di una pagina web. Dati semi-strutturati. Come i dati XML, un metalinguaggio per la definizione di linguaggi di markup.
La quarta misura è la Veridicità. Indica il grado di accuratezza e di attendibilità dei dati. È la condizione chiave per poter estrarre valore dai dati.
Queste quattro misure, poi, sommariamente descritte, sono legate da processi di interdipendenza.
Partendo da esse possiamo definire i Big data ( ed è quello che interessa la sociologia) come un patrimonio informativo caratterizzato da velocità, volume e variabilità elevati, che richiede forme innovative di analisi e di gestione finalizzate a ottenere una più accurata comprensione dei processi decisionali.
Bias e dintorni.
Occorre intenderci quando si parla di intelligenza artificiale perché è un’espressione che potrebbe far pensare a macchine dotate di conoscenza, in grado di ragionare e, soprattutto, consapevoli di ciò che stanno facendo.
Le cose, in realtà, sono molto diverse.
Il fatto che un software impari a riconoscere se in una immagine ci sono dei gatti non significa che sappia che cos’è un gatto.
O meglio, il software che ci batte giocando a scacchi non ha la più pallida idea di che cos’è il gioco degli scacchi, come per esempio avvenne quando Deep Blue batté Gary Kasparov.
Diciamo, allora, che i sofware non sono in grado di pensare.
Sono solo in grado di processare una quantità enorme di dati e di metterli in relazione tra di loro, identificando collegamenti e differenze o calcolarli statisticamente.
Nel nostro caso di identificare la mossa degli scacchi che ha la maggiore probabilità di avere successo.
I mezzi utilizzati per arrivare a questo risultato sono sostanzialmente due.
Il machine learning – ovvero, l’apprendimento automatico – e la sua più recente evoluzione, il deep learning – l’apprendimento approfondito.
In particolare il deep learning lavora su un vastissimo numero di strati interni alle cosiddette rete neuronali che simulano il funzionamento del cervello raggiungendo così una maggiore capacità di astrazione.
En passant, ricordiamo che gli studi sulla cosiddetta intelligenza artificiale risalgono alla metà del secolo scorso.
Oggi possiamo definire il machine learning come una branca dell’intelligenza artificiale che fornisce ai computer l’abilità di apprendere senza essere stati esplicitamente programmati.
Apprendere attraverso tentativi ed errori attraverso una sorta di calcolo statistico estremamente evoluto.
Alla fine del secolo scorso, invece, la ricerca sulla cosiddetta intelligenza artificiale si concentrava sullo sviluppo delle capacità simboliche.
Vale a dire si cercava di far apprendere alle macchine tutte le regole necessarie per portare a termine un compito.
Per tradurre dall’italiano all’inglese – per fare un esempio – si cercava di fornire al computer tutte le regole grammaticali e i vocaboli delle due lingue per poi chiedergli di convertire una frase da una lingua all’altra. Con il risultato di tradurre merluzzi con piccoli merli.
Va ricordato un pioniere di queste ricerche, Silvio Ceccato, che per anni lavorò nel laboratorio di cibernetica dell’Università Statale di Milano.
Diciamo che il modello simbolico ha grossi limiti e funziona solo in quei campi che hanno regole chiare e rigide, come la matematica e gli scacchi.
L’atteggiamento generale iniziò a cambiare con gli ultimi anni del secolo scorso quando diventò evidente che il machine learnig consentiva di risolvere problemi che l’intelligenza artificiale simbolica non sarebbe mai stata in grado di risolvere.
Questo anche grazie a una mole senza precedenti di dati a disposizione e all’accresciuta potenza di calcolo dei computer.
Per farvi capire il volume dei dati riflettete su questo: nel 2013, il 90 per cento dei dati prodotti nella storia dell’umanità era stato creato nei due anni precedenti.
Alla base del machine learning c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni.
Per questo si dice che questi programmi hanno un abilità di apprendere senza essere stati esplicitamente programmati a differenza dei software tradizionali che si basano su un codice scritto che li istruisce passo dopo passo.
In breve, nel caso del machine learning la macchina scopre da sola come portare a termine l’obiettivo che le è stato dato.
È una forma di intelligenza?
No. Per imparare a riconoscere un numero, diciamo il numero “quattro”, un’intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi. A un bambino di cinque anni basta vederne cinque o sei.
In ogni modo il metodo probabilistico è alla base di molte operazioni che ci semplificano la vita: il machine learning viene impiegato dai filtri anti-spam per eliminare la posta indesiderata, da Facebook per indovinare quali sono i nostri amici nella foto, permette ad Amazon o a Netflix di suggerirci quali libri leggere o quali film vedere o a Spotify di classificare le canzoni in base al genere musicale.
Ma il machine learning è in marcia.
Guiderà le nostre automobili, ma già adesso ci può assistere come avvocato, soprattutto nelle pratiche internazionali. Un avvocato capace di scartabellare nei database legali di tutto il mondo.
E non dimentichiamo Watson – l’intelligenza artificiale di IBM – che può diagnosticare i tumori con precisione maggiore di molti medici ospedalieri.
Riassumendo. Per la cosiddetta intelligenza artificiale i due fattori fondamentali sono il potere di calcolo e i dati. Quest’ultimi devono essere di buona qualità essendo la materia grezza alla base delle conclusioni o predizioni del network.
Come dicono gli informatici, se inserisci spazzatura, esce spazzatura.
Qual è allora il problema?
È che spesso i dati forniti alle IA (intelligenze artificiali) includono molti pregiudizi umani che si riflettono inevitabilmente sui risultati ottenuti con le macchine.
L’esempio di scuola di questa constatazione è quella del bot progettato da Microsoft e chiamato Tay. Ne abbiamo già parlato.
Appena ha cominciato a immagazzinare dati si sono scatenati i troll che hanno iniziato a comunicare con Tay dandogli in pasto una miriade di opinioni razziste e omofobe diventando nel giro di 24 ore il primo esempio di intelligenza artificiale nazista.
Un aneddoto racconta che un istante prima di essere chiuso Tay twittò: Hitler was right I hate the Jews.
Lasciando stare i troll un altro problema nella distorsione delle IA è l’uso di training set facilmente accessibili e a basso rischio legale dal punto di vista del copyright.
Due esempi spiegano bene il problema.
Una fonte per istruire i network neuronali sono le e-mail. In un caso furono usate le mail di una compagnia petrolifera texana. Sembravano perfette fino a quando questa compagnia non fu denunciata per truffa.
Va da se, la IA aveva assorbito l’arte di truffare!
Spesso per evitare i copyright si usano dati provenienti da opere che non sono più soggette ad esso. Per esempio, in lingua inglese, Shakespeare, Joyce, Scott Fitzgerald.
Ma anche in questo caso c’è un problema non da poco.
Sono autori pubblicati prima della seconda guerra mondiale e un dataset che faccia affidamento sui loro scritti non farebbe altro che riflettere i pregiudizi del tempo e lo stesso farà il sistema di intelligenza artificiale nutrito con questo dataset.
Si tratta di un problema enorme e delicato, soprattutto per quanto riguarda l’ordine pubblico, perché, come si è già verificato, certe etnie – solo a causa di statistiche mal impostate – sono state considerate come naturalmente più predisposte a diventare terroristiche o a commettere crimini.
Il problema diventa ancora più delicato con i software predittivi in mano alle forze dell’ordine perché spesso essi finiscono per causare – come dice la sociologia – una profezia che si auto-avvera o che si auto-adempie.
In sociologia una profezia che si auto-adempie o che si auto realizza, è una previsione che si realizza per il solo fatto di essere stata espressa.
Predizione ed evento, infatti, sono in un rapporto circolare, secondo il quale la predizione genera l’evento e l’evento verifica la predizione.
Ad esempio nel mercato azionario ad una convinzione diffusa dell’imminente crollo di un’azienda, gli investitori possono perdere fiducia e mettere in atto una serie di reazioni che possono causare proprio il crollo della stessa.
In una campagna elettorale un candidato che dichiari di non credere nella sua vittoria può indurre apatia o rassegnazione nei suoi potenziali elettori, che si concretizzano in una diminuzione della sua base elettorale.
In psicologia, una profezia che si auto-adempie si ha quando un individuo, convinto o timoroso del verificarsi di eventi futuri, altera il suo comportamento in un modo tale da finire per causare tali eventi.
In conclusione il pericolo sta nel fatto che gli algoritmi – protetti dalla loro aurea di scientificità – potrebbero diventare una giustificazione per profilazioni in sé inattendibili e generare equivoci.
In sostanza, ogni sistema di profilazione o predittivo è efficace solo se i dati inseriti sono corretti e privi di bias.
Fenomenologia del “dato”.
Il fenomeno dei big data ha smesso da tempo di essere un argomento specialistico per diventare un tema ricorrente sui social network.
Su LinkedIn, per esempio, ci sono più di duemila gruppi dedicati all’argomento, può sembrare strano, ma non dimentichiamo che i data sono il nuovo petrolio, o se preferite uno dei temi centrali della contemporaneità.
Alla base di questa situazione ci sono le tecnologie digitali oramai essenziali a innumerevoli attività professionali, della comunicazione, dell’economia, dell’industria, della cultura.
Così come ci siamo noi, che siamo sempre più dipendenti a una serie di dispositivi digitali necessari per svolgere un numero sempre più elevato di compiti quotidiani e dotati di un numero sempre crescente di sensori e strumenti di registrazione.
È per questo motivo che la natura dei dispositivi digitali è quella di essere delle macchine che in prima istanza producono dati.
Il più famoso di essi lo chiamiamo ancora “telefonino”, ma lo smartphone è a tutti gli effetti un computer portatile di dimensioni ridotte, ed è proprio la sua vera natura che lo fa costare così poco.
Lo facciamo senza pensarci, ma la mattina quando lo accendiamo o, meglio, lo avviamo – sempre che non lo lasciamo acceso in continuazione – il nostro smartphone invia a più soggetti, con i quali ci collega, il segnale che il device è attivo. Quali sono questi soggetti?
Il produttore del telefono, il produttore del sistema operativo, quelli delle app che abbiamo installato e ad altri a essi collegati.
Poi se sul nostro smartphone abbiamo attivato la geo-localizzazione, verranno registrati anche i nostri tragitti quotidiani che finiranno a far parte di quell’insieme di dati che trasmettiamo a tutti i soggetti a cui siamo legati per suo tramite.
In altri termini, se una mezzora dopo essere usciti di casa il nostro smartphone raggiunge un indirizzo che corrisponde a quello di un’azienda o di una scuola, come nel nostro caso, e da qui non si muove per un certo periodo di tempo, sarà piuttosto facile per chiunque abbia i mezzi per raccogliere questi dati anche processarli e trarne delle conclusioni.
In passato questa acquisizione di dati creava spesso frizioni, oggi avviene in modo automatico, senza interferenze, perché ogni dispositivo che noi utilizziamo crea una traccia digitale fatta di dati che possono essere aggregati, analizzati e letti.
Questa situazione è oggi accentuata dall’internet delle cose (Internet of Things) – che abbiamo già definito come l’implementazione di connettività all’interno di elettrodomestici ed oggetti di uso comune – che ha fatto crescere le dimensioni della nostra traccia digitale trasformandola in modo radicale, dando vita all’ombra delle nostre abitudini di consumo.
Diciamo che con la mole di dati raccolti si può fare un vero e proprio profilo virtuale della nostra esistenza, esistenza di cui senza una piena consapevolezza cediamo la proprietà e il controllo ai produttori di device e ai fornitori di servizi digitali.
Dunque ancora un problema di dati, la cui importanza – come fenomeno centrale della modernità – fu messa in luce qualche anno fa dalle discussioni sulla post-fattualità.
Post-fattuale(in inglese post-truth) è un termine inventato da David Roberts, un blogger ambientalista americano. Serve a spiegare la crescente inclinazione di parte della società moderna a credere a notizie false o fortemente alterate, cioè, alle “bufale”, come si dice in Italia.
Semplificando molto, quello che stiamo vivendo è un passaggio da una modalità o schema di giudizio basato sull’osservazione diretta e la testimonianza dei fatti a una modalità di giudizio basata sulla raccolta, l’aggregazione e l’analisi dei dati.
La domanda che, per conseguenza, dobbiamo porci è questa:
In che modo il passaggio dai dati ai fatti come modalità di giudizio cambia il modo in cui vediamo le cose?
In primo luogo dobbiamo rilevare come il ruolo che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci circonda è la loro pretesa oggettività rispetto ai fenomeni che descrivono.
Per verificarlo basta fare un giro sui social network per costatare il modo in cui gli utenti sbandierano dati, statistiche, inchieste di data journalism ed altre forme di presentazione dei dati come se fossero la “bibbia”, con il solo obiettivo di far accettare all’interlocutore l’evidenza della propria posizione.
Molte inchieste hanno dimostrato che nel sentire comune, in primo luogo dei nativi digitali, ciò che viene presentato e supportato attraverso i dati assume la forza di un’evidenza sostanzialmente incontestabile.
O, per dirla in altro modo, sembra che il dato abbia assunto uno statuto simile a quello di un elemento naturale, uno statuto comparabile a quello dei fatti osservabili che per secoli hanno costituito l’unica base possibile di giudizio.
Questa credenza del dato come un paradigma di oggettività è il prodotto di due fattori.
– Da una parte è il risultato dell’abbassamento delle soglie d’ingresso alla produzione e distribuzione delle informazioni che ha reso possibile un mondo caratterizzato dalla parcellizzazione delle opinioni e dei punti di vista competenti, generando quello che i sociologi chiamano un panorama liquido e mutevole.
– Dall’altra è l’effetto ideologico della costruzione di un discorso e di un punto di vista che ha come obiettivo di nascondere e rimuovere la reale natura dei dati.
In effetti, quelli che noi ci siamo abituati a considerare come fatti che si danno in modo spontaneo all’analisi e che chiamiamo comunemente dati, sono in realtà una selezione da un catalogo infinito di possibilità che si danno ai nostri sensi.
Per cui, considerato che l’operazione di selezionare e stabilire delle differenze tra le cose che ci circondano è l’atto stesso di fondazione di una cultura, allora anche i dati che raccogliamo e analizziamo ne portano impresso il segno.
Considerati da questo punto di vista, cioè come un elemento culturale, i dati perdono il carattere dell’oggettività per diventare – come le opinioni – il prodotto delle condizioni e del contesto in cui vengono sviluppati.
In questo senso, anche i dati portano impressi i bias culturali di chi progetta i sistemi per raccoglierli e le cornici concettuali per analizzarli, mettendo così in luce alcuni aspetti a discapito di altri, a seconda dei punti di vista da cui vengono creati.
Di alcune rivoluzioni. (Floridi)
Come da tempo è spiegato dalla gnoseologia, la scienza muta la nostra comprensione della realtà in due modi.
Il primo modo è definito estroverso, ossia riferito a ciò che ci circonda del mondo.
Il secondo è definito introverso perché è riferito alla nostra condizione umana, a ciò che siamo o pensiamo di essere.
Ci sono tre rivoluzioni, nel millennio che ci siamo lasciati alle spalle, che hanno avuto un forte impatto sia sul mondo che in quello che siamo.
Vale a dire, queste rivoluzioni nel modificare la nostra comprensione del mondo esterno hanno modificato anche la concezione di chi siamo, hanno radicalmente cambiato la nostra comprensione di sé.
Fino a sei secoli fa eravamo abituati a pensare di essere al centro dell’universo, messi lì da un onnipotente dio-padre e creatore.
Era, visto in prospettiva, una pietosa illusione che rassicurava, che ci faceva convivere con l’angoscia generata dall’invenzione del tempo.
Nel 1543, Niccolò Copernico pubblicò il suo trattato sulla rotazione dei corpi celesti.
Quando questo libro uscì nessuno pensava che dopo aver scosso il nostro modo di vedere la terra e i pianeti avrebbe dato l’avvio a una rivoluzione sul modo di comprendere noi stessi.
I fatti sono quello che sono.
La sua cosmologia eliocentrica ha spodestato per sempre la terra dal centro dell’universo e ci ha costretto a riconsiderare la nostra posizione e il nostro modo di rapportarci ad essa.
Le conseguenze di questa rivoluzione si resero visibili quasi subito, costringendoci a una riflessione più obiettiva e approfondita sulla nostra condizione umana.
Abbiamo capito che la terra è un pianeta piccolo e fragile e abbiamo trovato nella ragione la forza per studiarlo e continuare a studiarlo dall’alto delle nostre esplorazioni spaziali.
La seconda rivoluzione è avvenuta nel 1859 quando Charles Darwin pubblicò L’origine delle specie. In questo libro si riassumevano anni di esplorazione sul campo e si affermava che ogni specie vivente è il risultato di un’evoluzione da progenitori comuni attraverso un processo di selezione naturale. Con Darwin la parola evoluzione acquistò un nuovo significato che molti ritenevano sgradevole e insopportabile.
Un significato che molte religioni ancora oggi rifiutano o accettano solo parzialmente.
In ogni modo, sebbene non fossimo più al centro dell’universo, sebbene fossimo poco più che animali eravamo ancora padroni dei nostri contenuti mentali.
In altre parole la nostra capacità di autocoscienza, di elaborare una coscienza di sé, ci dava ancora un posto speciale nell’Universo.
Penso dunque sono, aveva affermato Cartesio e l’introspezione era considerata un viaggio interiore alla scoperta di sé. Ci pensò Sigmund Freud a liquidare questa illusione.
La terza rivoluzione mostrò che la mente è inconscia e incontrollabile.
Che ciò che facciamo è soprattutto il frutto dell’inconscio e i cosiddetti stati coscienti sono da noi utilizzati per dare una giustificazione razionale alle nostre azioni.
In altri termini scoprimmo di non essere più liberi neanche nella nostra coscienza, che ubbidisce più all’inconscio che a noi, banalizzando ciò che ritenevamo il frutto della volontà.
In ogni modo dopo queste tre rivoluzioni ci restava l’intelligenza, una proprietà difficile da definire, ma che ci poneva in una posizione di assoluto vantaggio tra le forme viventi.
Sapevamo costruire macchine, sviluppare progetti e utilizzare le forme della tecnica.
Blaise Pascal, che visse nella prima parte del XVII secolo, inventò la macchina aritmetica – più conosciuta come la pascalina – con la quale si potevano realizzare la quattro operazioni.
È curioso un fatto, il metodo di calcolo inventato da Pascal e basato sui complementi è analogo a quello che seguono oggi i computer. Questa macchina ottenne un grande successo e influenzò un altro grande matematico e filosofo del XVII secolo, Gottfried Leibniz.
Ricordiamo che fu Leibniz a inventare il sistema dei numeri binari e che per questa ragione è considerato il primo scienziato dei computer.
In estrema sintesi, per Pascal, pensare era ragionare, ragionare era far di conto e la sua macchina era in grado di farlo.
Si potrebbe dire che i germi della quarta rivoluzione erano stati gettati.
Pascal non poteva immaginare che avremmo costruito macchine in grado di superarci nella capacità di processare informazioni dal punto di vista logico.
Ciò che non era ancora pensabile diventò però chiaro con il lavoro di Alan Turing, il protagonista della quarta rivoluzione.
In altri termini e senza certamente prevederlo, Turing ci ha spodestato dal regno del ragionamento logico. Dalla capacità di analizzare dei dati e di agire in modo conseguente.
Con il risultato che non siamo più gli indiscussi padroni del mondo dei dati e del loro uso.
La parola computer è a questo riguardo significativa.
Tra la fine del XVII secolo e il XIX era sinonimo di persona che svolge dei calcoli.
Il termine computer è il nome dell’agente del verbo to compute.
L’etimo latino è composto da com / cum (insieme) e putare (tagliare, rendere netto – da cui anche potare) e significa propriamente: confrontare (o comparare) per trarre il netto della somma.
In sostanza, il termine computer indicava originariamente una persona incaricata di eseguire dei calcoli.
Fu grazie a Turing che negl’anni ’50 del secolo scorso la parola computer perse il suo riferimento all’uomo e divenne sinonimo di macchina programmabile, ovvero, macchina di Turing.
La quarta rivoluzione ha cancellato del tutto il convincimento della nostra unicità e ci ha ridisegnato come organismi informazionali (inforg) reciprocamente connessi e, al tempo stesso, parti di un ambiente informazionale (infosfera) che condividiamo con altri agenti naturali e artificiali, agenti che processano informazioni in modo logico e autonomo. …
::::::::::::::::
… Molto probabilmente la prossima generazione sarà la prima a non considerare più rilevante la distinzione tra ambiente online e offline. Una distinzione opaca fin da oggi, se la casa è dove sono i nostri dati, allora viviamo già da tempo su Google Earth o nel cloud.
Questo, però, non vuol dire che la rivoluzione digitale ci trasformerà in un’umanità di cyborg.
Un numero di telefono solo nei film si può digitare per mezzo di una tastiera virtuale che appare sul palmo di una mano, più realisticamente, e senza essere cyborg, lo possiamo comporre pronunciandolo, grazie al fatto che il nostro smart-phone ci capisce.
Per comprendere la logica degli ambienti informazionali dobbiamo pensare al fatto che in molti contesti le ICT (le tecnologie dell’informazione e della comunicazione) hanno cominciato ad essere la squadra che gioca in casa nell’infosfera con noi che giochiamo in trasferta.
Per spiegare che cos’è un algoritmo e illustrare il meccanismo SE/ALLORA siamo ricorsi al gioco della morra cinese.
Oggi non siamo in grado di battere le ICT neppure a questo gioco poiché un robot è così veloce da riconoscere in un millesimo di secondo la forma assunta dalla nostra mano e scegliere la mossa vincente.
Oggi, per comprendere quello che molti chiamano il nostro destino informazionale dobbiamo tenere presente la distinzione tra tecnologie che migliorano e tecnologie che aumentano.
Impugnature, interruttori, manopole – che caratterizzano le tecnologie che migliorano (come ieri erano martelli, leve, pinze…) – sono interfacce volte a consentire l’applicazione dello strumento al corpo dell’utente in modo ergonomico.
Le tecnologie che migliorano richiamano – se si vuole – l’idea di cyborg.
Invece i dati e i pannelli di controllo delle tecnologie che aumentano sono interfacce tra ambienti diversi.
Poeticamente possiamo dire che le vecchie tecnologie formano ambienti funzionali al loro scopo, ambienti raccolti, com’è l’interno acquoso e insaponato di una lavatrice o l’interno bianco e freddo di un frigorifero.
Le ICT, invece, sono forze che modificano l’essenza del nostro mondo, creano o ri-costruiscono realtà che l’utente è in grado di abitare.
DICIAMO CHE NON SONO CHIUSE SU SE STESSE, MA SONO AVVOLGENTI, COSTRUISCONO INTORNO A NOI. …
:::::::::::::::::::::::
… Ci sono quattro tipi di privacy parlando di digitale ognuna delle quali può essere formulata in termini di “libertà da”.
Prima di tutto c’è la privacy fisica.
Si tratta della libertà del soggetto di essere libero da interferenze o intrusioni tangibili. Si ottiene limitando la capacità altrui di interagire fisicamente con il nostro soggetto o di invadergli il suo spazio personale.
C’è poi la privacy mentale.
Considera la libertà del soggetto che non può essere oggetto di intrusioni, interferenze, minacce o lusinghe psicologiche. In altre parole nessuno dovrebbe essere manipolato.
La terza privacy è detta decisionale.
Il soggetto deve essere protetto da interferenze o intrusioni procedurali. Per farlo occorre escludere gl’altri dalla capacità di intromettersi nelle sue decisioni o in quelle delle persone della sua cerchia amicale. Queste decisioni possono riguardare molti argomenti, le cure mediche, l’istruzione, la carriera, il lavoro, gli stili di vita, le credenze politiche o religiose, eccetera.
La quarta privacy è quella informazionale.
È la più delicata e difficile da gestire. Si tratta della libertà del soggetto di non subire interferenze o intrusioni informazionali. Come poterlo fare?
Stabilendo il novero dei fatti che lo riguardano e che devono restare sconosciuti o inconoscibili.
Per adesso possiamo solo dire che le ICT hanno fatto della privacy uno dei temi più rilevanti della società o, meglio,delle sue forme di governo. …
:::::::::::::::::::::::::
… La nuova storia, la storia nell’era digitale, dipende in modo considerevole dai big-data, ma ci sono due problemi da considerare.
Il primo riguarda la qualità della memoria digitale perché le tecnologie dell’informazione e della comunicazione digitale hanno una memoria che dimentica.
Cosa vuol dire?
Che queste tecnologie – costi a parte – divengono rapidamente obsolete e rendono tutto molto volatile. Vecchi documenti digitali sono diventati inutilizzabili perché la loro tecnologia non è più disponibile. Basti pensare al caso dei floppy.
In Internet, poi, ci sono milioni di pagine abbandonate, vale a dire di pagine create e poi mai più aggiornate o modificate.
Nel 1998 la vita media di un documento, prima dell’abbandono, era di 75 giorni, nel 2008 si è ridotto a 45 giorni, oggi – 2018 – si parla di 37 giorni.
Molti studiosi hanno osservato che la nostra memoria digitale appare volatile come la nostra memoria orale anche se l’impressione che la memoria digitale ci trasmette è diversa.
Diciamo, da un punto di vista ideologico che, in questa alba del digitale, le ICT non conservano il passato per metterlo a disposizione del futuro dal momento che le strategie digitali tendono a farci vivere in un eterno presente.
Conservare la memoria, del resto, non è facile, occorre saper cogliere le differenze significative e saper stabilire le sedimentazioni in una serie ordinata di cambiamenti. …
::::::::::::::::::::::
… Qual è il problema? È che è lo stesso sistema dinamico, che consente di riscrivere migliaia di volte lo stesso documento, quello che rende altamente improbabile la conservazione delle versioni precedenti per un esame futuro.
“Salva questo documento” significa “sostituisci le versioni precedenti”, per cui ogni documento digitale di qualsiasi genere è destinato a questo destino tecnico-storico. A livello dei singoli utenti, e per certi tipi di documenti, esiste la possibilità di applicare procedure per conservare la storia delle revisioni di un documento (si vedano ad esempio i sistemi SCM – di Source Code Management – di cui il più diffuso è Git), ma il problema metodologico resta comunque complesso.
Qual è il rischio? È che le differenze finiscano per essere cancellate e le alternative amalgamate. Il passato costantemente riscritto e la storia ridotta a un perenne qui-ora.
Come dicono gli scettici, quando la maggior parte della nostra conoscenza è nelle mani di tale memoria che dimentica, possiamo trovarci e senza volerlo imprigionati in un eterno presente.
Questo è il motivo per cui si sono formate molte organizzazioni volte a conservare la nostra eredità culturale digitale come la “National Digital Stewardship Alliance” o l’”International Internet Preservation Consortium”.
In breve, il lavoro di custode delle informazioni digitali è uno dei nuovi mestieri di questo secolo.
Un altro aspetto del problema è che la quasi totalità dei dati è stata creata in pochi anni e tutti questi dati stanno invecchiando.
Invecchiano insieme ai nostri attuali supporti digitali, hard disk e memorie di vario genere.
MTBF – Mean Time Before Failure ovvero “il tempo prima del fallimento” è un paradigma che indica l’aspettativa di vita stimata di un sistema.
Più elevato è il MTBF più a lungo dovrebbe durare un sistema. Un MTBF di cinquantamila ore – vale a dire di cinque anni e mezzo – è la vita media di un hard disk.
Il problema di fondo è che, per come si è sviluppato il sistema digitale, le aspettative di vita dei supporti dei nostri dati sono, al momento, sincronizzate.
Praticamente, i Big-data invecchieranno e diventeranno dati morti pressappoco nello stesso momento. È chiaro che molti saranno salvati e trasferiti su altri supporti, ma chi stabilirà quelli che dovranno vivere e quelli che dovranno sparire? …
::::::::::::::
… Per capire meglio questo problema c’è un’analogia, è quella che ha riguardato il passaggio dai film in bianco e nero e muti, ai film a colori. Fu fatto tutto senza un criterio e oggi noi sappiamo che più della meta delle pellicole girate tra i primi anni del Novecento e gli anni Cinquanta sono andate distrutte.
Nel 2007 il mondo ha prodotto più dati di quanti ne possa immagazzinare e ciò a dispetto del fatto che la densità di immagazzinamento degli hard disk stia crescendo rapidamente.
Per fare un esempio, si prevede che alla fine del prossimo anno (2020) un hard disk di 14 terabyte misurerà circa tre centimetri di diametro e non costerà più di una cinquantina di dollari.
È importante capire questo. Nella cultura analogica il problema è cosa salvare.
Nella cultura digitale il problema è cosa cancellare. …
:::::::::::::::
…Dobbiamo comprenderne il senso e le conseguenze.
Nel digitale il nuovo spinge via il vecchio. Il primo che entra è il primo che esce.
Le pagine web aggiornate cancellano quelle vecchie, le nuove foto rendono obsolete le vecchie, i nuovi messaggi si sovrappongono ai precedenti, le e-mail recenti sono conservate a spese di quelle dell’anno prima. …
.fine.