L’imperialismo finanziario informatico

Lo sviluppo dei più grandi capitali transnazionali negli ultimi si è accompagnato ad ingenti investimenti nella capacità ci accaparrarsi, conservare ed elaborare dati.


L’imperialismo finanziario informatico

Le imprese che maggiormente si sono sviluppate negli ultimi anni sono le cosiddette Over The Top (OTT) [1], ossia quelle imprese che operano in cima alla “pila protocollare informatica”. Gli esempi più noti di questo tipo di imprese sono Facebook, Netflix, Google, Amazon (in realtà Google e Amazon con il tempo sono divenute ibride cioè oltre che nei servizi web hanno investito anche in infrastruttura). Queste imprese, il cui cuore pulsante degli investimenti è nella capacità di conservare ed elaborare dati, (a tal proposito vale la pena osservare che la stragrande parte dei ricavi di Amazon, giusto per citare il colosso principale, viene dalla sua controllata Amazon Web Services [2]) hanno visto una spaventosa impennata dei ricavi e degli utili. È interessante osservare queste tabelle che seguono per confrontare i dati degli utili e dei ricavi relativi agli OTT e delle TELCO [1] nel periodo d’oro di questi nuovi colossi. Vediamo che nel giro di circa dieci anni colossi delle telecomunicazioni come Telecom sono divenuti nanerottoli a confronto degli OTT.

 

L’elettronica a basso costo quale tecnologia abilitante per lo sviluppo dell’informatica.

Oggi i costi delle componenti elettroniche sono relativamente a buon mercato e ciò consente la costruzione di nodi di calcolo per l’elaborazione dei dati a costi più contenuti rispetto al passato. Ovviamente bisogna essere dialettici e comprendere che un certo nuovo mezzo di produzione, condizione per lo sviluppo di un nuovo ciclo, è allo stesso tempo condizione e conseguenza del generale sviluppo delle forze produttive. Intendo dire che i prodotti elettronici oggi si trovano a basso costo perché, ad esempio, sono migliorate le tecniche di estrazione delle materie prime necessarie per questi dispositivi, e della loro lavorazione oltre che della distribuzione, dello stoccaggio etc…

Cosa intendiamo per “imperialismo finanziario - informatico”

Nonostante i costi relativamente contenuti dell’elettronica, la possibilità di gestire, immagazzinare ed elaborare grandi quantità di dati richiede comunque dei supercomputer per la costruzione dei quali sono necessari investimenti milionari [4]. Dotarsi di un grande centro di calcolo non equivale al semplice acquisto di una macchina di produzione qualsiasi, di cui chiunque può dotarsi, ma equivale alla possibilità di un controllo mondiale su scala vastissima intorno alle macro-fasi del modo di produzione capitalistico ossia alla fase della produzione a quella della circolazione e a quella dell’egemonia. Per questo oggi abbiamo azzardato una nuova definizione di imperialismo affiancando al capitale finanziario (banca + industria) il capitale informatico. È bene osservare che la spinta a concentrare in pochi mani il capitale informatico è stato in questi anni fonte di grandi investimenti, sviluppi e conflitti. Il conflitto oggi più importante in questo campo è quello per il controllo del 5G, ossia per il controllo dell’infrastruttura sulla quale viaggeranno nei prossimi anni tutti i dati prodotti dalla quasi totalità delle attività umane. Concentrare il capitale informatico implica assicurarsi la capacità di accelerare l’estrazione di plusvalore e la rapidità della sua realizzazione attraverso la circolazione.

 Lo sviluppo delle tecnologie informatiche e delle comunicazioni costituisce la principale base materiale su cui si appoggiano i nuovi modelli di sfruttamento caratterizzati dalla presenza di piattaforme digitali in diversi punti della catena del valore. 

 Un altro aspetto connesso allo sviluppo di questa forma superiore di imperialismo è la nascita di nuove tipologie di lavoro estremamente fluide e precarie. È il caso del Food Delivery, dei Cloud Workers e della Gig Economy in generale.

 Cloud Workers

 I Cloud Workers sono quei lavoratori in proprio che mettono in vendita le proprie capacità e la propria forza lavoro su una piattaforma digitale. Le piattaforme più note sono Twago e Upwork. Ovviamente ponendosi in quanto freelance sostanzialmente il regime di lavoro è quello a cottimo con un altissimo tasso di autosfruttamento e competitività salariale al ribasso. Il lavoro su queste piattaforme deve ancora dotarsi di diritti e sostanzialmente non ha una piattaforma di rivendicazioni economiche non avendo nemmeno un sindacato. Cito da un articolo dal titolo “Un osservatorio europeo sulle piattaforme digitali” a firma di Massimo Mensi pubblicato su Idea Diffusa, INSERTO DI INFORMAZIONE SUL LAVORO 4.0@ della CGIL, gennaio 2020:

 “[…] Infine è da citare un report di Eurofound del 2018 che propone un confronto per tipologie di piattaforma di lavoro evidenziando come il peso dei cloud workers, ovvero il cosiddetto “lavoro della folla”, rappresenti oltre un terzo degli addetti digitali in Europa. La loro crescita esponenziale è egregiamente monitorata dall’Ilo attraverso l’Online labour index, uno strumento capace di tracciare tutti i “lavoretti” del 60-70% del mercato esistente del cloud work in lingua inglese. L’osservazione mostra non solo come dal 2016 a oggi il cloud work sia cresciuto di oltre 40 punti percentuali, ma anche come sia in atto una nuova distribuzione globale del lavoro: se quasi il 40% della domanda proviene dagli Stati Uniti, oltre il 60% dell’offerta si colloca nei Paesi asiatici, tra cui spiccano l’India (22,5%) e il Bangladesh (15%).”

 Food delivery e Gig Economy.

 Cito da un articolo dal titolo “La piattaforma delle piattaforme” a firma di Antonio de Luca pubblicato su Idea Diffusa, INSERTO DI INFORMAZIONE SUL LAVORO 4.0@ della CGIL, gennaio 2020: 

“Lo sviluppo e la diffusione delle tecnologie della comunicazione e dell’informazione, combinato con l’aumento esponenziale delle prestazioni e con nuove aggressive politiche dei prezzi, ha fatto emergere nuovi modelli di servizi, sia nel settore pubblico sia in quello privato. Una delle aree di business maggiormente interessata a questa rivoluzione è stata quella delle vendite online, dove l’impatto del segmento B2C (dal produttore al consumatore ndr) ha generato nuove attività che, con gli attuali strumenti giuslavoristici, non è facile classificare. È la cosiddetta gig economy, nella quale il lavoro, generalmente molto parcellizzato, viene gestito attraverso marketplace, ovvero piattaforme digitali (omp, online market platform), assegnandolo a soggetti definiti come “freelance” al fine di evitare la loro classificazione diretta come lavoratori subordinati. In sostanza è cambiato il lavoro così come lo abbiamo conosciuto e lo conosciamo tradizionalmente e la dicotomia dipendente autonomo non è così efficace, e utile per la classificazione, come in passato. Di conseguenza, per poter salvaguardare queste nuove categorie di lavoratori, mentre il legislatore e le parti sociali innovano il sistema di classificazione e identificazione del lavoro e gli istituti di welfare, l’Inps ha ritenuto opportuno avviare un tavolo di studio per immaginare strumenti in grado di garantire le stesse tutele riconosciute ai lavori tradizionali. […] La particolarità di questi lavori, generalmente definiti occasionali, temporanei, “a chiamata”, ma comunque sempre intermediati da piattaforme digitali, ha portato a focalizzare lo studio e la progettazione di un’ipotesi di soluzione sul caso dei rider, i fattorini che consegnano cibo a domicilio per le app di food delivery. Questa categoria di lavoratori – circa 20-25 mila su un totale stimato di 700 mila nella gig economy – presenta alcune contiguità con un lavoro di tipo tradizionale (ad esempio esiste un chiaro e identificabile datore di lavoro), ma anche profonde differenze come la flessibilità degli orari e la possibilità, per il lavoratore, di iscriversi a più piattaforme e scegliere autonomamente per chi lavorare.”

Controllare queste piattaforme digitali in ultima analisi significa mettere le mani sul pluslavoro. L’inizio può essere una start up che crea una piattaforma digitale, talvolta un semplice algoritmo (sviluppato con capitale proprio o in prestito) per gestire il rapporto tra produttore e cliente finale, come le consegne a domicilio, l’affitto di una camera, di un taxi, la vendita di libri etc. La piattaforma ha generalmente due scopi fondamentali: rendere disponibile e visibile su internet la merce e aumentare i ritmi di lavoro organizzando le consegne e selezionando il personale. Se la piattaforma è ben fatta si crea una prima forma di sottomissione: la piccola impresa non può più far a meno della piattaforma. All’inizio è la piattaforma che vende il proprio servizio all’impresa, in una seconda fase è l’impresa che cerca la piattaforma per vendere i propri prodotti.

Possono accadere alcuni fatti : 

- se la piattaforma digitale cresce e ha molti clienti, si arricchisce di informazioni ed è efficiente nello sfruttamento, diviene dominante sul mercato. Può divenire un bocconcino per gli OTT che la comprano .

- in altri casi la start up che ha sviluppato la piattaforma è già in partenza indebitata presso un finanziatore più grande che l’ha usata come capitale di ventura e che la centralizza non appena essa acquista potere.

 

Market Place: il caso Amazon

Il caso di Amazon è esemplare. Esso è partito vendendo libri e accumulando una infinità di dati personali, oggi non solo ha sottomesso migliaia di piccole e medie imprese, che senza questo mercato non avrebbero alcuna possibilità di vendere i loro prodotti, ma alcune di loro le ha acquisite, ad altre ha erogato dei finanziamenti. Amazon affitta i server alle imprese per ospitare i loro sistemi informativi (AWS è la principale fonte di guadagno [2]). Amazon ha raggiunto negli ultimi anni un fatturato talmente grande che è divenuto di fatto una banca, non a caso negli ultimi anni flirta con diverse multinazionali degli investimenti (Goldman Sachs) per giungere ad accordi che le consentirebbero di finanziare direttamente le imprese. Amazon è un esempio di capitale finanziario informatico nel senso che centralizza in sé la produzione, il commercio e la finanza. Il tutto è reso possibile grazie alla concentrazione impressionante di capacità di immagazzinare ed elaborare dati.

 Ogni attività umana, produttiva e non produttiva di plusvalore oggi si serve di tecnologie informatiche, si serve di dati e si traduce sempre in una elaborazione e produzione di altri dati.  

Conservare ed elaborare dati in modo efficiente e rapido è essenziale in ogni attività umana. Basti pensare che gli uomini oggi sono collegati a delle protesi elettroniche, gli smartphone, di cui non possono fare a meno. Non a caso alcuni grandi multinazionali come Amazon, Google, Facebook, alcuni governi nazionali come quello statunitense, giapponese, cinese, solo per citare i primi al mondo, hanno investito miliardi di euro per costruire supercomputer, da qualche anno anche ENI ha investito in un supercomputer[3]. La possibilità di concentrare capacità di calcolo equivale oggi a dominare sul mercato. E ciò è fonte di conflitti a partire dalla conquista delle materie prime a basso costo come le terre rare , litio, coltan etcc.. per passare alla energia compreso il suo accumulo in batterie per finire alla conquiste dei migliori e più efficienti algoritmi necessari ad elaborare efficientemente tutte queste informazioni. 

Tutte le attività umane oggi hanno un elemento in comune che le unifica tutte : usano e producono dati in forma digitale. Non esiste alcuna attività umana dalla più semplice alla più complessa che non contempli la produzione o l’uso di dati digitali. Lungo tutto l’arco della giornata lasciamo una traccia sul terreno delle attività che abbiamo svolto questa traccia sono i dati. 

I dati digitali sono una delle forme in cui si trova oggettivata l’attività umana. Dal punto di vista fisico sono una forma in cui si trova l’energia. Dal punto di vista capitalistico esso può essere una materia prima preziosa che, opportunamente lavorata e dunque valorizzata, diviene un elemento determinante nella produzione capitalistica perché aumenta la produttività, i ritmi di lavoro e la rapidità con cui si compie il ciclo D-M-D’. Sono inoltre l’elemento base per arrivare prima su alcuni mercati, ridurre le inefficienze e le porosità nei tempi di lavoro e sono uno strumento nella lotta per la centralizzazione di capitale . I dati sono prodotti in grande quantità e questa quantità aumenta esponenzialmente in rapporto allo sviluppo della tecnologia, e solo dalle grandi quantità di dati si possono estrarre informazioni significative. Questo scatena alcuni eventi come la rincorsa ad accaparrarsi grandi quantità di dati e la rincorsa a costruire grandi centri di calcolo per la loro conservazione ed elaborazione e infine spinge verso la ristrutturazione delle reti di telecomunicazioni.

Eni ha investito in un grande centro di calcolo perché tra le altre cose ciò rende possibile sia un investimento in altri settori ma anche l’elaborazione delle grandi masse di dati di rivelazione prodotti dalle sonde di ricerca del petrolio sotterraneo.  Grande o piccolo in riferimento alla quantità di dati cosa significa? Dipende dalla complessità del fenomeno che si intende stimare e dalla precisione che si intende ottenere sulla stima. 

Concetto di impresa Data Driven 

Oggi un'impresa “smart” si dota generalmente di una o più piattaforme digitali per lo studio e l’elaborazione degli obiettivi a partire dai dati. I dirigenti sono maggiormente preparati all’uso di tali piattaforme per gestire gli obiettivi e ottimizzare con questi la produzione di plusvalore in un modello neototyotista basato sul lavoro a cottimo, in cui apparentemente le gerarchie verticali saltano in direzione dell’autorganizzazione fittizia dal basso. La direzione avviene per il tramite di due momenti: il primo momento è quello dell’egemonia (lo chiamano “engagement”) attraverso il quale si coinvolge pienamente il lavoratore nel processo lavorativo, magari si convince il lavoratore che il prodotto finale è un suo prodotto e che magari è un prodotto particolarmente rivoluzionario per l’ambiente etc… Il secondo momento che caratterizza questa nuova forma di cottimo è la responsabilizzazione (che chiamano “accountability”) , ossia il sottoposto è dirigente di se stesso nel senso che si autocontrolla perché se non raggiunge l’obiettivo non percepisce il salario.

La direzione in questo nuovo modello è apparentemente orizzontale: un buon dirigente si dota di strumenti di analisi dei dati, si fa guidare dai dati per individuare gli obiettivi, suddividerli in aree d’interesse nelle quali diversi lavoratori e lavoratrici, sottoposti al regime della responsabilità entrano in competizione tra loro per raggiungere l’obiettivo. Il dirigente non si interessa più di seguire quotidianamente i propri sottoposti, si “limita” ad una predisposizione dettagliata degli obiettivi, si impegna sull’egemonia e infine sulla valutazione dei risultati. Come il gruppo raggiunge i risultato non è più interessante anche perché se non lo raggiunge si pone automaticamente fuori dalla produzione dunque non è necessario preoccuparsi del rendimento costante. O meglio il rendimento è costante e crescente in modo automatico. Visto che il rapporto di lavoro è legato alla produttività il lavoratore stesso finisce per sfruttarsi al massimo.

Il dato

In dato in informatica è una sequenza di bit, l’elemento base dell’informatica. Ogni suono, ogni parola, ogni formula matematica, ogni immagine, in generale ogni fenomeno fisico, può essere trasformato in una sequenza di bit. Tutti i dispositivi elettronici, più o meno complessi che siano, eseguono quattro operazioni: generare, trasmettere, elaborare, immagazzinare dati. L’elemento centrale intorno a cui ruota tutta l’informatica è appunto il dato. A fine vita un qualsiasi dispositivo elettronico si è trasformato in rifiuti più anidride carbonica più dati.

D’altro canto lo sviluppo della scienza è legato a quello della tecnologia, la possibilità di individuare nuove leggi per i fenomeni fisici si lega, dialetticamente, alla possibilità di osservare tali fenomeni e misurarli attraverso nuovi strumenti. Oggi in un ospedale abbiamo tanti più strumenti d’indagine rispetto a cento anni fa, quindi più misure dunque più dati. Una maggiore disponibilità di dati è anche il segno dello sviluppo delle scienze e della tecnologia. 

Dunque generare una sequenza di bit, un dato, è molto semplice. Generalmente siamo interessati a sequenze di bit che hanno un contenuto informativo al loro interno che poi sono la quasi totalità di sequenze digitali che vengono generate, memorizzate e lavorate. In teoria si studiano anche le sequenze di bit quasi-randomiche, che rappresentano cioè il caos ossia fenomeni totalmente aleatori come il rumore termico, ma tali sequenze di bit non avendo contenuto informativo hanno una loro importanza teorica ma non hanno un interesse pratico.

Come si genera un dato

Il dato viene generato da programmi informatici inglobati in dispositivi più o meno complessi, che possono lavorare in piena autonomia o richiedono l’intervento umano. Autonomia piena è sempre un concetto relativo legato alla lunghezza del processo produttivo, ossia possiamo avere la quasi piena autonomia per un certa porzione del processo produttivo, ma non può esserci autonomia totale di tutto il sistema capitalistico, più un processo si autonomizza più nello stesso processo e in altri adiacenti aumentano i ritmi di lavoro umano. Ciò dipende dalla dimensione dello spazio processuale che prendiamo in esame.

Ad esempio oggi con il 5G potremmo avere elettrodomestici che catturano informazioni: con una telecamera interna il frigo può vedere che manca la frutta e, se opportunamente settato dal proprietario, può inviare al server della coop una richiesta di spesa per mezzo di un servizio web, il quale recapita la spesa a casa trasferendo automaticamente la richiesta ad un sistema di consegne a domicilio il quale è dotato a sua volta di un server che è in grado di far partire delle auto a guida autonoma e contestualmente invia una richiesta monetaria alla banca. Se mi fermassi ad osservare questo pezzo di processo (futuristico), potrei dedurne che è tutto automatico, ma a parte che anche qui può esserci l’intervento umano di tipo manutentivo, comunque questo è solo un pezzo del tutto. 

Dunque ci sono due grandi categorie di dispositivi che generano dati. I sensori i quali sono una merce prodotta capitalisticamente e che dunque inglobano lavoro umano , i quali possono richiedere assistenza e solitamente generano dati già in una forma strutturata. Rientrano in questa categoria tutti quei dispositivi che misurano parametri fisici: temperature , pressioni, distanze , velocità, forze , luminosità, etc… Generalmente tali dispositivi catturano dei segnali fisici (ad esempio la luce), ne misurano alcune caratteristiche (ad esempio la luminosità), trasformano tali caratteristiche in bit, li aggregano e li codificano in un certo modo (ad esempio una fotografia) e li memorizzano o li inviano ad una memoria presente nella rete a cui sono connessi. La fotografia è un esempio ma ce ne sono tantissimi di esempi possibili: come detto ogni manifestazione di una forza fisica può essere rilevata, misurata, trasformata in una sequenza di bit con un opportuno sensore.

Rimanendo nel campo delle forze elettromagnetiche a seconda della porzione di spettro di frequenze esistono vari sensori. Nella frequenza del visibile, alla quale operano i nostri occhi (che sono sensori) ci sono le macchine fotografiche, in altre frequenze abbiamo alcuni tipi di radar spaziali che misurano velocità, direzioni del vento e posizioni di altri oggetti. Aumentando invece la frequenza si va ad esempio verso i raggi X o le risonanze magnetiche . Alcune tra le strumentazioni più note in ambito sanitario, per fare un esempio la macchina per la risonanza magnetica, quella per la TAC e quella per l’Ecografia, non sono altro che sensori ossia sistemi elettronici che trasformano parametri fisici in dati informatici codificati. I nostri cellulari più complessi inglobano decine di sensori dalle fotocamere al GPS, sensori di pressione etc... 

Il caso dei sensori classici è quello più immediato da pensare quando si vuole fare l’esempio di un sistema che produce dei dati a partire da fenomeni fisici. Questi dispositivi possono anche essere molto complessi, ma tutti quanti sono merce prodotta capitalisticamente che contiene lavoro umano cristallizzato, il quale può essere estratto, vivificato e moltiplicato per divenire nuovo valore superiore al precedente, da altro lavoro umano. Vedremo in seguito quando questo processo si innesca. Dove si trovano i sensori? Ormai questi sensori si trovano disseminati lungo tutta la fase produttiva. Le macchine di produzione inglobano decine di sensori direttamente utili alla produzione , al controllo sulla produzione e al controllo sui lavoratori.

Il dato dunque, quale elemento prodotto dal funzionamento di una macchina (o parte di essa come il sensore) oggettivizza in sé l’ennesima parte del valore totale della macchina che lo ha prodotto e che per far ciò si è consumata . 

Vi è però anche un secondo modo di produrre dati, quello costituito da algoritmi. Il sistema di navigazione in internet presente nel nostro pc è un esempio di questo tipo . Tale sistema genera dati ogni qual volta effettua una connessione, registrandoli e talvolta inviandoli direttamente a centri di elaborazione dei dati. Generiamo dati ad esempio quando avviamo una sessione internet presso un social network.

Questi dati che valore hanno?

Prendiamo la prima parte della trasmissione ossia dal momento che il dato è stato prodotto fino a che non giunge al server di un social qualsiasi per essere immagazzinato. Esempio: un soggetto che avvia una sessione facebook dal pc di casa per caricare una foto sul proprio profilo . Il valore che hanno questi dati, fino a questo punto del processo, cioè dal soggetto che lo ha prodotto fino al server che lo ha immagazzinato, corrisponde alla ennesima parte del valore dei dispositivi elettronici che hanno generato il dato e che perciò stesso si sono consumati. Se questo dato però entra in nuovo processo produttivo allora può acquisire nuovo valore grazie all’intervento dell’uomo. Se cioè su questa grande raccolta di dati conservati sul server inizia un nuovo processo di lavorazione con l’ intervento di un pool di informatici per estrarre informazioni dai dati allora il dato si arricchisce di nuovo valore.

I dati contengono informazioni più o meno strutturate ma per essere utili tali informazioni debbono essere estratte e categorizzate e ciò richiede intervento umano.

Quando si usa facebook si sta “lavorando”? No. Non può essere definito lavoro qualcosa che non ha uno scopo, non ha un fine e non ha una organizzazione. Eppure quella foto (dato) contiene un minimo di valore che, a questo stadio, corrisponde alla trasposizione dell’ennesima parte del valore complessivo di tali dispositivi, (PC , macchina fotografica) nella foto. Facciamo un esempio : una macchina fotografica nella sua vita scatta poniamo come esempio 10000 foto allora in ogni foto è cristallizato 1/10000 del valore della macchina fotografica . Tale valore , frazione di capitale, può morire e finire li con l’uso oppure divenire fonte di ulteriori guadagni se rientra in un nuovo processo di produzione che prevede l’ingresso di nuovo lavoro vivo. Dunque tutti i dati prodotti da ogni tipo di sensore costituiscono in potenza una fonte di profitto, una immane raccolta di materia prima che in questo stadio primitivo ha pochissimo valore. Possedere i dati significa possedere una miniera di metalli preziosi allo stadio grezzo, i quali però necessitano di lavoro umano per acquisire valore.

Il dato segue dunque la medesima strada che segue un metallo prezioso, segue diverse fasi di lavorazione e strutturazione. Più un dato è strutturato e lavorato (cioè ci hanno lavorato ingegneri, data analyst, filosofi sociologi, informatici) più il dato si arricchisce di valore perché dalla sua forma grezza e incomprensibile emerge sempre più la sua qualità cioè l’informazione in esso contenuta.

A partire da queste riflessioni abbozzate e sicuramente da rivedere, sarebbe interessante avviare un attento lavoro di ricerca finalizzato ad affinare gli strumenti di analisi del capitalismo nella sua forma attuale. Ci piacerebbe creare un gruppo di ricerca per esaminare le nuove forme di sfruttamento e invitiamo gli interessati ad unirsi a noi.

Un possibile schema di ricerca  potrebbe essere il seguente: 

  • Come cambia il mondo del lavoro: ossia analizzare la nuove modalità di organizzazione del lavoro come il  neotoyotismo basato sul  cottimo (smartworking), il cloud work e la gig econmy in generale .
  • Come cambia la società: Il “platform capitalism” come sta plasmando le nostre città? E come cambiano i rapporti tra gli uomini. Un esempio concreto a partire dai dati è il caso di un noto quartiere di Roma, San Lorenzo, in cui, come laboratorio politico Granma, abbiamo avviato una ricerca territoriale per capire come il mondo della piccola impresa della ristorazione va modificandosi. 
  • Come cambia la scienza: Una immane raccolta di dati può contribuire allo sviluppo scientifico ma non può eliminare la dialettica tra teoria e prassi. In altri termini si cade nell’empirismo se si pensa di dedurre una legge di natura semplicemente misurando i suoi aspetti quantitativi, eppure oggi qualcuno sostiene che l’intelligenza artificiale, ossia la possibilità di estrarre e classificare automaticamente informazioni dai Big Data, possa sostituire l’intelligenza naturale, siamo dinanzi ad un neoempirismo? 

 

 

Note

 

[1] OTT è un acronimo che identifica tutte quelle imprese che operano principalmente a livello applicativo mentre le TELCO sono invece quelle imprese che operano a livello di infrastruttura. Ad esempio Telecom è una TELCO e non è un OTT perché si occupa principalmente dell’infrastruttura di rete, qualcosa che sta “sotto”, Facebook invece è un OTT perché il suo business principale consiste nell’uso e nello sviluppo di una particolare applicazione e l’infrastruttura di rete non è centrale nella sua impresa perché vi opera al disopra

[2] Inc. (nota con la sigla AWS) è un'azienda statunitense di proprietà del gruppo Amazon, che fornisce servizi di cloud computing su un'omonima piattaforma on demand.

[3] Supercomputer i più potenti

[4] Fugaku, supercomputer made in Japan, attualmente il più potente al mondo, è costato 1.2 miliardi di dollari.

 

12/10/2020 | Copyleft © Tutto il materiale è liberamente riproducibile ed è richiesta soltanto la menzione della fonte.

Condividi

Pin It

La città futura

“Sono partigiano, vivo, sento nelle coscienze della mia parte già pulsare l’attività della città futura che la mia parte sta costruendo. E in essa la catena sociale non pesa su pochi, in essa ogni cosa che succede non è dovuta al caso, alla fatalità, ma è intelligente opera dei cittadini. Non c’è in essa nessuno che stia alla finestra a guardare mentre i pochi si sacrificano, si svenano. Vivo, sono partigiano. Perciò odio chi non parteggia, odio gli indifferenti.”

Antonio Gramsci

Newsletter

Iscrivi alla nostra newsletter per essere sempre aggiornato sulle notizie.

Contattaci: