ITMedia Consulting e Università Bocconi, studio su tendenze e prospettive dell’economia dei dati

dati-analisi-chief-data-officer-imc

dati-analisi-chief-data-officer-imc

ITMedia Consulting, con il contributo scientifico del Centro di Ricerca ASK Università Bocconi, ha realizzatoL’economia dei dati: tendenze di mercato e prospettive di policy, studio che ha l’obiettivo “di fornire spunti di riflessione che possano consentire a soggetti interessati a vario titolo (decision makers, imprese, autorità di regolazione e concorrenza, università centri di ricerca, studiosi e consulenti) di approfondire gli aspetti economici e di policy relativi all’economia digitale e in particolare alla cd. data driven economy, aggiornando modelli interpretativi e sviluppando chiavi di lettura anche in materia di concorrenza, regolazione e privacy, adeguati alla complessità e velocità dei mutamenti in atto”.

Di seguito, la sintesi delle principali evidenze dello studio:

Siamo all’alba di una nuova era dello sviluppo economico e sociale, frutto di un continuo, inarrestabile processo di innovazione, che ha caratterizzato nel corso degli ultimi due decenni lo sviluppo di internet, attraverso la diffusione della digital economy in tutti i settori, non più soltanto legati all’ICT.

Tecnologie, piattaforme e sistemi innovativi come Cloud Computing, Internet of Things, Big Data & Analytics, Blockchain, Artificial Intelligence, Augmented Reality & Virtual Reality, Advanced robotics & 3D printing e 5G costituiscono i nuovi strumenti abilitanti della digital economy che, grazie alla sua diffusione pervasiva in tutti i settori, promette, dunque, di dar luogo a una nuova era dello sviluppo economico e sociale e più in generale a una nuova e più evoluta fase dell’esistenza umana.

Uno dei fattori chiave che guidano lo sviluppo dell’economia digitale è rappresentato dunque dai dati: una risorsa che rende sempre più importante per le imprese dotarsi di strumenti analitici adeguati, ma che richiede soprattutto un importante cambiamento nella struttura economica e culturale delle società digitali.

La letteratura prevalente, tende a concentrarsi sull’aspetto quantitativo e dunque concernente il volume dei dati (da qui il termine big data). Tuttavia, il volume non è l’unica caratteristica importante. La velocità alla quale i dati vengono generati e resi accessibili è parimenti impressionante. Il fenomeno dei big data è definito anche in ragione della capacità di analizzare una varietà di insiemi di dati non strutturati provenienti da fonti diverse.

Secondo i curatori dello studio, la digitalizzazione pervasiva pone dunque i dati quale elemento catalizzatore dell’innovazione. Si rende necessario quindi che le organizzazioni si trasformino puntando a diventare sempre più data driven, I dati possono incidere positivamente sul miglioramento dei prodotti o servizi di un’impresa; possono consentire alle imprese di sfruttare nuove opportunità di business; possono anche essere utilizzati per orientare meglio i potenziali clienti, fornendo loro servizi o prodotti personalizzati. I benefici non sono però circoscritti unicamente alle imprese ma anche ai cittadini a alle amministrazioni pubbliche

In ambito Antitrust, il fatto che una impresa disponga di big data non implica necessariamente che quell’impresa disponga di potere nel mercato o nei mercati della generazione e raccolta di quei dati. Analogamente, non si può stabilire un nesso causale necessariamente vero tra l’esistenza di big data in capo a una impresa e il fatto che essa possa esercitare potere nei mercati che si collocano a valle della generazione e raccolta dei dati.

Le barriere all’accesso ai dati digitali non rappresentano una particolarità dei mercati della generazione e raccolta dei dati digitali. Con riguardo alle operazioni di concentrazione, l’esperienza accumulata sinora ha quasi sempre escluso l’eventualità che imprese, pur depositarie di big data, riuscissero, aggregando i propri patrimoni di informazioni, a impedire che i propri concorrenti avessero accesso a dati sufficienti per produrre beni e servizi in concorrenza con i loro. Con riferimento alla collusione algoritmica, a destare maggiore preoccupazione “è l’ipotesi che riproduce l’interdipendenza oligopolistica, ossia l’ipotesi per cui ogni operatore arrivi a praticare un prezzo collusivo, sebbene abbia sviluppato il proprio algoritmo in modo autonomo e indipendente”. Con riferimento ai prezzi personalizzati, “a suscitare maggiori perplessità è il caso dei prezzi discriminatori che non si rivelino né escludenti né anticompetitivi, bensì di sfruttamento. Riguardo al rifiuto di condividere i dati, il soddisfacimento dei requisiti della dottrina dell’essential facilities è problematico ed ancor più complessi sono i risvolti pratici dell’applicazione della suddetta dottrina”.

Il rapporto tra il diritto antitrust e la disciplina a tutela dei dati personali, evidenziano i curatori dello studio, può essere declinato lungo diverse direttrici:

a) le nuove regole in materia di portabilità dei dati aumenteranno la concorrenza tra le imprese che analizzano quei dati personali per produrre conoscenza e valore;

b) sarebbe del tutto fisiologico un intervento antitrust che fosse teso a sanzionare eventuali strategie capaci di ridurre la quantità e la qualità di beni e servizi;

c) il caso Facebook avviato dal Bundeskartellamt (l’Autorità di vigilanza sulla concorrenza nel mercato tedesco) suggerisce che le condotte per effetto delle quali le imprese raccolgono dati personali possano risultare, oltre che lesive della privacy, anche abusive in quanto inique ed ingiustificatamente gravose;

d) il diritto antitrust e la disciplina della privacy potrebbero trovare un punto di convergenza laddove una riduzione di quest’ultima venga qualificata come una riduzione della qualità dei beni e servizi offerti.

L’Autorità per le Garanzie nelle Comunicazioni, è fra le autorità di regolazione, quella che guarda con particolare interesse ai big data dovendo garantire un accesso al mercato secondo criteri di obiettività, trasparenza, non discriminazione e proporzionalità per i servizi di sua competenza. Fra i compiti dell’AGCOM vi è anche quello di promuovere il pluralismo informativo, un tema che, per le sue connotazioni, legate ad aspetti che vanno oltre gli ambiti strettamente economici, da sempre ha creato problemi applicativi. La dimensione individuale e sociale (diritto all’informazione) richiede una maggiore attenzione all’evoluzione in atto (fake news, post verità), ma sempre allo scopo di migliorare una strumentazione fin qui carente in tema di pluralismo informativo.

Essendo l’azione del regolatore più “invasiva”, si ritiene necessaria solamente in circostanze particolari, quelle in cui si reputa necessario un suo intervento, al fine di ripristinare le corrette dinamiche del mercato. Ciò si verifica quando si rileva la presenza di fallimenti di mercato.

In particolare, sottolineano ancora i curatori dello studio, c’è chi ritiene appropriato l’intervento della regolazione in caso di asimmetria informativa legata anche all’ignoranza/inconsapevolezza dei consumatori “fonti di dati” e dei consumatori “destinatari di informazioni e beni”. Un approccio basato sull’obbligo di informare si è rivelato però fin qui inefficace. Rendere i consumatori più consapevoli del valore dei propri dati è il presupposto da cui partire per superare le asimmetrie informative e valutare il trade-off tra disclosure e protezione.

Di segno positivo sono le misure di recente implementate in Europa per favorire la data portability: in assenza di rilevanti costi di spostamento per via della portabilità dei dati, a parità di condizioni economiche (a parità di prezzi nulli) le piattaforme saranno incentivate a far leva sull’altro parametro di competizione (la qualità). Poco auspicabili risulterebbero, invece, interventi sulle politiche di prezzo delle piattaforme. La non neutralità della struttura dei prezzi applicati dalla piattaforma è funzionale alla necessità di alimentare entrambi i versanti, sicché un eventuale intervento regolatorio teso a proibire i prezzi nulli rischierebbe di minare non solo il business model ma l’esistenza stessa di una piattaforma.

Ricordando nuovamente quanto sia inapplicabile la dottrina dell’essential facility al fenomeno dei big data, i curatori dello studio evidenziano inoltre come imporre a soggetti privati di rendere disponibile la loro banca dati o i loro algoritmi di elaborazione gratuitamente potrebbe essere una misura compromettente gli equilibri del mercato, che finirebbe per produrre un danno oltre che per le imprese anche per il benessere dei cittadini/consumatori.

Privacy. L’immagine virtuale di ognuno di noi è la stratificazione di dati ceduti involontariamente, di dati che siamo costretti a cedere se vogliamo usufruire di un servizio e di dati che mettiamo in rete volontariamente per definire la nostra identità pubblica. Il nuovo Regolamento 2016/679 (noto come GDPR, General Data Protection Regulation) riconosce la natura transnazionale della data economy adottando un approccio estensivo al proprio ambito di applicazione territoriale e rafforzando gli strumenti per garantire l’adeguatezza del trasferimento extra-UE dei dati personali.

La liceità del trattamento e conservazione dei big data, infine, resta un aspetto non definito dal GDPR che rimane aperto all’interpretazione giuridica, alle prese con il difficile bilanciamento tra principi di trasparenza, data minimization ed esigenze di sviluppo di nuovi prodotti e servizi.

Intermedia Channel

Related posts

Top