I dati sono il petrolio del Data Economy

Ci siamo resi conto che i dati che continuiamo a raccogliere sono diventati energia vitale.

L’artificial Intelligence ci porta a comprendere sempre di più l’utilizzo dei dispositivi più innovativi per raccogliere dati, ma sempre meno consapevolezza del dato raccolto.

La maggior parte delle aziende sono vincolate ad un codice generato da parecchi anni con l’impossibilità, in molti casi, di aggiornare lo stesso codice e per questo, pur evolvendo le tecnologie, si continuano a raccogliere sempre più dati meno classificati e dissociati. Infatti le aziende attaverso l’ I.o.T(internet of things) sono in grado di catturare qualsiasi informazione sul profilo delle persone, ma poi non sono in grado di legare queste informazioni in un contesto I.o.P.(internet of people), praticamente sanno come si muovono le persone ma non sanno chi sono queste persone.

Il Data Driven Innovation è realizzabile solamente attraverso il Data Cleansing che si occupa di integrare algoritmi generati in un contesto di Data Heuristic Intelligence e di Data Collection, con l’obbiettivo di rendere intrinseca la funzione per cui il dato è stato raccolto.

«Il dato deve essere ordinato, senza un uso sperequato, poco umano e artificiale, affinché l’informazione non venga dispersa o ci si ritorca contro precipitando in una sorta di Medioevo tecnologico».

Do we produce data to create pollution like plastic?

In the Pacific trash island there are 250 pieces of plastic for every human being.

of Piernicola Pedicini

Plastic was one of the most important innovations of the nineteenth century, but we pay the consequences because in the invention its natural disposal was not contemplated.

We are generating the same phenomenon by collecting declassified data thinking that they are still useful, but we have not thought about how to reclassify them and consequently how to dispose of them.

 

CURRENT CONTEXT

IMMEDIATE FUTURE

ARTIFICIAL INTELLIGENCEHEURISTIC INTELLIGENCE
MACHINE LEARNINGDATA LEARNING
INTERNET OF THINGSINTERNET OF PEOPLE

Produciamo Dati per creare inquinamento come la Plastica ?

Nell’isola di spazzatura del Pacifico ci sono 250 pezzi di plastica per ogni essere umano

Di Piernicola Pedicini

La plastica è stata una delle innovazioni più importanti del XIX° secolo, ma ne paghiamo le conseguenze perchè nell’invenzione non si è contemplato il suo smaltimento naturale.

Stiamo generando lo stesso fenomeno raccogliendo dati declassificati pensando che siano comunque utili, ma non abbiamo pensato a come riclassificarli e di conseguenza come smaltirli.

CURRENT CONTEXT

IMMEDIATE FUTURE

ARTIFICIAL INTELLIGENCEHEURISTIC INTELLIGENCE
MACHINE LEARNINGDATA LEARNING
INTERNET OF THINGSINTERNET OF PEOPLE

 

 

Do we produce incomprehensible data?

“The complexity of a microcircuit, measured for example by the number of transistors per chip, doubles every 18 months (and therefore quadruples then every 3 years).” (Moore’s first law)

We continue to generate I.o.T. at an ever increasing speed both as advanced versions of the previous one and as new ones, collecting quantities of data that we sometimes neglect and sometimes memorize but without any classification.

This attitude generates constant misunderstanding on the part of the software in using these declassified data and without any possibility of adding and creating new heuristics.

The last plane crash in Ethiopia creates a paradox that should make us think further considering that it had already happened previously in Indonesia.

“Yesterday, Ethiopia chose to entrust the analysis to Germany, but the German federal agency for air accidents had declined the request for” lack of the necessary software “to analyze them.” Source Il Messaggero of Thursday 14 March 2019

We are so unaware of the scenarios we are producing that we delegate to I.o.T. and we authorize the software that interfaces them to decide or worse to exclude the man and his heuristics in the reality of the context.

So I ask myself a question too many devices have evolved or is the classification of the data we collect missing to allow software to work on a heuristic basis ?

Produciamo dati incomprensibili ?

«La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).» (Prima legge di Moore)

Continuiamo a generare dispositivi I.o.T. ad una velocità sempre più crescente sia come versioni evolute del precedente che come nuovi, raccogliendo quantità di dati che a volte trascuriamo e a volte memorizziamo ma senza nessuna classificazione.

Questo atteggiamento genera costante incomprensione da parte dei software nell’utilizzo di questi dati declassificati e senza nessuna possibilità di aggiungere e creare nuova euristica.

L’ultimo incidente aereo accaduto in Etiopia crea un paradosso che ci dovrebbe far riflettere ulteriormente considerando che era già avvenuto in precedenza in Indonesia.

“Ieri l’Etiopia aveva scelto di affidare le analisi alla Germania, ma l’ente federale tedesco per gli incidenti aerei aveva declinato la richiesta per «mancanza del software necessario» ad analizzarle.” Fonte Il Messaggero di Giovedì 14 Marzo 2019

Siamo talmente inconsapevoli degli scenari che stiamo producendo che deleghiamo all’ I.o.T. e autorizziamo i software che li interfacciano a decidere o peggio a escludere l’uomo e la sua euristica nella realtà del contesto.

Quindi mi pongo una domanda sono troppi evoluti i dispositivi o manca la classificazione dei dati che raccogliamo per dare modo ai software di lavorare su base euristica ?