Emologic – Dynamic Sentiment Polarity

“La digitalizzazione indifferenziata delle nostre vite ha apportato un’esponenziale crescita di datificazione; siamo tutti, nessuno escluso, “produttori di dati e di relazioni” che entrano in modo sempre più diretto nei processi di accumulazione capitalistica.

Per avere un ordine di grandezza delle quantità e dell’accelerazione di cui parliamo, dove proprio la datificazione costituisce il cardine centrale, Martin Hilbert della Annenberg School for Communication and Journalism ha calcolato che, mentre nel 2000 le informazioni registrate nel mondo erano per il 25% supportate da formato digitale e per il 75% contenute su dispositivi analogici, nel 2013 le informazioni digitalizzate, sono stimate attorno i 1.200 exabyte e sono il 98% del totale, lasciando all’analogico solo il 2%.

Quindi se fino a qualche anno fa i dati potevano essere analizzati da un esperto o da un gruppo di ricerca, avvalendosi di macchine ed algoritmi classici per poterne estrarre le informazioni utili alla profilazione, oggi i big data rendono insoddisfacenti e obsoleti questi modelli, questo perché siamo oggi nella condizione, mai avuta prima, di possedere una quantità di dati maggiore di quella che i mezzi ci permettono di gestire. Viene da se la necessità di utilizzare meccanismi di Artificial Intelligence come il Machine Learning, perché mentre nell’algoritmica classica la macchina ha il compito di eseguire determinati calcoli in un ordine prefissato, nel Machine Learning l’algoritmo trova nei dati la linfa vitale, definendoli la materia prima; l’incredibile potenza è questo processo può essere applicato praticamente ad ogni contesto.
Per fare ciò abbiamo bisogno di un’unica cosa, di un dataset sufficiente grande, con informazioni contestualizzate ai nostri obbiettivi, che faccia il training ai nostri algoritmi.

PRAGMA ETIMOS, leader nella raffinazione dei dati (Data Economy), ha da diverso tempo nel proprio settore di Ricerca e Sviluppo integrato lo studio di processi di Sentiment Analysis, branca del Natural Language Processing, con il fine di determinare un livello di “positività” o “negatività” emotiva da un testo destrutturato. Per creare un tale algoritmo di machine learning è stato necessario recuperare una grossa mole di testi “etichettati”, che la rete ci mette a disposizione con le tante piattaforme social di tipo open, disponibili pubblicamente e costituiti da un testo annesso ad una valutazione, che già ne costituisce una catalogazione sentimentale, per effettuare un traning nel modo più accurato possibile. Successivamente si è resa necessaria una calibrazione dei processi di riconoscimento per mezzo di precise tokenizzazioni (separazione degli elementi) con una lemmatura (gestione delle forme flesse) e una ricerca dell’elemento naturalizzato nel DB dei lemmi catalogati in modo positivo e negativo, dove proprio l’algoritmo avrà il compito di calcolare la reale polarità confrontando i vari punteggi. “

I dati sono il petrolio del Data Economy

Ci siamo resi conto che i dati che continuiamo a raccogliere sono diventati energia vitale.

L’artificial Intelligence ci porta a comprendere sempre di più l’utilizzo dei dispositivi più innovativi per raccogliere dati, ma sempre meno consapevolezza del dato raccolto.

La maggior parte delle aziende sono vincolate ad un codice generato da parecchi anni con l’impossibilità, in molti casi, di aggiornare lo stesso codice e per questo, pur evolvendo le tecnologie, si continuano a raccogliere sempre più dati meno classificati e dissociati. Infatti le aziende attaverso l’ I.o.T(internet of things) sono in grado di catturare qualsiasi informazione sul profilo delle persone, ma poi non sono in grado di legare queste informazioni in un contesto I.o.P.(internet of people), praticamente sanno come si muovono le persone ma non sanno chi sono queste persone.

Il Data Driven Innovation è realizzabile solamente attraverso il Data Cleansing che si occupa di integrare algoritmi generati in un contesto di Data Heuristic Intelligence e di Data Collection, con l’obbiettivo di rendere intrinseca la funzione per cui il dato è stato raccolto.

«Il dato deve essere ordinato, senza un uso sperequato, poco umano e artificiale, affinché l’informazione non venga dispersa o ci si ritorca contro precipitando in una sorta di Medioevo tecnologico».

Produciamo Dati per creare inquinamento come la Plastica ?

Nell’isola di spazzatura del Pacifico ci sono 250 pezzi di plastica per ogni essere umano

Di Piernicola Pedicini

La plastica è stata una delle innovazioni più importanti del XIX° secolo, ma ne paghiamo le conseguenze perchè nell’invenzione non si è contemplato il suo smaltimento naturale.

Stiamo generando lo stesso fenomeno raccogliendo dati declassificati pensando che siano comunque utili, ma non abbiamo pensato a come riclassificarli e di conseguenza come smaltirli.

CURRENT CONTEXT

IMMEDIATE FUTURE

ARTIFICIAL INTELLIGENCEHEURISTIC INTELLIGENCE
MACHINE LEARNINGDATA LEARNING
INTERNET OF THINGSINTERNET OF PEOPLE

 

 

Produciamo dati incomprensibili ?

«La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).» (Prima legge di Moore)

Continuiamo a generare dispositivi I.o.T. ad una velocità sempre più crescente sia come versioni evolute del precedente che come nuovi, raccogliendo quantità di dati che a volte trascuriamo e a volte memorizziamo ma senza nessuna classificazione.

Questo atteggiamento genera costante incomprensione da parte dei software nell’utilizzo di questi dati declassificati e senza nessuna possibilità di aggiungere e creare nuova euristica.

L’ultimo incidente aereo accaduto in Etiopia crea un paradosso che ci dovrebbe far riflettere ulteriormente considerando che era già avvenuto in precedenza in Indonesia.

“Ieri l’Etiopia aveva scelto di affidare le analisi alla Germania, ma l’ente federale tedesco per gli incidenti aerei aveva declinato la richiesta per «mancanza del software necessario» ad analizzarle.” Fonte Il Messaggero di Giovedì 14 Marzo 2019

Siamo talmente inconsapevoli degli scenari che stiamo producendo che deleghiamo all’ I.o.T. e autorizziamo i software che li interfacciano a decidere o peggio a escludere l’uomo e la sua euristica nella realtà del contesto.

Quindi mi pongo una domanda sono troppi evoluti i dispositivi o manca la classificazione dei dati che raccogliamo per dare modo ai software di lavorare su base euristica ?