Emologic – Dynamic Sentiment Polarity

“La digitalizzazione indifferenziata delle nostre vite ha apportato un’esponenziale crescita di datificazione; siamo tutti, nessuno escluso, “produttori di dati e di relazioni” che entrano in modo sempre più diretto nei processi di accumulazione capitalistica.

Per avere un ordine di grandezza delle quantità e dell’accelerazione di cui parliamo, dove proprio la datificazione costituisce il cardine centrale, Martin Hilbert della Annenberg School for Communication and Journalism ha calcolato che, mentre nel 2000 le informazioni registrate nel mondo erano per il 25% supportate da formato digitale e per il 75% contenute su dispositivi analogici, nel 2013 le informazioni digitalizzate, sono stimate attorno i 1.200 exabyte e sono il 98% del totale, lasciando all’analogico solo il 2%.

Quindi se fino a qualche anno fa i dati potevano essere analizzati da un esperto o da un gruppo di ricerca, avvalendosi di macchine ed algoritmi classici per poterne estrarre le informazioni utili alla profilazione, oggi i big data rendono insoddisfacenti e obsoleti questi modelli, questo perché siamo oggi nella condizione, mai avuta prima, di possedere una quantità di dati maggiore di quella che i mezzi ci permettono di gestire. Viene da se la necessità di utilizzare meccanismi di Artificial Intelligence come il Machine Learning, perché mentre nell’algoritmica classica la macchina ha il compito di eseguire determinati calcoli in un ordine prefissato, nel Machine Learning l’algoritmo trova nei dati la linfa vitale, definendoli la materia prima; l’incredibile potenza è questo processo può essere applicato praticamente ad ogni contesto.
Per fare ciò abbiamo bisogno di un’unica cosa, di un dataset sufficiente grande, con informazioni contestualizzate ai nostri obbiettivi, che faccia il training ai nostri algoritmi.

PRAGMA ETIMOS, leader nella raffinazione dei dati (Data Economy), ha da diverso tempo nel proprio settore di Ricerca e Sviluppo integrato lo studio di processi di Sentiment Analysis, branca del Natural Language Processing, con il fine di determinare un livello di “positività” o “negatività” emotiva da un testo destrutturato. Per creare un tale algoritmo di machine learning è stato necessario recuperare una grossa mole di testi “etichettati”, che la rete ci mette a disposizione con le tante piattaforme social di tipo open, disponibili pubblicamente e costituiti da un testo annesso ad una valutazione, che già ne costituisce una catalogazione sentimentale, per effettuare un traning nel modo più accurato possibile. Successivamente si è resa necessaria una calibrazione dei processi di riconoscimento per mezzo di precise tokenizzazioni (separazione degli elementi) con una lemmatura (gestione delle forme flesse) e una ricerca dell’elemento naturalizzato nel DB dei lemmi catalogati in modo positivo e negativo, dove proprio l’algoritmo avrà il compito di calcolare la reale polarità confrontando i vari punteggi. “

Emologic – Dynamic Sentiment Polarity

“The undifferentiated digitalization of our lives has brought an exponential growth of datification; we are all, without exception, “producers of data and relationships” who enter more and more directly into the processes of capitalist accumulation.

To have an order of magnitude of the quantities and of the acceleration of which we speak, where precisely the datification constitutes the central pivot, Martin Hilbert of the Annenberg School for Communication and Journalism has calculated that, while in 2000 the information recorded in the world was for the 25 % supported by digital format and 75% contained on analog devices, in 2013 the digitized information is estimated around 1,200 exabytes and is 98% of the total, leaving only 2% to the analogue.

So if up to a few years ago the data could be analyzed by an expert or a research group, using classic machines and algorithms to be able to extract the information useful for profiling, today big data make these models unsatisfactory and obsolete, this because we are today in the condition, never had before, of possessing a quantity of data greater than that which the means allow us to manage. The need to use Artificial Intelligence mechanisms such as Machine Learning comes from, because while in classical algorithm the machine has the task of performing certain calculations in a predetermined order, in Machine Learning the algorithm finds the lifeblood in the data, defining them the raw material; the incredible power is this process can be applied to virtually any context.
To do this we need a single thing, a sufficiently large dataset, with information contextualised to our goals, which trains our algorithms.

PRAGMA ETIMOS, leader in data refining (Data Economy), has for some time in its field of integrated Research and Development the study of Sentiment Analysis processes, a branch of Natural Language Processing, with the aim of determining a “positivity” level or emotional “negativity” from a destructured text. To create such a machine learning algorithm it was necessary to recover a large amount of “labeled” texts, which the network makes available to us with the many open social platforms, publicly available and consisting of a text attached to an evaluation, which it already constitutes a sentimental cataloging, to carry out a traning as accurately as possible. Subsequently a calibration of the recognition processes was necessary by means of precise tokenizations (separation of the elements) with a lemmatura (management of inflected forms) and a search for the element naturalized in the DB of the headings cataloged in a positive and negative way, where precisely the algorithm will have the task of calculating the real polarity by comparing the various scores. “

I dati sono il petrolio del Data Economy

Ci siamo resi conto che i dati che continuiamo a raccogliere sono diventati energia vitale.

L’artificial Intelligence ci porta a comprendere sempre di più l’utilizzo dei dispositivi più innovativi per raccogliere dati, ma sempre meno consapevolezza del dato raccolto.

La maggior parte delle aziende sono vincolate ad un codice generato da parecchi anni con l’impossibilità, in molti casi, di aggiornare lo stesso codice e per questo, pur evolvendo le tecnologie, si continuano a raccogliere sempre più dati meno classificati e dissociati. Infatti le aziende attaverso l’ I.o.T(internet of things) sono in grado di catturare qualsiasi informazione sul profilo delle persone, ma poi non sono in grado di legare queste informazioni in un contesto I.o.P.(internet of people), praticamente sanno come si muovono le persone ma non sanno chi sono queste persone.

Il Data Driven Innovation è realizzabile solamente attraverso il Data Cleansing che si occupa di integrare algoritmi generati in un contesto di Data Heuristic Intelligence e di Data Collection, con l’obbiettivo di rendere intrinseca la funzione per cui il dato è stato raccolto.

«Il dato deve essere ordinato, senza un uso sperequato, poco umano e artificiale, affinché l’informazione non venga dispersa o ci si ritorca contro precipitando in una sorta di Medioevo tecnologico».