francescomecca.eu/_posts/2015-04-05-il-big-bang-dei-big-data.md
2017-03-20 00:46:14 +01:00

5.7 KiB
Raw Blame History

id title date author layout guid permalink blogger_blog blogger_author blogger_a4a2016d1c35883202d5ddff9b0ea4ff_permalink categories tags
85 Il Big Bang dei Big Data 2015-04-05T22:44:00+00:00 pesceWanda post https://provaprova456789.wordpress.com/2015/04/05/il-big-bang-dei-big-data /index.php/archives/85
caught-in-thenet.blogspot.com
pescedinomewanda
6278429491310274638
PesceWanda
anonimato
Big data
Deep learning
huang
privacy

“Perche` sto puntando tutto sul deep learning? Perche sara` il nuovo Big Bang”

Cosi` ha parlato il CEO di Nvidia Jensen Huang il 3 marzo scorso alla sua GTC 2015.
Lattenzione di Huang si e` concentrata sul deep learning e come le deep neural networks negli ultimi anni abbiano compiuto progressi impressionanti tali da superare il cervello umano nei test di analisi immagine.

Molta della ricerca negli ultimi anni, in particolare dal 2012 ad oggi, si sta concentrando sul programmare algoritmi tali da consentire alle intelligenze artificiali di processare dati in maniera gerarchica e organizzata tramite lapprendimento progressivo dei livelli di rappresentazione.
E` una scienza che acquista unimportanza fondamentale, anzi diventa un requisito necessario nel campo dei Big Data.

gratis: il paradosso del Web 2.0

Come possono mantenersi in vita aziende come Google, Facebook, Twitter e moltissime altre che gratuitamente offrono agli utenti finali servizi?
I dati sono la risposta economica a: “Iscriviti, e gratis e lo sarà sempre” e lo sfruttamento di essi rende possibile le ricerche di marketing, la progettazione di gadget e sopratutto le previsioni a breve termine di trend economici, flessioni di mercato, insomma il futuro della societa.

I dati cosi` raccolti pero` nella maggior parte dei casi sono non organizzati e a risolvere questo dilemma interviene il deep learning che si occupa di gestire, ordinare ed integrare i dati provenienti dalle sorgenti analizzate. Perfezionare il deep learning significa poter integrare e comprendere ogni singolo flusso di dati allinterno del grande mare dei big data.

Jensen continua il suo discorso affermando che: “Oggi ce` una mole di dati troppo estesa per poter comprendere cosa stia accadendo. Un super computer grazie al deep learning potra` in futuro offrirci previsioni quanto piu` attendibili, previsioni che luomo non potrebbe nemmeno percepire. In futuro grazie a tutti i dispositivi connessi in internet avremo dati di qualsiasi genere. Anche quelli piu impensabili: in base ai dati raccolti potremo dire, per esempio, se in un determinato luogo si sta svolgendo una rapina od una sommossa.”

Questa informazione per me rappresenta un lapsus ed e` laspetto piu` critico dei big data: labbattimento di ogni riservatezza personale tramite la concessione indiscriminata di dati abbatte ogni limite alla possibilita` di tecnocontrollo sul presente e sul futuro.

With Big Data Comes Big Responsibility afferma lHarvard Business Center; ma davvero tutti i nostri dati generati dalle nostre attivita in rete sono esclusivamente proprieta` dei giganti del Web? E giusto che anche le nostre attivita` al di fuori del Web, come i nostri registri medici siano venduti e sfruttati commercialmente o a fini di controllo sociale?

Jeremy Keith
    <div class="view follow-view clear-float photo-attribution" id="yui_3_16_0_1_1434565601596_716">
      <span class="relationship"> </span>
    </div>
  </div>
</td>

E` inutile chiedere regolamentazione ai governi che purtroppo sembrano ignorare le implicazioni etiche di queste pratiche oppressive, anzi in alcuni casi le sfruttano in proprio favore. E` utopico pensare di poter convincere le aziende a rinunciare a questi dati che rappresentano la loro linfa vitale.

La via di uscita sembra essere una sola, anche se poco desiderabile: lopt out ovvero la rinuncia consapevole da parte dellutente al servizio.

Francesco Mecca