5.7 KiB
id | title | date | author | layout | guid | permalink | blogger_blog | blogger_author | blogger_a4a2016d1c35883202d5ddff9b0ea4ff_permalink | categories | tags | |||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
85 | Il Big Bang dei Big Data | 2015-04-05T22:44:00+00:00 | pesceWanda | post | https://provaprova456789.wordpress.com/2015/04/05/il-big-bang-dei-big-data | /index.php/archives/85 |
|
|
|
|
|
“Perche` sto puntando tutto sul deep learning? Perche’ sara` il nuovo Big Bang”
Cosi` ha parlato il CEO di Nvidia Jensen Huang il 3 marzo scorso alla sua GTC 2015.
L’attenzione di Huang si e` concentrata sul deep learning e come le deep neural networks negli ultimi anni abbiano compiuto progressi impressionanti tali da superare il cervello umano nei test di analisi immagine.
Molta della ricerca negli ultimi anni, in particolare dal 2012 ad oggi, si sta concentrando sul programmare algoritmi tali da consentire alle intelligenze artificiali di processare dati in maniera gerarchica e organizzata tramite l’apprendimento progressivo dei livelli di rappresentazione.
E` una scienza che acquista un’importanza fondamentale, anzi diventa un requisito necessario nel campo dei Big Data.
gratis: il paradosso del Web 2.0 |
Come possono mantenersi in vita aziende come Google, Facebook, Twitter e moltissime altre che gratuitamente offrono agli utenti finali servizi?
I dati sono la risposta economica a: “Iscriviti, e’ gratis e lo sarà sempre” e lo sfruttamento di essi rende possibile le ricerche di marketing, la progettazione di gadget e sopratutto le previsioni a breve termine di trend economici, flessioni di mercato, insomma il futuro della societa’.
I dati cosi` raccolti pero` nella maggior parte dei casi sono non organizzati e a risolvere questo dilemma interviene il deep learning che si occupa di gestire, ordinare ed integrare i dati provenienti dalle sorgenti analizzate. Perfezionare il deep learning significa poter integrare e comprendere ogni singolo flusso di dati all’interno del grande mare dei big data.
Jensen continua il suo discorso affermando che: “Oggi c’e` una mole di dati troppo estesa per poter comprendere cosa stia accadendo. Un super computer grazie al deep learning potra` in futuro offrirci previsioni quanto piu` attendibili, previsioni che l’uomo non potrebbe nemmeno percepire. In futuro grazie a tutti i dispositivi connessi in internet avremo dati di qualsiasi genere. Anche quelli piu’ impensabili: in base ai dati raccolti potremo dire, per esempio, se in un determinato luogo si sta svolgendo una rapina od una sommossa.”
Questa informazione per me rappresenta un lapsus ed e` l’aspetto piu` critico dei big data: l’abbattimento di ogni riservatezza personale tramite la concessione indiscriminata di dati abbatte ogni limite alla possibilita` di tecnocontrollo sul presente e sul futuro.
With Big Data Comes Big Responsibility afferma l’Harvard Business Center; ma davvero tutti i nostri dati generati dalle nostre attivita’ in rete sono esclusivamente proprieta` dei giganti del Web? E’ giusto che anche le nostre attivita` al di fuori del Web, come i nostri registri medici siano venduti e sfruttati commercialmente o a fini di controllo sociale?
Jeremy Keith
|
E` inutile chiedere regolamentazione ai governi che purtroppo sembrano ignorare le implicazioni etiche di queste pratiche oppressive, anzi in alcuni casi le sfruttano in proprio favore. E` utopico pensare di poter convincere le aziende a rinunciare a questi dati che rappresentano la loro linfa vitale.
La via di uscita sembra essere una sola, anche se poco desiderabile: l’opt out ovvero la rinuncia consapevole da parte dell’utente al servizio.