francescomecca.eu/output/categories/genetic-algorithm.xml
Francesco Mecca 2fc0ad5c9f new cv
2020-01-29 11:08:46 +01:00

338 lines
No EOL
28 KiB
XML

<?xml version="1.0" encoding="utf-8"?>
<?xml-stylesheet type="text/xsl" href="../assets/xml/rss.xsl" media="all"?><rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Caught in the Net (Posts about Genetic algorithm)</title><link>francescomecca.eu</link><description></description><atom:link href="francescomecca.eu/categories/genetic-algorithm.xml" rel="self" type="application/rss+xml"></atom:link><language>en</language><copyright>Contents © 2020 &lt;a href="mailto:francescomecca.eu"&gt;Francesco Mecca&lt;/a&gt; </copyright><lastBuildDate>Wed, 29 Jan 2020 10:04:35 GMT</lastBuildDate><generator>Nikola (getnikola.com)</generator><docs>http://blogs.law.harvard.edu/tech/rss</docs><item><title>Capire il Machine Learning (parte 3)</title><link>francescomecca.eu/blog/2016/11/15/machine-learning-parte3/</link><dc:creator>Francesco Mecca</dc:creator><description>&lt;div&gt;&lt;h3&gt;Riconoscimento delle immagini&lt;/h3&gt;
&lt;p&gt;Il machine learning viene utilizzato anche per il riconoscimento delle immagini.
La tipologia di rete neurale utilizzata per questa applicazione è chiamata rete neural a convoluzione ( &lt;strong&gt;convolutional neural networks&lt;/strong&gt;), abbreviata CNN.&lt;/p&gt;
&lt;p&gt;Innanzitutto consideriamo che ogni immagine può essere codificata come una matrice di valori&lt;/p&gt;
&lt;p&gt;&lt;img alt="pixel" src="francescomecca.eu/wp-content/uploads/2016/8.jpg"&gt;&lt;/p&gt;
&lt;p&gt;Vediamo ora quali sono le operazioni compiute da una &lt;strong&gt;CNN&lt;/strong&gt; per riconoscere delle immagini.&lt;/p&gt;
&lt;h5&gt;Convoluzione&lt;/h5&gt;
&lt;p&gt;Durante la fase di apprendimento, la rete neurale analizza moltissime immagini (categorizzate) utilizzando dei "filtri", ovvero delle funzioni che mescolate all'input originale permettono di evidenziare dei pattern nell'immagine.
Questi pattern corrispondono alle caratteristiche proprie di un oggetto (quali possono essere ad esempio per un uccello il becco, le piume, le ali) e nel caso queste sono presenti, possiamo riconoscere l'immagine.&lt;/p&gt;
&lt;p&gt;In questo esempio l'immagine di Wally é mescolata (l'operazione si chiama &lt;strong&gt;convoluzione&lt;/strong&gt;) con un filtro "a cerchio" che risponde molto bene a caratteristiche come quella di possedere degli occhi.&lt;/p&gt;
&lt;p&gt;&lt;img alt="waldoblue" src="francescomecca.eu/wp-content/uploads/2016/bluefilter.png"&gt;&lt;/p&gt;
&lt;p&gt;La &lt;strong&gt;convoluzione&lt;/strong&gt; é un'operazione che ha la proprietà di essere indipendente dalla posizione. Non importa la posizione degli occhi, quando applichiamo la &lt;strong&gt;convoluzione&lt;/strong&gt; su un'immagine con un filtro "a cerchio" notiamo che gli occhi sono presenti.&lt;/p&gt;
&lt;h5&gt;Subsampling&lt;/h5&gt;
&lt;p&gt;Ogni segnale contiene del "rumore", ovvero degli elementi che la allontanano dal comportamento ideale. &lt;/p&gt;
&lt;p&gt;&lt;img alt="ideal" src="francescomecca.eu/wp-content/uploads/2016/ideal.jpg"&gt;&lt;/p&gt;
&lt;p&gt;&lt;img alt="real" src="francescomecca.eu/wp-content/uploads/2016/real.jpg"&gt;&lt;/p&gt;
&lt;p&gt;Attraverso il subsampling possiamo ridurre il rumore e rendere il nostro algoritmo meno suscettibile a queste piccole variazioni; benché l'immagine abbia una risoluzione minore, i pattern rimangono.&lt;/p&gt;
&lt;p&gt;&lt;img alt="waldosub" src="francescomecca.eu/wp-content/uploads/2016/sub.png"&gt;&lt;/p&gt;
&lt;h5&gt;Connessione completa&lt;/h5&gt;
&lt;p&gt;Alla fine dell'analisi tutte le caratteristiche estrapolate vengono considerate nell'insieme e in questo modo possiamo capire a quale categoria appartiene l'immagine.&lt;/p&gt;
&lt;p&gt;Questo procedimento a livello algoritmo si esplicita con una connessione completa fra tutti i nodi della rete neurale che possono poi restituire l'output (probabilità che l'immagine appartenga ad una determinata categoria).&lt;/p&gt;
&lt;h5&gt;Fase di rinforzo&lt;/h5&gt;
&lt;p&gt;Durante il training é presente un'ultima fase (o strato), chiamato più propriamente &lt;strong&gt;loss layer&lt;/strong&gt;. Questo strato provvede a dare un &lt;strong&gt;feedback&lt;/strong&gt; alla rete neurale analizzando l'output in relazione ai dati di partenza (ovvero le immagini già categorizzate).&lt;/p&gt;&lt;/div&gt;</description><category>AI</category><category>algoritmi genetici</category><category>Genetic algorithm</category><category>Neural networks</category><category>PesceWanda</category><category>programming</category><category>reti neurali</category><guid>francescomecca.eu/blog/2016/11/15/machine-learning-parte3/</guid><pubDate>Tue, 15 Nov 2016 00:00:00 GMT</pubDate></item><item><title>Capire il Machine Learning (parte 2)</title><link>francescomecca.eu/blog/2016/11/11/machine-learning-parte2/</link><dc:creator>Francesco Mecca</dc:creator><description>&lt;div&gt;&lt;p&gt;Nel precedente &lt;a href="francescomecca.eu/pescewanda/2016/11/10/machine-learning-intro/"&gt;post&lt;/a&gt; abbiamo preso in considerazione una rete neurale molto basica.
Proviamo ora ad approfondire il concetto aggiungendo una proprietà fondamentale, la memoria.&lt;/p&gt;
&lt;h3&gt;Memoria e Stati&lt;/h3&gt;
&lt;p&gt;La rete neurale che abbiamo modellato non ha alcun tipo di memoria. con gli stessi dati di input, l'output è (quasi certamente) lo stesso.
Possiamo ampliare il nostro modello introducendo il concetto di &lt;em&gt;stato&lt;/em&gt;.&lt;/p&gt;
&lt;p&gt;Poniamo il problema della vendita delle auto in questo modo:
immaginiamo di avere un algoritmo di machine learning che valuti le auto e faccia delle offerte di vendita che conseguentemente vengono valutate da delle persone e accettate oppure rifiutate.
Ogni volta che una proposta viene accettata la teniamo in memoria e nell'aggiustare i pesi per la seguente offerta, teniamo in considerazione la validità dei pesi usati in precedenza.
In altre parloe, in ogni operazione di valutazione dell'auto salviamo lo stato dell'offerta precedente (rifiutata o accettata) e la consideriamo quando vogliamo proporre l'offerta successiva.
Abbiamo in questo modo una &lt;em&gt;recurrent neural network&lt;/em&gt; (RNN) dove ogni stato precedente viene utilizzato per modificare l'output dell'algoritmo.&lt;/p&gt;
&lt;h5&gt;Generazione di testo attraverso le RNN&lt;/h5&gt;
&lt;p&gt;Immaginiamo di voler creare un algoritmo che utilizzando una RNN possa generare del testo o prevedere quale sarà il prossimo carattere inserito (come nel caso del T9).&lt;/p&gt;
&lt;p&gt;Inizialmente dobbiamo permettere alla RNN di analizzare almeno qualche sample del nostro testo.
La RNN analizza carattere dopo carattere e costruisce un grande grafo dove collega ogni carattere al suo successivo.
Inizialmente l'output della nostra RNN non ha alcun valore:
in questo esempio, abbiamo l'output di una RNN allenata attraverso Guerra e Pace:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;tyntd-iafhatawiaoihrdemot lytdws e ,tfti, astai f ogoh eoase rrranbyne 'nhthnee e
plia tklrgd t o idoe ns,smtt h ne etie h,hregtrs nigtike,aoaenns lngty
&lt;/pre&gt;
&lt;p&gt;L'output prodotto dalla RNN, benchè non abbia nessun valore per un umano, viene analizzato dalla RNN per arricchire il grafo costituito inizialmente dai caratteri (e le loro relazioni) di Guerra e Pace.
Questo procedimento continua all'infinito.
Ogni volta che la RNN produce dell'output lo salva e lo riutilizza come input in maniera ricorsiva per generare nuovo output.&lt;/p&gt;
&lt;p&gt;Dopo 300 iterazioni abbiamo un output di questo tipo:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;"Tmont thithey" fomesscerliund
Keushey. Thom here
sheulke, anmerenith ol sivh I lalterthend Bleipile shuwy fil on aseterlome
coaniogennc Phe lism thond hon at. MeiDimorotion in ther thize."
&lt;/pre&gt;
&lt;p&gt;Dopo quasi mille:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;Aftair fall unsuch that the hall for Prince Velzonski's that me of
her hearly, and behs to so arwage fiving were to it beloge, pavu say falling misfort
how, and Gogition is so overelical and ofter.
&lt;/pre&gt;
&lt;p&gt;Duemila:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;"Why do what that day," replied Natasha, and wishing to himself the fact the
princess, Princess Mary was easier, fed in had oftened him.
Pierre aking his soul came to the packs and drove up his father-in-law women.
&lt;/pre&gt;
&lt;p&gt;Possiamo notare come l'output migliori visibilmente.&lt;/p&gt;
&lt;p&gt;Nel prossimo post tratterò una variante di rete neurale utilizzata per classificare e riconoscere immagini.&lt;/p&gt;&lt;/div&gt;</description><category>AI</category><category>algoritmi genetici</category><category>Genetic algorithm</category><category>Neural networks</category><category>PesceWanda</category><category>programming</category><category>reti neurali</category><guid>francescomecca.eu/blog/2016/11/11/machine-learning-parte2/</guid><pubDate>Fri, 11 Nov 2016 00:00:00 GMT</pubDate></item><item><title>Capire il Machine Learning (parte 1)</title><link>francescomecca.eu/blog/2016/11/10/machine-learning-intro/</link><dc:creator>Francesco Mecca</dc:creator><description>&lt;div&gt;&lt;p&gt;Questo è il primo di una serie di post che hanno l'obbiettivo di fornire una breve e generale introduzione al mondo del machine learning e delle intelligenze artificiali più in generale.
Mi auguro che questa breve introduzione al mondo dell'apprendimento automatico sia una sorta di vaccino contro il sensazionalismo mediatico e la disinformazione che negli ultimi anni fanno da contorno al progresso in questo settore.&lt;/p&gt;
&lt;h3&gt;Non c'è risultato senza algoritmo&lt;/h3&gt;
&lt;p&gt;Nelle scienze informatiche un algoritmo è un insieme di istruzioni che partendo da uno stato iniziale (input) permette di arrivare ad uno stato finale (output) attraverso una serie di step logici.
Ogni algoritmo utilizza una logica propria e specifica per il problema di cui si occupa.
Nel caso del machine learning l'algoritmo non viene progettato in base al tipo di problema bensì vengono utilizzati algoritmi generici adattabili attraverso dei parametri.
L'algoritmo di machine learning analizza i vari parametri e i dati che riceve "in pasto" al fine di raggiungere lo stato di output ottimale.
L'output ottimale è la migliore approssimazione di un risultato teorico che si raggiunge nella fase di "training".&lt;/p&gt;
&lt;h3&gt;La macchina impara&lt;/h3&gt;
&lt;p&gt;Nella fase di allenamento o di apprendimento, il "training", si possono adottare due tecniche differenti: apprendimento con supervisione ( &lt;strong&gt;supervised learning&lt;/strong&gt; ) e apprendimento senza supervisione ( &lt;strong&gt;unsupervised learning&lt;/strong&gt; ).&lt;/p&gt;
&lt;h5&gt;Supervised Learning&lt;/h5&gt;
&lt;p&gt;Immaginiamo di dover valutare il prezzo di un'automobile usata senza essere esperti in materia.
Noi abbiamo questi dati:&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;PREZZO ORIGINALE&lt;/th&gt;
&lt;th align="center"&gt;Km percorsi&lt;/th&gt;
&lt;th align="center"&gt;stato di usura&lt;/th&gt;
&lt;th align="right"&gt;PREZZO FINALE&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;50 000&lt;/td&gt;
&lt;td align="center"&gt;120 000&lt;/td&gt;
&lt;td align="center"&gt;lieve&lt;/td&gt;
&lt;td align="right"&gt;40 000&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;30 000&lt;/td&gt;
&lt;td align="center"&gt;150 000&lt;/td&gt;
&lt;td align="center"&gt;notevole&lt;/td&gt;
&lt;td align="right"&gt;8 000&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;20 000&lt;/td&gt;
&lt;td align="center"&gt;80 000&lt;/td&gt;
&lt;td align="center"&gt;lieve&lt;/td&gt;
&lt;td align="right"&gt;15 000&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;20 000&lt;/td&gt;
&lt;td align="center"&gt;120 000&lt;/td&gt;
&lt;td align="center"&gt;notevole&lt;/td&gt;
&lt;td align="right"&gt;...&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Dalla tabella possiamo dedurre la caratteristica fondamentale del &lt;strong&gt;supervised learning&lt;/strong&gt;: abbiamo due vettori (serie di dati) di input (prezzo originale) e di output (prezzo finale) che hanno una correlazione certa e valida.&lt;/p&gt;
&lt;p&gt;Possiamo dedurre intuitivamente quale sarà il prezzo dell'ultima auto se analizziamo i dati precedenti.
Questo è quello che succede nel caso del &lt;strong&gt;supervised learning&lt;/strong&gt;.
Un algoritmo di machine learning che utilizza il &lt;strong&gt;supervised learning&lt;/strong&gt; estrapolerà la relazione fra i vari dati e in questo modo potrà ottenere un determinato output partendo dai dati di input.
Possiamo capire già da ora che nel caso ci fossero dati che "inquinano" il nostro data set, come ad esempio il colore dell'auto, l'algoritmo non sarà capace di fare un'analisi corretta.&lt;/p&gt;
&lt;p&gt;La precisione della soluzione dipende dalla quantità di dati e dall'influenza che questi hanno nella situazione reale.&lt;/p&gt;
&lt;h2&gt;Unsupervised Learning&lt;/h2&gt;
&lt;p&gt;Nel caso di unsupervised learning ci troviamo di fronte agli stessi dati ma senza la possibilità di conoscere il prezzo finale.&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;PREZZO ORIGINALE&lt;/th&gt;
&lt;th align="center"&gt;Km percorsi&lt;/th&gt;
&lt;th align="right"&gt;stato di usura&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;50 000&lt;/td&gt;
&lt;td align="center"&gt;120 000&lt;/td&gt;
&lt;td align="right"&gt;lieve&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;30 000&lt;/td&gt;
&lt;td align="center"&gt;150 000&lt;/td&gt;
&lt;td align="right"&gt;notevole&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;20 000&lt;/td&gt;
&lt;td align="center"&gt;80 000&lt;/td&gt;
&lt;td align="right"&gt;lieve&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;20 000&lt;/td&gt;
&lt;td align="center"&gt;120 000&lt;/td&gt;
&lt;td align="right"&gt;notevole&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Non siamo capaci di stabilire il prezzo finale attraverso l'unsupervised learning, ma possiamo stabilire dei pattern fra i vari dati.
Non c'è nessun tipo di feedback (il prezzo finale) che possa aiutarci a capire se il risultato sia giusto ma possiamo analizzare le notevoli relazioni fra i dati.&lt;/p&gt;
&lt;h2&gt;Machine Learning e intelligenza&lt;/h2&gt;
&lt;p&gt;Concentriamoci sul &lt;strong&gt;supervised learning&lt;/strong&gt;.
Nel caso della vendita dell'automobile, abbiamo un semplice problema con una soluzione lineare di questo tipo:
&lt;em&gt;prezzo finale&lt;/em&gt; = &lt;em&gt;prezzo originale&lt;/em&gt; + &lt;em&gt;km percorsi&lt;/em&gt; + stato di usura&lt;/p&gt;
&lt;p&gt;Ovviamente ogni incognita nella nostra equazione influisce diversamente sul prezzo finale e quindi possiamo riscriverla come:
&lt;em&gt;prezzo finale&lt;/em&gt; = A &lt;em&gt;&lt;em&gt;prezzo originale&lt;/em&gt; + B &lt;/em&gt;&lt;em&gt;km percorsi&lt;/em&gt; + C * stato di usura&lt;/p&gt;
&lt;p&gt;Se pensiamo ad un algoritmo possiamo ragionare in questo modo:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;&lt;span class="n"&gt;funzione&lt;/span&gt;&lt;span class="o"&gt;:&lt;/span&gt; &lt;span class="n"&gt;calcola_prezzo_auto&lt;/span&gt;&lt;span class="o"&gt;:&lt;/span&gt;
&lt;span class="n"&gt;parametri&lt;/span&gt;&lt;span class="o"&gt;:&lt;/span&gt; &lt;span class="n"&gt;prezzo_originale&lt;/span&gt;&lt;span class="o"&gt;,&lt;/span&gt; &lt;span class="n"&gt;km_percorsi&lt;/span&gt;&lt;span class="o"&gt;,&lt;/span&gt; &lt;span class="n"&gt;stato_usura&lt;/span&gt;
&lt;span class="n"&gt;variabili&lt;/span&gt;&lt;span class="o"&gt;:&lt;/span&gt; &lt;span class="n"&gt;prezzo_finale&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="mi"&gt;0&lt;/span&gt;
&lt;span class="n"&gt;prezzo&lt;/span&gt; &lt;span class="n"&gt;finale&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;prezzo_originale&lt;/span&gt; &lt;span class="o"&gt;*&lt;/span&gt; &lt;span class="mf"&gt;0.804246&lt;/span&gt;
&lt;span class="n"&gt;prezzo&lt;/span&gt; &lt;span class="n"&gt;finale&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;prezzo_finale&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;km_percorsi&lt;/span&gt; &lt;span class="o"&gt;*&lt;/span&gt; &lt;span class="o"&gt;-&lt;/span&gt;&lt;span class="mf"&gt;0.000125&lt;/span&gt;
&lt;span class="n"&gt;prezzo&lt;/span&gt; &lt;span class="n"&gt;finale&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;prezzo_finale&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;stato_usura&lt;/span&gt; &lt;span class="o"&gt;*&lt;/span&gt; &lt;span class="o"&gt;-&lt;/span&gt;&lt;span class="mi"&gt;2500&lt;/span&gt;
&lt;/pre&gt;
&lt;p&gt;I valori di quelle costanti, stabilite casualmente nell'esempio, sono chiamate &lt;em&gt;pesi&lt;/em&gt; e servono a stimare il prezzo finale.
Una volta stabiliti i pesi, il nostro algoritmo di supervised learning applica questi pesi ai dati originali e ne valuta l'errore:&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;PREZZO ORIGINALE&lt;/th&gt;
&lt;th align="center"&gt;Km percorsi&lt;/th&gt;
&lt;th align="center"&gt;stato di usura&lt;/th&gt;
&lt;th align="center"&gt;PREZZO FINALE&lt;/th&gt;
&lt;th align="right"&gt;PREZZO STIMATO&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;50 000&lt;/td&gt;
&lt;td align="center"&gt;120 000&lt;/td&gt;
&lt;td align="center"&gt;lieve&lt;/td&gt;
&lt;td align="center"&gt;40 000&lt;/td&gt;
&lt;td align="right"&gt;374888&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;30 000&lt;/td&gt;
&lt;td align="center"&gt;150 000&lt;/td&gt;
&lt;td align="center"&gt;notevole&lt;/td&gt;
&lt;td align="center"&gt;8 000&lt;/td&gt;
&lt;td align="right"&gt;16000&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;20 000&lt;/td&gt;
&lt;td align="center"&gt;80 000&lt;/td&gt;
&lt;td align="center"&gt;lieve&lt;/td&gt;
&lt;td align="center"&gt;15 000&lt;/td&gt;
&lt;td align="right"&gt;13492&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;20 000&lt;/td&gt;
&lt;td align="center"&gt;120 000&lt;/td&gt;
&lt;td align="center"&gt;notevole&lt;/td&gt;
&lt;td align="center"&gt;...&lt;/td&gt;
&lt;td align="right"&gt;10988&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Una volta valutato l'errore e la distanza dal prezzo finale, l'algoritmo di machine learning modifica i pesi di conseguenza e ripete la procedura fino ad arrivare al risultato che più si avvicina ai dati iniziali.
&lt;img alt="rete1" src="francescomecca.eu/wp-content/uploads/2016/reteneurale1.jpg"&gt;
Ci sono varie funzioni che stimano l'errore e permettono di correggere i pesi o metodi che restringono lo spazio di ricerca fino a convergere alla soluzione, ovvero i pesi cercati.&lt;/p&gt;
&lt;h3&gt;Reti Neurali&lt;/h3&gt;
&lt;p&gt;Ora, come possiamo immaginare, il prezzo di un'auto ha molti fattori che si aggiungono a quelli elencati nell'esempio.
Non solo, ma molti problemi non hanno una soluzione lineare, ovvero una soluzione che si può semplicemente esprimere attraverso una funzione che aggiunge e moltiplica i valori una sola volta.&lt;/p&gt;
&lt;p&gt;Possiamo arricchire l'esempio dell'automobile immaginando di avere più set di pesi e di ripetere il procedimento più volte:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;|---------------------------------------------------|
| PREZZO_ORIG * peso A1 -----&amp;gt; |
| KM_PERCORSI * peso B1 -----&amp;gt; |
| STATO_USURA * peso C1 -----&amp;gt; |
| PREZZO FINALE STIMATO 1|
|---------------------------------------------------|
| --------------------------------------------------|
| PREZZO_ORIG * peso A2 -----&amp;gt; |
| KM_PERCORSI * peso B2 -----&amp;gt; |
| STATO_USURA * peso C2 -----&amp;gt; |
| PREZZO FINALE STIMATO 2|
|---------------------------------------------------|
| --------------------------------------------------|
| PREZZO_ORIG * peso A3 -----&amp;gt; |
| KM_PERCORSI * peso B3 -----&amp;gt; |
| STATO_USURA * peso C3 -----&amp;gt; |
| PREZZO FINALE STIMATO 3|
|---------------------------------------------------|
&lt;/pre&gt;
&lt;p&gt;E ora immaginiamo di combinare ogni PREZZO FINALE STIMATO in un'ultimo risultato:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;| --------------------------------------------------|
| PREZZO_1 * peso X -----&amp;gt; |
| PREZZO_2 * peso Y -----&amp;gt; |
| PREZZO_3 * peso Z -----&amp;gt; |
| PREZZO FINALE DEF |
|---------------------------------------------------|
&lt;/pre&gt;
&lt;p&gt;Questa é, seppur molto basica, una rete neurale.
Proviamo a visualizzarla in un'immagine dove i box arancioni sono i nodi di input e i rossi sono i nodi "nascosti" e temporanei.&lt;/p&gt;
&lt;p&gt;&lt;img alt="rete2" src="francescomecca.eu/wp-content/uploads/2016/reteneurale2.jpg"&gt;&lt;/p&gt;
&lt;p&gt;In una rete neurale (&lt;em&gt;neural networks&lt;/em&gt;) abbiamo:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;i neuroni: la funzione di stima e i set di pesi;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;le catene: i collegamenti fra neuroni che permettono di valutare il prezzo più volte.&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Nel prossimo &lt;a href="francescomecca.eu/pescewanda/2016/11/11/machine-learning-PARTE2"&gt;post&lt;/a&gt; cercherò di approfondire il concetto di rete neurale con degli esempi di applicazioni concrete.&lt;/p&gt;&lt;/div&gt;</description><category>AI</category><category>algoritmi genetici</category><category>Genetic algorithm</category><category>Neural networks</category><category>PesceWanda</category><category>programming</category><category>reti neurali</category><guid>francescomecca.eu/blog/2016/11/10/machine-learning-intro/</guid><pubDate>Thu, 10 Nov 2016 00:00:00 GMT</pubDate></item><item><title>Interpolation using a genetic algorithm</title><link>francescomecca.eu/blog/2016/5/15/genetic-alg/</link><dc:creator>Francesco Mecca</dc:creator><description>&lt;div&gt;&lt;p&gt;This weekend I was in Milan to get a visa and I had the opportunity to work with a friend, Michele, on genetic algorithms.
It was the first time I dig up in such field and it was very exciting.
In this post I want to explain some bits of our work.&lt;/p&gt;
&lt;h3&gt;A brief introduction to GA&lt;/h3&gt;
&lt;p&gt;A genetic algorithm is a search/optimization algorithm that uses an heuristic approach to reduce the search space and evolve gradually to a solution.&lt;/p&gt;
&lt;h5&gt;Population&lt;/h5&gt;
&lt;p&gt;It is an algorithm that has its root in the theory of natural selectioni by Charles Darwin.
The main components of a GA are:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;the population, that concentrate all the available solutions at a given time;&lt;/li&gt;
&lt;li&gt;the fitness function, that gives an approximation of the quality of the solution codified by a given member of the population.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;In a GA the first thing to do is to generate a population.&lt;/p&gt;
&lt;p&gt;A population is a group of objects with given attributes, usually a string, and they contains in some form the solution (usually inside a string); the first population is randomly generated and contains a big number of solutions, but not every solution (this is not a bruteforce approach).&lt;/p&gt;
&lt;p&gt;After this step the fitness functions evaluates the quality of every solution that a given member carries: the evaluation should be considered from a bottom up point of view.&lt;/p&gt;
&lt;h5&gt;Reproduction&lt;/h5&gt;
&lt;p&gt;Now, as in Darwin's theory of evolution, the member of the population are going to "reproduce": two members are going to be coupled to generate a new member of the second generation and every child member will contain a solution that is the product of the original genes of their parent members.&lt;/p&gt;
&lt;p&gt;This time the reproduction of the population into a second one is not entirely random. The fitness function gives us an approximation of the quality of every gene that a member carries and by the rule of the "survival by the fittest" the probability that a member is going to reproduce with another one is proportional to the quality of its genes.&lt;/p&gt;
&lt;p&gt;When we have a second generation of members we can recur on our GA and generate a third generation. From this point we can recur until we converge to a solution that is common to every member, or at least that is suited to our needs.&lt;/p&gt;
&lt;h5&gt;Mutation&lt;/h5&gt;
&lt;p&gt;Actually, in some cases, a mutation function can be added, so that, like in real world, some times the genes are "scrambled" indipendently from the fitness function.&lt;/p&gt;
&lt;p&gt;There is more to a GA, for example we could talk about possible ways of storing the genes inside a member or when to use mutation, anyway I want to stop here and continue with an analysis of my problem.&lt;/p&gt;
&lt;h3&gt;Interpolating a function using a GA&lt;/h3&gt;
&lt;p&gt;Me and Michele decided to spend some time developing a little python script to explore GA capabilities and we decided to interpolate some points on a cartesian plane.&lt;/p&gt;
&lt;p&gt;Our program, that is available &lt;a href="http://francescomecca.eu:3000/pesceWanda/interpol_genetica"&gt;here&lt;/a&gt; uses a class to define the various members of the population and a string for the genes, a class as well for the points on the plane.&lt;/p&gt;
&lt;p&gt;The fitness function is not as precise as it should be because this is only a proof of concept:&lt;/p&gt;
&lt;p&gt;.. code:: python&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;mutationProbability = 0.1
rangeLimit = 5
def fitness(item, pointList, n):
value = 0
for p in pointList:
y = 0
for i in range(n):
y += item.gene[i] * pow(p.x, i)
result = 1 - (abs (p.y - y) / rangeLimit)
if result &amp;lt; 0:
result = 0
value += result
return value / n
&lt;/pre&gt;
&lt;p&gt;item is just a member of the population, poinList is the list of points and n is the number of points (n - 1 is the grade of the function).&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;for i in range(n):
y += item.gene[i] * pow(p.x, i)
&lt;/pre&gt;
&lt;p&gt;this piece of code gives us the value of the function encoded in the genes in the points of pointList;&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;result = 1 - (abs (p.y - y) / rangeLimit)
if result &amp;lt; 0:
result = 0
&lt;/pre&gt;
&lt;p&gt;while here the script stores 1 - the previous result because if the GA has yield a good result there should be distance = 0 from the function evaluated and the points; If this is the case, the fitness function should attribute the highest possible reproduction probability for that member.
At the end the fitness function returns the total value over the number of points evaluated.&lt;/p&gt;
&lt;p&gt;As you can see this fitness function is by no means an optimal one. The reproduction probability is higher for functions that crosses some points and are really distant from others rather than for functions that are closer to every point but crosses none.
Anyway for simple cases the GA yields good results, as an example for points (0 0), (1 4), (2 9) one of the member with the highest reproduction probability has this function in its genes:&lt;/p&gt;
&lt;pre class="code literal-block"&gt;&lt;span&gt;&lt;/span&gt;-0.0487839869993989 * x^0 + 4.600339125358671 * x^1 + -0.2780958075230644 * x^2
&lt;/pre&gt;
&lt;p&gt;that crosses this points: (0 -0.0488), (1 4.2735), (2 8.0395) given 80 iterations, initial population of 600 members and a two digit approximation.&lt;/p&gt;
&lt;p&gt;For a more precise computation a higher population size and a really high number of iterations should be used.&lt;/p&gt;&lt;/div&gt;</description><category>AI</category><category>Genetic algorithm</category><category>PesceWanda</category><category>programming</category><category>python</category><guid>francescomecca.eu/blog/2016/5/15/genetic-alg/</guid><pubDate>Sun, 15 May 2016 00:00:00 GMT</pubDate></item></channel></rss>