Please enable JavaScript.
Coggle requires JavaScript to display documents.
MACHINE LEARNING & DEEP LEARNING - Coggle Diagram
MACHINE LEARNING & DEEP LEARNING
è la branca dell'IA che tratta l’abilità delle macchine di apprendere, senza essere state esplicitamente e preventivamente programmate.
"si dice che un programma apprende dall’esperienza E con riferimento ad alcune classi di compiti T e con misurazione della performance P, se le sue performance nel compito T, come misurato da P, migliorano con l’esperienza E.”
Machine Learning
correnti/ filoni
bayesiani
: fondano le proprie tesi sulla statistica (algoritmo di
inferenza probabilistica
)
Connessionisti
: prendono spunto dalle neuroscienze
e dalla fisica (algoritmo di
retropropagazione
)
Analogisti
: sono influenzati dalla psicologia e dalla ottimizzazione matematica (algoritmo di
vettori di supporto
)
Simbolisti
: si ispirano alla filosofia, alla psicologia e alla logica (algoritmo di
deduzione inversa
)
Evoluzionisti
: si ispirano alla genetica e alla biologia
evolutiva (algoritmo di
programmazione genetica
)
Fasi di progettazione e sviluppo
3
. Addestramento del modello
4
. Test del modello
2
. Preparazione dati
5
. Uso del modello
1
. Raccolta dati
Applicazioni
Nel
campo medico
si occupano della prevenzione dello scatenarsi di epidemie, diagnosi di tumori o malattie rare, medici virtuali, diagnostica e assistenza da remoto
Il
riconoscimento vocale
che ha ridotto del 30% il margine di errore, o l'
identificazione della scrittura manuale
che è migliorata grazie all’analisi dei documenti scritti
I
filtri antispam delle mail
imparano a intercettare messaggi di posta elettronica sospetti o fraudolenti e agire di conseguenza
I
sistemi di raccomandazione
imparano dal comportamento e dalle preferenze degli utenti
I
motori di ricerca
attraverso uno o più parole chiave i
motori restituiscono liste di risultati (apprendimento non supervisionato)
Le
auto a guida autonoma
che imparano a riconoscere l'ambiente, analizzarlo e adattare il loro comportamento in base alle specifiche situazioni
Deep Learning
é un metodo di machine learning che si basa su reti neurali artificiali disposte in diversi strati
Elaborazione Dati
Il deep learning necessita di algoritmi e reti neurali artificiali ad hoc di capacità computazionale
molto potente
capace di reggere diversi strati di calcolo e analisi
Restituisce la rappresentazione dei dati a livello
gerarchico
e
classifica
i dati in ingresso e in uscita, evidenziando quelli importanti ai fini della risoluzione del problema e scartando quelli che non servono
La macchina apprende e perfeziona funzionalità sempre più complesse
Sviluppo grazie a
aumento esponenziale di dati a disposizione (
big data
): permette di aumentare il livello di apprendimento e quindi di prestazioni
aumento delle
performance
dei computer data dalla riduzione dei tempi di calcolo e dall’introduzione delle GPU (nuove grosse matrici di piccoli processori)
Scopo
: comprendere come funziona il cervello umano utilizzando un framework piramidale, i concetti più alti sono appresi a partire dai livelli più bassi
Funzionamento
: inseriti i dati di ingresso bisogna creare la
funzione di costo
che mostra quando si discostano gli output dell'IA dagli output reali (idealmente vale 0)
per ridurre la funzione, attraverso la tecnica del
gradiente discendente
, si cambiano i pesi con l’applicazione di piccoli incrementi dopo ogni singola iterazione. Si calcola poi la derivata della funzione di costo di un certo insieme di pesi, determinando così la direzione del minimo
Applicazioni
aggiunta di suoni ai video muti
classificazione di oggetti
colorazione automatica di immagini in bianco e nero
generazione automatica della scrittura a mano
macchine automatiche di traduzione
generazione di linguaggio naturale (NLP)
generazione automatica di didascalie di immagini
lettura delle labbra
diagnostica medica
guida automatica
controllo di qualità
Oggi
Google: la inbox di gmail che avverte della presenza di domande o genera risposte automatiche; funzioni di riconoscimento su Google Foto; il riconoscimento di immagini e vocale di Google Traduttore
Siri
Facebook: riconoscimento ed eliminazione di contenuti non consoni e violenti
Clima: identificazione di "pattern" (schemi o modelli ripetuti) permettendo previsioni e di conseguenza la messa in atto di precauzioni
Città Intelligenti: l'unione dell'utilizzo collettivo di strumenti individuali (es. app che calcolano l'impronta ecologica) e dell'implementazione di strumenti per la società intera (es. programmi che chiariscono l'esito di politiche energetiche)
Videogiochi: l'IA si distingue in due comportamenti, la Good AI che gioca per vincere e la Fun AI che gioca per perdere, muove tutti i npc, pianifica i percorsi e seleziona l'animazione corretta. L'IA idealmente segue le stesse regole del giocatore, ma poichè sarebbe troppo limitata bara un pochino avendo innformazioni complete sul mondo e i giocatori. Il pathfinding viene implementato con la rappresentazione di grigliem grafi di wayppoint, mesh di navigazione e Delaunay Triangulation
Musica Digitale
XSENSE: algoritmi di IA che simulano i processi cognitivi non automatici della mente umana in una modalità nuova, è previsto che entro l'anno sarà in grado di simulare alcuni aspetti dell'intuito umano
Quantum Computing
Le prime teorie sui computer quantistici furono ideate da Richard Feynman nel 1982 che li ipotizzava come sovrapposizione di stati delle particelle elementari
L'unità fondamentale è il
qubit
, dove il bit classico può assumere solo i valori 0 e 1, il qubit può esistere anche in una
sovrapposizione
quantistica degli stati 1 o 0. Un computer con
n
qubit può ammettere una sovrapposizione simultanea di fino a 2^
n
stati differenti
Un computer quantistico è dunque capace di eseguire un numero enormemente più grande di operazioni simultanee rispetto ad un computer binario; ma i qubit sono estremamente sensibili, anche le più piccole interazioni termiche con l’ambiente li fanno collassare.
dagli anni ’60 c'è stato un progressivo aumento della potenza di calcolo dei computer che è andato di pari passo con la miniaturizzazione dei circuiti elettronici
Da questo deriva la Legge di Moore: “la complessità di un microcircuito, misurata con il numero di transistor in un chip (processore), e la relativa velocità di calcolo raddoppia ogni 18 mesi”
In uno studio dell’Istituto di fotonica e
nanotecnologie del Cnr si dimostra che applicando il deep learning ai computer quantistici è stato possibile assegnare all'IA il compito di scoprire come controllare i qubit codificato mediante un singolo elettrone, per trasferirlo tra due posizioni senza farlo passare in mezzo