Deep Learning per l'elaborazione di Audio e Suono
Presentazione
In questo webinar mostreremo I fondamenti delle tecniche di Deep Learning per applicazioni audio attraverso un esempio di riconoscimento di comandi vocali scritto interamente in codice MATLAB. Vedremo come sia possibile creare e accedere a dati etichettati, utilizzare trasformazioni nel dominio tempo-frequenza, estrarre caratteristiche (features), creare e addestrare una rete neurale profonda, ed infine testare il nostro modello utilizzando un sistema audio real-time. Vedremo anche come sia possibile scambiare reti neurali con altri ambienti molto popolari utilizzati per il Deep Learning e come sfruttare modelli già addestrate.
Punti principali
- Acquisizione, segmentazione ed etichettatura di campioni audio ed utilizzo di dataset già esistenti.
- Estrazione di caratteristiche standard per segnali audio e vocali e utilizzo di rappresentazioni 2D tempo-frequenza
- Realizzazione e analisi di reti neurali profonde e interscambio di modelli con altri framework popolari (ad es. ONNX)
- Accelerare il calcolo computazionale con l’utilizzo di GPU e usare il modello con piattaforme HW prototipali in tempo reale con segnali veri
Informazioni sul relatore/sui relatori
Giuseppe Ridinò è Senior Application Engineer MathWorks, esperto di calcolo numerico, sviluppo software e modellazione fisico-matematica. Già dalla fine degli anni 90 ha accumulato esperienze sull'applicazione di MATLAB® e Simulink® in diversi settori industriali.
Dal 2014 è entrato in MathWorks e si occupa principalmente delle tematiche di processamento del segnale, sistemi di comunicazione, processamento di immagini, visione artificiale, sistemi autonomi e generazione codice C/C++ e HDL.
Giuseppe ha conseguito la Laurea in Ingegneria Elettronica presso il Politecnico di Torino.
Registrato: 24 ott 2019
Prodotto in evidenza