952 resultados para Memoria semantica, Reti neurali, Regola di hebb, Memorie associative
Resumo:
Pritzel (2nd ed.)
Resumo:
This thesis presents a new Artificial Neural Network (ANN) able to predict at once the main parameters representative of the wave-structure interaction processes, i.e. the wave overtopping discharge, the wave transmission coefficient and the wave reflection coefficient. The new ANN has been specifically developed in order to provide managers and scientists with a tool that can be efficiently used for design purposes. The development of this ANN started with the preparation of a new extended and homogeneous database that collects all the available tests reporting at least one of the three parameters, for a total amount of 16’165 data. The variety of structure types and wave attack conditions in the database includes smooth, rock and armour unit slopes, berm breakwaters, vertical walls, low crested structures, oblique wave attacks. Some of the existing ANNs were compared and improved, leading to the selection of a final ANN, whose architecture was optimized through an in-depth sensitivity analysis to the training parameters of the ANN. Each of the selected 15 input parameters represents a physical aspect of the wave-structure interaction process, describing the wave attack (wave steepness and obliquity, breaking and shoaling factors), the structure geometry (submergence, straight or non-straight slope, with or without berm or toe, presence or not of a crown wall), or the structure type (smooth or covered by an armour layer, with permeable or impermeable core). The advanced ANN here proposed provides accurate predictions for all the three parameters, and demonstrates to overcome the limits imposed by the traditional formulae and approach adopted so far by some of the existing ANNs. The possibility to adopt just one model to obtain a handy and accurate evaluation of the overall performance of a coastal or harbor structure represents the most important and exportable result of the work.
Resumo:
Questo lavoro di tesi tratta il tema delle reti complesse, mostrando i principali modelli di rete complessa quali: il modello Random, il modello Small-World ed il modello Scale-free; si introdurranno alcune metriche usate per descrivere le reti complesse quali la Degree centrality, la Closeness centrality e la Betweenness centrality; si descriveranno i problemi da tenere in considerazione durante la definizione e l’implementazione di algoritmi su grafi; i modelli di calcolo su cui progettare gli algoritmi per risolvere i problemi su grafi; un’analisi prestazionale degli algoritmi proposti per calcolare i valori di Beweenness centrality su grafi di medio-grandi dimensioni. Parte di questo lavoro di tesi è consistito nello sviluppo di LANA, LArge-scale Network Analyzer, un software che permette il calcolo e l’analisi di varie metriche di centralità su grafo.
Resumo:
L'informatica musicale è una disciplina in continua crescita che sta ottenendo risultati davvero interessanti con l'impiego di sistemi artificiali intelligenti, come le reti neuronali, che permettono di emulare capacità umane di ascolto e di esecuzione musicale. Di particolare interesse è l'ambito della codifica di informazioni musicali tramite formati simbolici, come il MIDI, che permette un'analisi di alto livello dei brani musicali e consente la realizzazione di applicazioni sorprendentemente innovative. Una delle più fruttifere applicazioni di questi nuovi strumenti di codifica riguarda la classificazione di file audio musicali. Questo elaborato si propone di esporre i fondamentali aspetti teorici che concernono la classificazione di brani musicali tramite reti neuronali artificiali e descrivere alcuni esperimenti di classificazione di file MIDI. La prima parte fornisce alcune conoscenze di base che permettono di leggere gli esperimenti presenti nella seconda sezione con una consapevolezza teorica più profonda. Il fine principale della prima parte è quello di sviluppare una comparazione da diversi punti di vista disciplinari tra le capacità di classificazione musicale umane e quelle artificiali. Si descrivono le reti neuronali artificiali come sistemi intelligenti ispirati alla struttura delle reti neurali biologiche, soffermandosi in particolare sulla rete Feedforward e sull'algoritmo di Backpropagation. Si esplora il concetto di percezione nell'ambito della psicologia cognitiva con maggiore attenzione alla percezione uditiva. Accennate le basi della psicoacustica, si passa ad una descrizione delle componenti strutturali prima del suono e poi della musica: la frequenza e l'ampiezza delle onde, le note e il timbro, l'armonia, la melodia ed il ritmo. Si parla anche delle illusioni sonore e della rielaborazione delle informazioni audio da parte del cervello umano. Si descrive poi l'ambito che interessa questa tesi da vicino: il MIR (Music Information Retrieval). Si analizzano i campi disciplinari a cui questa ricerca può portare vantaggi, ossia quelli commerciali, in cui i database musicali svolgono ruoli importanti, e quelli più speculativi ed accademici che studiano i comportamenti di sistemi intelligenti artificiali e biologici. Si descrivono i diversi metodi di classificazione musicale catalogabili in base al tipo di formato dei file audio in questione e al tipo di feature che si vogliono estrarre dai file stessi. Conclude la prima sezione di stampo teorico un capitolo dedicato al MIDI che racconta la storia del protocollo e ne descrive le istruzioni fondamentali nonchè la struttura dei midifile. La seconda parte ha come obbiettivo quello di descrivere gli esperimenti svolti che classificano file MIDI tramite reti neuronali mostrando nel dettaglio i risultati ottenuti e le difficoltà incontrate. Si coniuga una presentazione dei programmi utilizzati e degli eseguibili di interfaccia implementati con una descrizione generale della procedura degli esperimenti. L'obbiettivo comune di tutte le prove è l'addestramento di una rete neurale in modo che raggiunga il più alto livello possibile di apprendimento circa il riconoscimento di uno dei due compositori dei brani che le sono stati forniti come esempi.
Resumo:
Per rispondere ai quiz e utilizzare la posta elettronica
Resumo:
L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
Le reti veicolari, anche dette VANET, sono da tempo oggetto di studio. Durante il periodo di ricerca svolto presso l'Università della California Los Angeles (UCLA) è stato possibile studiare i protocolli adatti allo scambio di contenuti fra i veicoli secondo il paradigma del Named Data Networking (NDN). Il Named Data Networking rappresenta un nuovo modello di comunicazione per il reperimento dei contenuti all'interno della rete. Nelle VANET ogni veicolo è potenzialmente un fornitore di contenuti, oltre che un richiedente. L'infrastruttura di riferimento posta all'interno del campus universitario permette il reperimento di dati necessario allo studio del problema, non solo da un punto di vista pratico ma anche da un punto di vista teorico. Infatti, data la tipologia dei test e le difficoltà intrinseche che essi comportano, l'attività di simulazione svolge un ruolo importante per lo sviluppo e lo studio del protocollo all'interno delle reti veicolari. L'attività di ricerca svolta si articola nei seguenti aspetti: introduzione al nuovo paradigma di comunicazione: principi del Named Data Networking, funzionamento di NDN, reti veicolari, applicabilità di NDN alle VANET; modelli di mobilità per le reti veicolari: linee guida per la costruzione di un modello di mobilità, situazione attuale dei modelli disponibili, simulatori di rete, strumenti utilizzati e il loro funzionamento; attività di simulazione: pianificazione e implementazione di diverse tipologie di scenari di reti veicolari; analisi dei dati raccolti dalla fase precedente: vengono elaborati i dati raccolti e si cerca di catturarne gli aspetti più significativi. L'obiettivo è quello di condurre uno studio di fattibilità sull'applicazione di NDN alle reti mobili, in particolare alle reti veicolari in ambito urbano. Al momento in cui è iniziata la collaborazione con il gruppo di ricerca del Network Research Lab di UCLA, era da poco stata rilasciata la prima versione di NDN contenente l'estensione pensata per il veicolare, quindi non erano presenti in letteratura studi condotti per questo tipo di scenari. Lo scopo è quello di estrarre informazioni e ricavarne significative indicazioni sulle prestazioni del sistema.
Resumo:
Oggetto di questa tesi è l’analisi delle modalità di rappresentazione del trauma nel romanzo del Novecento e, in particolare, nelle opere di Samuel Beckett, Georges Perec e Agota Kristof. Fondamento dello studio sarà una disamina dei procedimenti linguistici e narrativi di rappresentazione del trauma nelle prose degli autori citati, al fine tracciare le linee di un’estetica in grado di descrivere le caratteristiche peculiari delle narrazioni in cui la dimensione antinarrativa della memoria traumatica assume il ruolo di principio estetico guida. L’analisi si soffermerà sulla cruciale relazione esistente, in tutti e tre gli autori, tra rappresentazione del trauma e sviluppo di strategie narrativi definibili come “denegative”. L’analisi dei testi letterari è condotta sulla base del corpus critico dei Trauma Studies, dell’ermeneutica della narrazione di stampo ricœuriano e della teoria del linguaggio psicoanalitica e affiancata, ove possibile, da uno studio filologico-genetico dei materiali d’autore. Alla luce di tali premesse, intendo rivalutare il carattere rappresentativo e testimoniale della letteratura del secolo scorso, in contrasto con la consuetudine a vedere nel romanzo novecentesco il trionfo dell’antimimesi e il declino del racconto. Dal momento che le narrazioni traumatiche si costruiscono intorno e attraverso i vuoti di linguaggio, la tesi è che siano proprio questi vuoti linguistici e narrativi (amnesie, acronie, afasie, lapsus, omissioni e mancanze ancora più sofisticate come nel caso di Perec) a rappresentare, in modo mimetico, la realtà apparentemente inaccessibile del trauma. Si tenterà di dimostrare come questi nuovi canoni di rappresentazione non denuncino l’impossibilità del racconto, bensì una sfida al silenzio, celata in più sottili e complesse convenzioni narrative, le quali mantengono un rapporto di filiazione indiretto − per una via che potremmo definire denegativa − con quelle del romanzo tradizionale.
Resumo:
Nella tesi vengono proposte una modellazione di un quadrotor affetto da un campo vettoriale incognito aerodinamico e la sua identificazione basata su non linear geometric approach e su reti neurali a funzione di base radiale (RBF). Il non linear geometric approach viene utilizzato per il disaccoppiamento delle componenti incognite aerodinamiche mentre le modellazione RBF dei coefficienti permette di applicare un algoritmo ai minimi quadrati per l'identificazione del sistema. Infine viene implementato un simulatore in ambiente MATLAB Simulink per la validazione della metodologia. Le simulazioni effettuate dimostrano la bontà del metodo proposto.
Resumo:
L’insufficienza renale cronica è una malattia di grande impatto sulla sanità pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, è il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale è il dispositivo attraverso il quale si effettua la terapia, ed è frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dell’organismo umano. Per questo è sempre più importante dotarlo di un adeguato set di sensori che permettano di monitorare l’efficacia del trattamento. L’emodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare è la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: è stata però recentemente evidenziata la sensibilità indesiderata di questa seconda tecnica ai cambiamenti di osmolarità del sangue sotto analisi. Lo studio presentato in questa tesi è volto a migliorare l’accuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze d’onda alla quale i dati vengono acquisiti. La stima del RBV è gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.
Resumo:
L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.
Resumo:
"Proemio", v. 1, and "Avvertenza", v. 3 signed: A Corradi, ret.e Introduction, v. 2, signed: Camillo Brambilla.
Resumo:
Publisher varies: Industrie grafiche italiane, 1921-1922; Coop. tipografica Azzoguidi, 1923-1943.
Resumo:
Il riconoscimento delle gesture è un tema di ricerca che sta acquisendo sempre più popolarità, specialmente negli ultimi anni, grazie ai progressi tecnologici dei dispositivi embedded e dei sensori. Lo scopo di questa tesi è quello di utilizzare alcune tecniche di machine learning per realizzare un sistema in grado di riconoscere e classificare in tempo reale i gesti delle mani, a partire dai segnali mioelettrici (EMG) prodotti dai muscoli. Inoltre, per consentire il riconoscimento di movimenti spaziali complessi, verranno elaborati anche segnali di tipo inerziale, provenienti da una Inertial Measurement Unit (IMU) provvista di accelerometro, giroscopio e magnetometro. La prima parte della tesi, oltre ad offrire una panoramica sui dispositivi wearable e sui sensori, si occuperà di analizzare alcune tecniche per la classificazione di sequenze temporali, evidenziandone vantaggi e svantaggi. In particolare, verranno considerati approcci basati su Dynamic Time Warping (DTW), Hidden Markov Models (HMM), e reti neurali ricorrenti (RNN) di tipo Long Short-Term Memory (LSTM), che rappresentano una delle ultime evoluzioni nel campo del deep learning. La seconda parte, invece, riguarderà il progetto vero e proprio. Verrà impiegato il dispositivo wearable Myo di Thalmic Labs come caso di studio, e saranno applicate nel dettaglio le tecniche basate su DTW e HMM per progettare e realizzare un framework in grado di eseguire il riconoscimento real-time di gesture. Il capitolo finale mostrerà i risultati ottenuti (fornendo anche un confronto tra le tecniche analizzate), sia per la classificazione di gesture isolate che per il riconoscimento in tempo reale.