582 resultados para retorinen metodi


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente studio si colloca nell’ambito del progetto europeo (FP7) THESEUS, fra i cui scopi c’è quello di fornire informazioni su vulnerabilità e resilienza degli habitat costieri in seguito all’aumento di frequenza delle inondazioni dovuto al sea level rise. E’ stata indagata la zona intertidale di spiagge sabbiose, come recettore di cambiamenti climatici. All’interno dell’habitat intertidale le comunità macrobentoniche sono di solito individuate come indicatori delle variazioni dei parametri fisico-chimici e morfodinamici. Lo scopo di questo lavoro è consistito nell’analisi delle comunità macrobentoniche e della loro interazioni con le variabili ambientali lungo tre spiagge del Nord Adriatico sottoposte a fenomeni di erosione e differenti fra di loro per caratteristiche morfodinamiche: Lido di Spina, Bellocchio e la zona della Bassona di Lido di Dante. La risposta delle comunità bentoniche è stata indagata utilizzando i dati tassonomici delle specie e raggruppando le stesse nei rispettivi gruppi trofici. Le variabili ambientali considerate sono state quelle relative alla tipologia del sedimento e quelle relative alla morfodinamica Le comunità macrobentoniche delle spiagge di Lido di Spina e di Lido di Dante sono risultate relativamente più simili tra loro, nonostante i due siti fossero i più distanti. A Lido di Spina e Lido di Dante sono state rinvenute associazioni di specie, come Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose europee esposte al moto ondoso. In questi due siti, è risultato dominante il bivalve Lentidium mediterraneum, la cui ecologia e modalità di distribuzione aggregata permette di evidenziare il maggiore idrodinamismo che caratterizza i due siti. A Bellocchio, invece, è stato riscontrato un maggior numero di specie. Questo sito è caratterizzato dalla presenza di patch di giovanili del bivalve Mytilus galloprovincialis che sembrerebbe determinare il pattern del resto della comunità fungendo da ecosystem engineer. In termini di gruppi trofici, a Lido di Spina e a Lido di Dante prevalgono Filtratori, Carnivori e Detritivori di Superficie mentre Bellocchio è dominato da Filtratori e Misti discostandosi dagli altri siti per le sue condizioni del tutto particolari. Per quanto riguarda i descrittori abiotici, Lido di Spina e Lido di Dante, rispetto a Bellocchio, presentano una fascia intertidale più corta, pendenze maggiori, granulometrie più grossolane e risultando quindi, in generale, meno dissipative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apprendere nelle organizzazioni, analisi della letteratura afferente con particolare attenzione al modello della "learning organization". Applicazioni e casi pratici per un raffronto con gli aspetti teorici precedentemente approfonditi e per l'individuazione dei trend attuali della gestione della conoscenza e dei processi di apprendimento all'interno delle organizzazioni con particolare attenzione al mondo del business internazionale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggetto di questa tesi è lo studio di metodologie sperimentali per la valutazione della resistenza fluidodinamica passiva su un nuotatore. In primo luogo è stata effettuata una panoramica sulle resistenze alle quali un corpo è sottoposto in ambiente natatorio e sui parametri principali che le influenzano. Scopo principale della tesi è quello di valutare la possibilità di misurare la resistenza idrodinamica passiva attraverso tecniche alternative che prevedano una valutazione della resistenza mediante la misura dell’energia cinetica contenuta nella scia che il corpo genera. In particolare viene descritto il metodo di Onorato che sembra fornire la migliore formulazione per la determinazione della resistenza di in corpo immerso in un fluido. Infine, vengono descritte possibili tecniche sperimentali attraverso le quali possono essere determinati i termini di velocità e pressione presenti nelle equazioni del metodo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Descrive il filtraggio delle bioimmagini mediante filtri, spiegazione caratteristiche di alcuni di essi ed esempi pratici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il rumore causato dagli aeromobili nelle varie operazioni aeroportuali è uno dei problemi più sentiti dalle popolazioni che risiedono nelle aree adiacenti gli aeroporti.Nonostante i progressi fatti dal punto di vista tecnologico, che hanno portato a una notevole riduzione del fenomeno, il continuo aumento della domanda di traffico aereo ha ridotto l’efficacia di queste migliorie tecniche, anche a causa di una scarsa pianificazione territoriale nel corso degli anni. Ci sono numerosi interventi possibili per ridurre l'inquinamento acustico, in questa tesi vengono analizzate in special modo le NAP e la loro applicazione al caso dell'aeroporto di Bologna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi è stato affrontato un metodo sperimentale per la caratterizzazione elettromagnetica di un materiale plastico, ovvero l'acetato di cellulosa, fornito all'Università da una azienda della regione interessata ad un futuro impiego dell'acetato come materiale principale nelle "cover" di smartphone di ultima generazione. Il fine principale è quello di determinare le principali proprietà dielettriche del materiale, ovvero la permettività relativa o costante dielettrica e il fattore di dissipazione, o tangente di perdita, la cui conoscenza risulta il primo passo per per lo scopo iniziale dell'azienda. Il metodo impiegato fa uso di un risonatore in microstriscia a T, dato che il pattern della metallizzazione superiore assume questa forma. In questa tecnica avviene un confronto tra un prototipo reale di riferimento analizzato con VNA e un modello dello stesso risonatore realizzato all'interno del simulatore elettromagnetico CST, in particolare un confronto tra le frequenze di risonanza dei due casi, ricavate dall'andamento risonante dell'ampiezza di S21. I valori di permettività relativa e tangente di perdita vengono ricavati realizzando una moltitudine di simulazioni con CST fino a trovare il modello più simile al prototipo reale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I metodi saddlepoint studiati nella tesi permettono di approssimare la densità di una variabile aleatoria a partire dalla funzione generatrice dei cumulanti (ricavabile dalla funzione caratteristica). Integrando la densità saddlepoint si ottiene la formula di Lugannani-Rice (e ulteriori generalizzazioni) per approssimare le probabilità di coda. Quest'ultima formula è stata poi applicata in ambito finanziario per il calcolo del prezzo di un'opzione call rispetto a vari modelli (Black-Scholes, Merton, CGMY)e in ambito assicurativo per calcolare la probabilità che il costo totale dei sinistri in una polizza non superi una certa quota fissata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro è uno studio sulle diverse proposte in letteratura per ovviare alle problematiche di interoperabilità tra piattaforme di virtualizzazione eterogenee, ovvero di diversi produttori. Al giorno d'oggi non sono stati definiti con successo degli standard opportuni per cui le soluzioni presentate sono molto diverse tra di loro. Lo scopo del lavoro è quello di analizzare le proposte e, in base ad uno studio approfondito, stabilire qual è quella migliore. Successivamente si vuole presentare il caso di studio di una piattaforma che si basa su uno strato virtuale che può essere eterogeneo. Si vuole evidenziare come nei sistemi complessi garantire interoperabilità comporta garantire anche una vasta serie di altri servizi necessari alla consistenza del sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi in oggetto propone un algoritmo che viene incontro alla necessità di segmentare in modo regolare immagini di nevi. Si è fatto uso di metodi level set region-based in una formulazione variazionale. Tale metodo ha permesso di ottenere una segmentazione precisa, adattabile a immagini di nevi con caratteristiche molto diverse ed in tempi computazionali molto bassi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.