1000 resultados para indirizzo :: 791 :: Curriculum E: Fisica applicata


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi ho trattato l'argomento dei Disturbi Specifici di Apprendimento (DSA), in particolar modo mi sono interessata alla Discalculia e a come si potrebbe affrontare a livello di Scuola Secondaria di II Grado. Ho approfondito in particolar modo l'argomento dell'algebra alla base dei curricula di matematica nel biennio, attraverso il supporto del software Aplusix.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta in primo piano la personalizzazione di un sistema Android utilizzata come piattaforma per la seconda parte del lavoro. Quest'ultima consiste nell'installazione sul sistema operativo Android, personalizzato, un modulo e un'applicazione, il primo denominato Transmission Error Detector (TED), che estende il funzionamento della tecnologia WiFi e la seconda denominata Wvdial che estende invece il funzionamento della tecnologia 3G(o UMTS). Entrambi fanno parte di una architettura per il supporto alla mobilità in contesti eterogenei.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi �si basa sull'estendere l'architettura del software NILDE - Network Inter Library Document Exchange attraverso un processo di migrazione verso servizi REST (REpresentational State Transfer) utilizzando e ampliando metodologie, best practice e frameworks che hanno permesso lo sviluppo di API Pubbliche e Private utilizzabili da utenti esterni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

uesto progetto di tesi ha come obiettivo la creazione di una applicazio- ne mobile collaborativa per il monitoraggio e l’analisi dei viaggi ferroviari. Collaborativa perché per poter adempiere alla sua funzione è necessario che i suoi utilizzatori partecipino attivamente all’accrescimento del database di dati, supponendo che con più dati raccolti sia maggiore l’accuratezza di que- st’ultimi. Sarà un’applicazione di monitoraggio nel senso che di ogni singolo treno verranno presi in esame una serie di aspetti considerati utili ai fini della valutazione della qualità del servizio offerto. Analisi perché, una volta raccolti, questi dati possono essere utilizzati sia da coloro che viaggiano in treno -per decidere se prendere un treno piuttosto che un altro- sia da coloro che gestiscono la rete in modo da stilare delle statistiche o per eseguire degli interventi mirati su di una specifica tratta o anche per potenziare il servizio clienti a bordo del treno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viene implementato un algoritmo di ritrasmissione dei pacchetti nel protocollo TCP. Lo studio viene fatt utilizzando il simulatore OMNET++ e il framework INET

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La popolarita` dei giochi online e` in crescita, ma allo stesso tempo le architetture proposte dagli sviluppatori e le connessioni di cui sono dotati gli utenti sembrano restare non adeguate a questo. Nella tesi si descrive un'architettura peer-to-peer che riesce ad effettuare una riduzione nella perdita dei pacchetti grazie al meccanismo del Network Coding senza effetti collaterali per la latenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo del seguente lavoro è determinare attraverso l'uso di procedure statistico-econometriche, in particolare del metodo ECM, le previsioni per i tassi di default nel triennio 2013-2015, partendo dalle serie storiche di questi ultimi e da quelle macroeconomiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi nasce come risultato di un'esperienza di stage svolta presso l'ufficio Pianificazione e Risk Management in Cassa di Risparmio di Cento; l'obiettivo di questo lavoro è la descrizione dell'analisi da me svolta per la ricostruzione del metodo di determinazione del tasso interno di trasferimento adottato in questa banca. A questo studio è stata aggiunta una sezione legata all'analisi e all'implementazione di due modelli stocastici per l'evoluzione dei tassi di interesse (modello di Vasicek e modello CIR).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è incentrata sull'analisi della formula di Dupire, che permette di ottenere un'espressione della volatilità locale, nei modelli di Lévy esponenziali. Vengono studiati i modelli di mercato Merton, Kou e Variance Gamma dimostrando che quando si è off the money la volatilità locale tende ad infinito per il tempo di maturità delle opzioni che tende a zero. In particolare viene proposta una procedura di regolarizzazione tale per cui il processo di volatilità locale di Dupire ricrea i corretti prezzi delle opzioni anche quando si ha la presenza di salti. Infine tale risultato viene provato numericamente risolvendo il problema di Cauchy per i prezzi delle opzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ricostruzione della teoria delle funzioni affrontata nel corso "Einleitung in die Theorie der analytischen Funktionen" tenuto da K. Weierstrass attraverso l'analisi e il confronto dei saggi di due suoi studenti: A. Hurwitz e S. Pincherle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi presenta una serie di risultati dell'analisi quantitativa sulla linguistica. Inizialmente sono studiate due fra le leggi empiriche più famose di questo campo, le leggi di Zipf e Heaps, e vengono esposti vari modelli sullo sviluppo del linguaggio. Nella seconda parte si giunge alla discussione di risultati più specifici sulla presenza di fenomeni di burstiness e di correlazioni a lungo raggio nei testi. Tutti questi studi teorici sono affiancati da analisi sperimentali, svolte utilizzando varie traduzioni del libro "Guerra e pace" di Leo Tolstoj e concentrate principalmente sulle eventuali differenze riscontrabili tra le diverse lingue.