816 resultados para ANTLR, Framework .NET, ingegneria del software, FormulaG, interpreti, linguaggi formali, WPF
Resumo:
La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.
Resumo:
Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
Per il telescopio di neutrini ANTARES, sul quale è basata questa tesi, il principale problema nella ricostruzione delle tracce dei muoni provenienti dal basso, i quali possono essere generati solo da neutrini provenienti dall’emisfero sud che interagiscono nei pressi del rivelatore, è rappresentato dai muoni atmosferici (in particolare dagli sciami muonici). La luce Cherenkov da essi prodotta può essere utilizzata per ricostruire erroneamente tracce dirette verso l’alto (upgoing). Lo scopo di questa tesi è la valutazione, tramite un metodo Montecarlo, della probabilità che i muoni atmosferici vengano ricostruiti come muoni diretti verso l’alto. L’esposizione è organizzata in quattro capitoli: nei primi due vengono descritti la fisica dell’astronomia a neutrini e i principi di funzionamento di un telescopio di neutrini, con particolare attenzione al telescopio ANTARES.Nel terzo capitolo è riportata la descrizione del software utilizzato per simulare lo sciame di muoni atmosferici e la conseguente risposta del rivelatore. Infine, nel quarto capitolo, sono presentati i grafici eseguiti con ROOT che riassumono ed evidenziano i risultati della simulazione.
Resumo:
L’idea di sviluppare il presente lavoro è scaturita da alcune considerazioni sulla metodologia di preparazione dell’interprete. In particolare è nata dalla consapevolezza che la sfida principale di questa professione risiede nel fatto di dover gestire, durante l’intera carriera, un confronto impari con una quantità potenzialmente infinita di concetti e termini nuovi da assimilare. Ciò è dovuto in primis all’intrinseca vastità della lingua, principale strumento di comunicazione, e implica che ogni volta l’interprete si trovi a operare in uno degli innumerevoli contesti estremamente eterogenei in cui può essere richiesto il suo servizio, caratterizzati ciascuno da una propria cultura e da un suo lessico settoriale sul quale è necessario prepararsi, spesso disponendo solo di pochi giorni per farlo. Una delle strategie possibili per fare fronte in modo efficace al costante flusso di informazioni da assimilare è la specializzazione, ovvero lo studio approfondito e a lungo termine di uno o più settori tematici, con l’acquisizione graduale della relativa terminologia settoriale nelle varie lingue di lavoro. Il presente lavoro propone l’utilizzo di sistemi di rappresentazione grafica della conoscenza come strumenti a supporto di questo processo di specializzazione, con l’aiuto dei quali mettere a fuoco e fissare sia la componente concettuale, sia quella terminologica relativa ad un dominio specifico. A mo’ di esempio è stato scelto il settore moda, poiché ritenuto particolarmente adeguato agli scopi proposti. Il software utilizzato è la versione freeware di MindMaple. L’elaborato è suddiviso in due parti: la prima ne descrive l’impianto teorico e comprende la descrizione dei processi di categorizzazione della realtà da un punto di vista psicologico-cognitivo (cap.1), integrata da una panoramica delle diverse tipologie di sistematizzazione della conoscenza, dei loro ambiti di applicazione (cap.2), e soffermandosi infine sull’approfondimento dei vari tipi di schemi: mentali, concettuali, ecc.(cap.3) Nella seconda parte del lavoro viene dapprima fornita una descrizione generale del dominio al quale appartiene l’argomento dello schema, ossia il settore moda, esponendo le ragioni di tale scelta e soffermandosi su alcune particolarità del lessico settoriale (cap. 4). L’ultimo capitolo è infine dedicato alla presentazione dell’elaborato grafico con un’ introduzione sulle funzionalità principali del software utilizzato, la descrizione dello schema nei vari suoi aspetti, come la struttura e le fasi di sviluppo, nonché alcuni esempi concreti relativi a problematiche terminologiche incontrate sia in fase di sistematizzazione del lessico che durante la ricerca di equivalenti interlinguistici.
Resumo:
Questo elaborato si propone di analizzare le pratiche della localizzazione nel caso particolare del software destinato ai dispositivi mobili. Le innovazioni tecnologiche hanno portato grandi novità nell’ambiente della localizzazione, sia per quanto riguarda l’approccio, sia per le tecnologie e le tecniche utilizzate. In questa tesi di Laurea saranno anche approfonditi gli aspetti di un nuovo approccio alla traduzione in costante espansione, i fenomeni di traduzione collaborativa e traduzione in crowdsourcing. Nel capitolo 1 viene trattato il fenomeno della localizzazione, partendo dalle sue origini e ripercorrendo la sua storia per cercare di darne una definizione condivisa e delinearne le caratteristiche fondamentali, analizzando i vari fenomeni coinvolti nel processo. Il capitolo 2 affronta il tema della traduzione collaborativa e del crescente numero di community online di traduzione in crowdsourcing, un fenomeno recente che desta curiosità, ma anche preoccupazione all’interno degli ambienti della traduzione, in quanto molti sono i dubbi che pervadono i traduttori professionisti circa il ruolo che verrebbero a ricoprire in questo nuovo mercato linguistico. Nel capitolo 3 sono descritti i vari passaggi che un localizzatore deve compiere nel momento in cui affronta un progetto di localizzazione di una app per il sistema operativo Android, partendo dalla ricerca della stessa fino alla pubblicazione della versione localizzata sullo store o sui diversi repository online. Nel capitolo 4, infine, viene analizzato più approfonditamente Crowdin, uno dei sistemi di traduzione assistita collaborativi online, applicandolo nella pratica alla traduzione di una app per dispositivi mobili dotati di sistema operativo Android. Ne verranno descritti i diversi approcci, a seconda che l’utente sia un project manager oppure un traduttore freelance. Per concludere saranno trattati gli aspetti salienti della traduzione pratica di una app per Android.
Resumo:
L'obiettivo di questo documento è quello di descrivere il progetto di tesi che è consistito nella modifica del software GraphHopper, per calcolare un percorso che prendesse in considerazione le barriere architettoniche presenti in mappe OSM (OpenStreetMap), così da fornire percorsi accessibili a tutte quelle persone che hanno delle disabilità motorie permanenti o temporanee.
Resumo:
Il presente lavoro di tesi è stato svolto a seguito delle indagini geognostiche previste per un progetto ingegneristico volto alla riqualificazione con caratteristiche autostradali della SP46 Rho-Monza e del preesistente sistema autostradale A8/A52, la cui area interessata dai lavori è ubicata nella parte Nord del comune di Milano. Lo studio è stato finalizzato alla valutazione, attraverso metodologie e tecnologie specifiche, delle caratteristiche idrodinamiche delle acque sotterranee presenti nella zona oggetto dei lavori. A seguito di misure sul livello piezometrico della falda, compiute dopo la realizzazione di 8 piezometri, è stata realizzata (con l’ausilio del software Surfer 8.0® – Golden Software Inc.) una mappa relativa all’andamento delle isopieze e dei gradienti di flusso, attraverso interpolazione spaziale con metodo Kriging delle misure. La ricostruzione dell’assetto della falda così ottenuto ha permesso di fornire utili indicazioni riguardo le successive scelte progettuali.
Resumo:
Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).
Resumo:
Nel primo capitolo si analizzeranno alcune basi del software testing e delle applicazioni web che ci permetteranno di introdurre l'end-to-end testing nel secondo capitolo dove se ne analizzeranno il funzionamento tecnico e le sue prospettive. Successivamente, nel terzo capitolo, verrà presentato l'uso dell'end-to-end testing applicandolo ad un caso concreto, il gestionale Buudis, per poi dimostrarne la sua efficacia ed efficienza nell'ultimo capitolo.
Resumo:
Questo elaborato tratta dell'importanza dell'analisi testuale tramite strumenti informatici. Presenta la tecnica più utilizzata per questo tipo di analisi il: Topic Modeling. Vengono indicati alcuni degli algoritmi più sfruttati e si descrivono gli obiettivi principali. Inoltre introduce il Web Mining per l’estrazione di informazioni presenti nel web, specificando una tecnica particolare chiamata Web Scraping. Nell'ultima sezione dell’elaborato viene descritto un caso di studio. L’argomento dello studio è la Privatizzazione. Viene suddiviso in tre fasi, la primi riguarda la ricerca dei documenti e articoli da analizzare del quotidiano La Repubblica, nella seconda parte la raccolta di documenti viene analizzata attraverso l’uso del software MALLET e come ultimo passo vengono analizzati i topic, prodotti dal programma, a cui vengono assegnate delle etichette per identificare i sotto-argomenti presenti nei documenti della raccolta.
Resumo:
Il lavoro svolto in questa tesi è volto alla descrizione dello sviluppo di un'applicazione mobile per Android legata al mondo della ristorazione. Viene descritta l'applicazione "Takeway", che svolge funzioni di presentazione di un ristorante e di gestione di ordini TakeAway. Viene inoltre proposta un'analisi del fenomeno di centralità del web/mobile nel quotidiano, delle tecnologie più recenti e dei limiti di queste piattaforme. Le sezioni più importanti riguardano la progettazione e l'implementazione del progetto, sono di carattere tecnico e analizzano le strutture utilizzate e gli strumenti impiegati nello sviluppo del software.
Resumo:
Lo sviluppo di questa tesi è nato dalla mia volontà di intraprendere un cammino nel campo dell’animazione computerizzata e della grafica in generale. La tesi tratta in generale della nascita dell’animazione, del suo sviluppo, delle principali tecniche e ne applica i principi nella realizzazione di un’animazione. Il progetto consiste nella modellazione di un personaggio di un cartone animato attraverso il programma Autodesk Maya, e nella sua successiva animazione, ossia nel rendere il movimento del personaggio in una scena realizzata sempre con gli strumenti di Maya. Nel primo capitolo viene presentata una breve storia della computer grafica, come e dove è nata e i ricercatori che hanno contribuito a svilupparla. Si parla del suo sviluppo, di cortometraggi e film d’animazione che hanno reso possibile il suo sviluppo sia nel cinema, sia in altri settori. In breve vengono descritte anche alcune applicazioni e uno schema che racchiude i rami della grafica. Nel secondo capitolo viene messa in rilievo una differenza tra animazione tradizionale e animazione computerizzata. Inoltre vengono elencati i principi cardini dell’animazione, particolare rilievo viene dato alle figure articolate e alle principali articolazioni importanti per l’animazione. Viene trattata la cinematica che permette lo studio del moto del corpo e viene descritta la differenza tra cinematica diretta e inversa, i tre approcci per utilizzarla e un confronto finale tra le due. Infine viene fatta una breve descrizione dell’animazione interattiva, della dinamica dei corpi e dell’animazione automatizzata. Il terzo capitolo tratta del software utilizzato per la realizzazione del progetto Autodesk Maya. È stata inserita una breve guida base sugli strumenti di Maya. Nel quarto capitolo vengono esposti i passi seguiti per la realizzazione del progetto. Il personaggio che è stato modellato è Olaf, il pupazzo di neve del film d’animazione Frozen. In questo capitolo vengono presentati anche i passi per lo sviluppo della scena, e le tecniche utilizzate per animare il personaggio.
Resumo:
In recent years, Deep Learning techniques have shown to perform well on a large variety of problems both in Computer Vision and Natural Language Processing, reaching and often surpassing the state of the art on many tasks. The rise of deep learning is also revolutionizing the entire field of Machine Learning and Pattern Recognition pushing forward the concepts of automatic feature extraction and unsupervised learning in general. However, despite the strong success both in science and business, deep learning has its own limitations. It is often questioned if such techniques are only some kind of brute-force statistical approaches and if they can only work in the context of High Performance Computing with tons of data. Another important question is whether they are really biologically inspired, as claimed in certain cases, and if they can scale well in terms of "intelligence". The dissertation is focused on trying to answer these key questions in the context of Computer Vision and, in particular, Object Recognition, a task that has been heavily revolutionized by recent advances in the field. Practically speaking, these answers are based on an exhaustive comparison between two, very different, deep learning techniques on the aforementioned task: Convolutional Neural Network (CNN) and Hierarchical Temporal memory (HTM). They stand for two different approaches and points of view within the big hat of deep learning and are the best choices to understand and point out strengths and weaknesses of each of them. CNN is considered one of the most classic and powerful supervised methods used today in machine learning and pattern recognition, especially in object recognition. CNNs are well received and accepted by the scientific community and are already deployed in large corporation like Google and Facebook for solving face recognition and image auto-tagging problems. HTM, on the other hand, is known as a new emerging paradigm and a new meanly-unsupervised method, that is more biologically inspired. It tries to gain more insights from the computational neuroscience community in order to incorporate concepts like time, context and attention during the learning process which are typical of the human brain. In the end, the thesis is supposed to prove that in certain cases, with a lower quantity of data, HTM can outperform CNN.
Resumo:
Nel presente lavoro viene descritto come è stata ottimizzata, a livello software e hardware, la procedura di controllo della pressione in uno strumento manometrico utilizzato per la misura della quantità di idrogeno assorbita e desorbita da parte di metalli. Dopo una breve introduzione sulle caratteristiche dell'idrogeno che lo rendono così appetibile dal punto di vista energetico, viene esposta la teoria alla base del processo di formazione di idruri metallici. Vengono dunque descritte le due principali tecniche di caratterizzazione di questi sistemi, ovvero le cinetiche e le isoterme pressione-composizione (PCI), e il metodo di misura adottato, ovvero quello volumetrico. Successivamente si passa alla descrizione delle componenti hardware del sistema, per poi soffermarsi sull'analisi dettagliata dell'algoritmo del software implementato, spiegando i problemi affrontati e le soluzioni adottate, riportando anche alcune formule utili ricorrenti. Infine, vengono esposti i risultati ottenuti da misure di cinetiche e PCI per il sistema MgH2 (idruro di magnesio).