895 resultados para tesi di laurea magistrale
Resumo:
Classen Boulevard as a Zipper. Riqualificazione urbana del quartiere di Classen Boulevard in Oklahoma City, OK
Resumo:
il lavoro riguarda l'analisi statica e sismica del ponte ad arco di Brisighella con l'adeguamento statico
Resumo:
La tesi si occupa dell'uso di più tecniche fotogrammetriche e di strumenti GIS nel recupero digitale e nell'integrazione di una molteplicità di dati storici, opportunamente georeferenziati, inerenti l'area del Centro Cadore, ai fini anche della valorizzazione turistico-culturale del territorio. Un ampio spazio viene dato alla caratterizzazione del territorio e delle fonti - cartografiche, fotografiche e testuali - che sono state recuperate ed organizzate in archivio. Le applicazioni fotogrammetriche comprendono la generazione di ortofoto digitali a scala territoriale da immagini storiche e modelli 3D close-range ottenuti con tecniche SfM.
Resumo:
Questo studio si propone di analizzare dal punto di vista morfometrico alcuni bacini del territorio comunale di Cortina d'Ampezzo, al fine di comprendere in dettaglio le zone di sviluppo dei processi di colata detritica che spesso si verificano in questa zona.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Resumo:
L’oggetto di questo elaborato riguarda lo studio prestazionale di un Solid Rocket Motor mediante l’introduzione del fattore di “Hump”, che va a compensare il discostamento tra il profilo delle pressioni sperimentali e teoriche, cercando di legare tali variazioni a spiegazioni fisiche. In particolare andremo ad investigare, all’interno di due differenti tipologie di colata, quale sia l’effetto predominante all’interno del propellente che genera proprio tali discostamenti della pressione, e quindi della spinta, rispetto alla condizione ideale. Nell’elaborato verranno anzitutto presentate le diverse tipologie di propulsori, i loro singoli componenti, i parametri fondamentali che regolano la meccanica di questa tipologia di motori, le tipologie di grain esistenti e le loro caratteristiche. Successivamente descriveremo le BARIA (Bomb ARIAne), usate per i test del grain nella ditta AVIO s.p.a., e le tipologie di riempimento di questo motore, investigando i fenomeni fisici a cui sarà legato l’effetto di “Hump”. In seguito si descriverà il fattore di “Hump”, evidenziando, per le differenti tipologie di riempimento, i fenomeni fisici a cui sarà legato il discostamento tra le pressioni sperimentali e teoriche. Verranno poi descritti i programmi utilizzati, gli script in Matlab prodotti, al fine di ottenere le mappe relative all’orientazione ed alla concentrazione delle particelle, da introdurre nel simulatore. Infine verranno esposti i risultati ottenuti e confrontati con i dati sperimentali forniti dalla ditta AVIO s.p.a., le conclusioni e gli sviluppi futuri.
Resumo:
L'oggetto di questa tesi di Laurea è lo studio di una porzione dell'aggregato dell'ex Convento di San Francesco, situato nel centro storico di Bologna. Lo studio è stato condotto a partire da una analisi storica dell'intero aggregato, per comprenderne le dinamiche costruttive e le evoluzioni nel tempo, e si è successivamente incentrato sulla porzione prospiciente la via S. Isaia, attuale sede degli uffici dell'Agenzia delle Entrate di Bologna, ex Agenzia del Territorio. Grazie al reperimento di documenti risalenti all'epoca della costruzione dell'edificio, è stato possibile svilupparne un'analisi tipologico - costruttiva, individuando i materiali utilizzati e le tecniche costruttive dell'epoca, verificando inoltre il rispetto delle Norme Tecniche Costruttive del 1936. Si è svolta quindi una analisi sismica preliminare attraverso il modello LV1, per verificare il livello di vulnerabilità globale dell'edificio. In seguito, sono state individuate le vulnerabilità dell'edificio e i cinematismi di collasso che potrebbero attivarsi, e si sono studiate possibili soluzioni per prevenirli. In fase progettuale, si sono svolte tre differenti ipotesi di intervento: due più conservative, che prevedono il consolidamento della copertura esistente, considerando le ipotesi di presenza o assenza del cordolo, e una più invasiva, comportante il rifacimento dell'intera copertura dell'edificio. Contestualmente all'ultima ipotesi, è stato realizzato un progetto architettonico di rifunzionalizzazione relativo al terzo piano dell'edificio, tenendo conto delle esigenze di nuovi spazi da adibire ad uso ufficio e di luoghi di riunione. Si è dunque studiata la possibilità di intervento anche dal punto di vista della prevenzione incendi.
Il modello di argomentazione di Toulmin nell’attivitá matematica degli studenti di scuola secondaria
Resumo:
Lo studio decritto in questo progetto di tesi ha avuto origine dalla volontà di analizzare l’atteggiamento di studenti di scuola superiore di I e II grado rispetto alla richiesta di fornire argomentazioni, di giustificare affermazioni o risultati ottenuti in ambito matematico. L’analisi quantitativa dei dati ottenuti sottoponendo gli studenti ad un questionario costituito da quesiti scelti in ambiti differenti tra le prove Invalsi ha evidenziato che solo una parte (36% per le superiori di I grado, 59% per le superiori di II grado) degli studenti che hanno risposto correttamente ai quesiti, è stata in grado di argomentare la risposta. L’analisi è stata a questo punto approfondita sulla base del modello di Toulmin e delle componenti del processo di argomentazione da lui descritte. Si è valutato per ogni argomentazione in quale o quali delle componenti toulminiane si sia concentrato l’errore. Ogni argomentazione considerata errata può infatti contenere errori differenti che possono riguardare una soltanto, diverse o tutte e quattro le componenti di Backing, Warrant, Data e Conclusion. L’informazione che ne è emersa è che nella maggioranza dei casi il fatto che uno studente di scuola superiore non riesca ad argomentare adeguatamente un’affermazione dipende dal richiamo errato di conoscenze sull'oggetto dell'argomentazione stessa ("Warrant" e "Backing"), conoscenze che dovrebbero supportare i passi di ragionamento. Si è infine condotta un’indagine sul terreno logico e linguistico dei passi di ragionamento degli studenti e della loro concatenazione, in modo particolare attraverso l’analisi dell’uso dei connettivi linguistici che esprimono e permettono le inferenze, e della padronanza logica delle concatenazioni linguistiche. Si è osservato per quanto riguarda le scuole superiori di I grado, che le difficoltà di argomentazione dovute anche a scarsa padronanza del linguaggio sono circa l’8% del totale; per le scuole superiori di II grado questa percentuale scende al 6%.
Resumo:
The aim of this master thesis is to study the exponential decay of solutions of elliptic partial equations. This work is based on the results obtained by Agmon. To this purpose, first, we define the Agmon metric, that plays an important role in the study of exponential decay, because it is related to the rate of decay. Under some assumptions on the growth of the function and on the positivity of the quadratic form associated to the operator, a first result of exponential decay is presented. This result is then applied to show the exponential decay of eigenfunctions with eigenvalues whose real part lies below the bottom of the essential spectrum. Finally, three examples are given: the harmonic oscillator, the hydrogen atom and a Schrödinger operator with purely discrete spectrum.
Resumo:
All'interno di questo elaborato vengono analizzati gli effetti positivi e negativi dell'introduzione delle nuove tecnologie nel sistema scolastico all'interno della società odierna, definita società della conoscenza; vengono descritte la lavagna interattiva multimediale e successivamente due software didattici, proponendo al termine una proposta di innovazione attuabile nella scuola secondaria di secondo grado, basata su un mio intervento riguardante l'unità didattica della "Retta nel piano cartesiano" e della "Parabola". Il filo conduttore è quello dell'analisi critica nei confronti delle potenzialità che la rivoluzione digitale porta con sé, cercando di riflettere su quello che potrebbe essere il giusto compromesso tra la nostra scuola e i tempi odierni.
Resumo:
Lo scopo di questa tesi è studiare in dettaglio l'articolo "A Completeness Result for Time-Dependent Vector Fields and Applications" di Stefano Biagi e Andrea Bonfiglioli, dove si ottiene una condizione sufficiente per la completezza di un campo vettoriale (dipendente dal tempo) in RN, che generalizza la ben nota condizione di invarianza a sinistra per i gruppi di Lie.
Resumo:
La citofluorimetria è una tecnica applicata per misurare le caratteristiche fisiche, morfologiche e fisiologiche di cellule microbiche ed ha il pregio di generare un dato per ogni singola particella (cellula) analizzata. Poiché è noto che l’assenza di sviluppo in piastra non implica necessariamente l’assenza di forme microbiche vitali, questa tecnica ha un grande potenziale nello studio dei trattamenti termici che mirano alla stabilizzazione ed alla sicurezza igienico-sanitaria dei prodotti alimentari. Infatti, nel contesto industriale la tendenza è quella di ridurre l’entità di questi trattamenti (tempi/temperature). Ciò può avvenire anche grazie all’utilizzo di composti d’aroma, la cui attività antimicrobica è ben documentata, poiché il trattamento termico, incrementando la tensione di vapore di queste sostanze, ne potenzia l’attività antimicrobica. Questa tesi è incentrata su due aspetti: da una parte, l’effetto dell’esposizione di L. monocytogenes a diverse concentrazioni di timolo e carvacrolo (terpenoidi prevalenti in oli essenziali di Labiatae tra cui timo e origano), dall’altra la valutazione degli effetti di trattamenti termici subletali (45, 50, 55°C), anche in presenza di composti d’aroma, sulla disattivazione e sul successivo recupero di L. monocytogenes. I risultati hanno confermato la forte sinergia tra trattamento termico e presenza di sostanze terpeniche. È stato inoltre dimostrato che la presenza di tali composti incide drasticamente sulle potenzialità di recupero degli eventuali sopravvissuti dopo il trattamento termico. I risultati a volte discordanti tra l’analisi citofluorimetrica (focalizzata sull’integrità della membrana) e i conteggi in piastra hanno evidenziato come i due approcci debbano essere utilizzanti in modo complementare. L’utilizzo di altri coloranti legati ad altre funzioni biologiche e metaboliche permetterà l’ottenimento di informazioni aggiuntive circa la risposta fisiologica di questo microrganismo.
Resumo:
Le informazioni di tipo geografico caratterizzano più dell'80% dei dati utilizzati nei processi decisionali di ogni grande azienda e la loro pervasività è in costante aumento. La Location Intelligence è un insieme di strumenti, metodologie e processi nati con l'obiettivo di analizzare e comprendere a pieno il patrimonio informativo presente in questi dati geolocalizzati. In questo progetto di tesi si è sviluppato un sistema completo di Location Intelligence in grado di eseguire analisi aggregate dei dati georeferenziati prodotti durante l'operatività quotidiana di una grande azienda multiservizi italiana. L’immediatezza dei report grafici e le comparazioni su serie storiche di diverse sorgenti informative integrate generano un valore aggiunto derivante dalle correlazioni individuabili solo grazie a questa nuova dimensione di analisi. In questo documento si illustrano tutte le fasi caratterizzanti del progetto, dalla raccolta dei requisiti utente fino all’implementazione e al rilascio dell’applicativo, concludendo con una sintesi delle potenzialità di analisi generate da questa specifica applicazione e ai suoi successivi sviluppi.
Resumo:
Questa tesi tratta nello specifico lo studio di un impianto micro-ORC, capace di sfruttare acqua alla temperatura di circa 70-90°C come sorgente termica. Questo sistema presenta una potenza dichiarata dal costruttore pari a 3kW e un rendimento del 9%. In primo luogo, si descrivono le caratteristiche principali dei fluidi organici, in particolare quelle del freon R134a, impiegato nel banco prova. Vengono illustrati dettagliatamente l’impianto e la sensoristica utilizzata per le misurazioni delle varie grandezze fisiche. Tramite esse, con l’utilizzo di un programma di acquisizione dati appositamente relizzato in ambiente LabVIEW, è stato possibile calcolare in tempo reale tutti i parametri di funzionamento, necessari per la caratterizzazione del sistema. Per una veloce ed efficiente elaborazione dei dati registrati durante le prove in laboratorio, è stato realizzato un programma in linguaggio VBA. L’utilizzo di questo codice ha permesso, in primo luogo, di individuare e correggere eventuali errori di calcolo e acquisizione presenti in ambiente LabVIEW e, in secondo luogo, si è reso indispensabile per comprendere il funzionamento dell’impianto nelle varie fasi, come accensione, spegnimento e produzione di potenza. Sono state inoltre identificate le modalità di risposta del sistema al variare dei comandi impostabili dall’utente, quali il numero di giri della pompa e la variazione della temperatura della sorgente calda. Si sono poi osservate le risposte del sistema al variare delle condizioni esterne, come ad esempio la temperatura dell’acqua di condensazione. Una specifica prova è stata analizzata in questo elaborato. Durante tale prova il sistema ha lavorato in forte off-design, erogando una potenza elettrica pari a 255 W, raggiungendo un basso valore del rendimento (pari a 1.8%). L’analisi dei dati ha portato ad identificare nuovi limiti di funzionamento, legati ad esempio alla quantità di fluido interna al sistema.
Resumo:
L'obiettivo del kinodynamic motion planning è quello di determinare una sequenza di input di controllo per guidare un agente da uno stato iniziale ad uno finale, rispettando la dinamica del corpo e i vincoli fisici. In questa tesi sono presentate diverse versioni di algoritmi basati su Rapidly-exploring Random Tree in grado di risolvere questo tipo di problema. In particolare è preso in considerazione il caso di un sistema non lineare con vincoli non olonomici, rappresentativo del rover in dotazione al progetto europeo SHERPA. La qualità degli approcci proposti è inoltre provata con alcuni test di navigazione, in ambiente simulato, confrontando gli algoritmi proposti con alcuni presi nella letteratura di riferimento.