405 resultados para Oratorio della Madonna delle Grazie (Church).
Resumo:
La riflessione ondosa è uno degli effetti idrodinamici che scaturiscono dall'interazione tra la massa d'acqua libera in movimento e la struttura in cui si imbatte, sia essa in un lago, mare od oceano. Studiare un fenomeno aleatorio e dissipativo come questo in maniera solo analitica, non è sufficiente a raggiungere il grado di precisione che ad oggi si richiede alle opere ingegneristiche, pertanto, una buona prassi sperimentale prevede che la teoria venga integrata e sostenuta da test di laboratorio che, grazie alla condizioni al contorno note e controllate, consentono di circoscrivere il problema reale dando modo all'analisi matematica di interpretarlo correttamente, per poi essere in grado di prevenirlo in maniera efficace. Il presente elaborato nasce dal tema attuale dell' "emergenza plastica" nei mari, e lo applica al problema pratico ingegneristico di assorbimento dell'energia ondosa, ovverosia la necessità di ridurre l'altezza d'onda in corrispondenza di bacini portuali, con lo scopo di prevenire la sovrapposizione di onde riflesse più volte dai corpi immersi a distanza ravvicinata, eventualità che, nell'immediato, renderebbe gli attracchi e in genere le operazioni portuali difficilmente praticabili, e, come sarà descritto in maniera più esaustiva nel terzo capitolo, nel lungo termine potrebbe provocare gravi fenomeni di instabilità alle strutture coinvolte. I test di generazione e analisi di riflessione ondosa oggetto di questo studio, sono stati eseguiti nel laboratorio di Ingegneria Idraulica LIDR del Dipartimento di Ingegneria Civile, Ambientale e dei Materiali, DICAM, dell'Università Alma Mater Studiorum di Bologna, utilizzando il canale a sviluppo longitudinale, il quale, grazie alle sue caratteristiche fisico-geometriche, consente di studiare il moto dei fluidi trascurando l'attrito, e, nel caso specifico delle onde, di applicare al moto ondoso le ipotesi di linearità, presentate nel secondo capitolo.
Resumo:
Nella tesi viene descritto un metodo per creare una lista ricambi basata su un'analisi statistica. In seguito, utilizzando anche i risultati ottenuti, viene calcolato il Total Cost of Ownership per un gruppo di macchine.
Resumo:
I rifiuti plastici, oggigiorno, rappresentano una grande minaccia per l’ambiente, per gli ecosistemi e per la salute umana, tanto da essere al centro della attenzione di numerosi studi. La preoccupazione maggiore è destata dalle microplastiche (frammenti di dimensioni inferiori ai 5 mm) che per la loro dimensione, la loro ubiquità e la loro lunga persistenza in ambiente possono interferire in maniera allarmante con gli organismi viventi. L’ampia gamma di dimensioni delle microplastiche e la natura complessa delle loro forme, colori e tipi di polimero hanno impedito ai ricercatori di sviluppare una classificazione coerente data anche dall'attuale assenza di una standardizzazione nel metodo di campionamento, preparazione e analisi del campione. Infatti lo studio di questa tipologia di inquinanti può essere effettuato mediante diverse metodologie analitiche sia di tipo spettroscopico che termico. Con questo studio si è cercato di valutare le potenzialità della pirolisi analitica (PyGCMS) per la quantificazione e identificazione di sei polimeri: PE, PP, PS, PET, PVC e PA. Tramite un attento confronto con la letteratura sono stati identificati alcuni punti critici nell'analisi quantitativa di alcuni polimeri in miscela. In particolare, la miscela PET/PA è risultata essere soggetta a grandi interferenze date dalla comparsa di prodotti pirolitici secondari che ne impediscono una corretta quantificazione. Inoltre un diverso rapporto dei polimeri nella miscela binaria va a modificare la risposta quantitativa rendendola non prevedibile. L’uso di derivatizzanti come agenti metilanti sembra ridurre alcuni effetti di interazione in pirolisi, ma non sembra essere così vantaggioso come riportato in altri studi. Complessivamente la pirolisi analitica risulta una tecnica applicabile alla identificazione e quantificazione delle microplastiche, ma emerge dallo studio una scarsa conoscenza in letteratura delle interazioni in fase pirolitica tra prodotti di pirolisi di diversi polimeri.
Resumo:
Dando continuità all’attività di ricerca intrapresa durante il mio precedente tirocinio presso il Dipartimento di Ingegneria Industriale DIN di Bologna, lo scopo della mia tesi è stato quello di chiarire i meccanismi di stabilità di fase della lega ad alta entropia CoCrFeMnNi ed esplorare la sua natura metastabile alle medio-alte temperature (tra i 450-1150°C). Nell’ottica di possibili future applicazioni industriali, è stato inoltre valutato l’effetto che la produzione via Additive Manufacturing può avere su proprietà e comportamenti delle leghe ad alta entropia. Sperimentalmente sono state fatte importanti osservazioni, a volte in contrasto con la letteratura precedente, che aprono la strada ad ulteriori e più specifiche indagini verso la comprensione dei complessi meccanismi che recentemente hanno reso queste leghe così interessanti per la ricerca a livello mondiale.
Resumo:
In ambito biomedicale una delle applicazioni che ad oggi sta riscuotendo un interesse crescente è lo studio di dispositivi performanti per il rilascio controllato di farmaci. La realizzazione di materiali nanofibrosi a base di polimeri di origine naturale e sintetica costituisce una strada molto interessate. In particolare, la cheratina, che può essere ricavata da un’ampia quantità di sottoprodotti delle industrie zootecniche e tessili, presenta ottima biocompatibilità e caratteristiche che le consentono di svolgere il ruolo di carrier per molteplici tipologie di sostanze. La fragilità e la difficile processabilità della cheratina possono essere migliorate mediante miscelazione con polimeri di origine sintetica, come il poli(butilene succinato) (PBS), un poliestere alifatico biodegradabile e biocompatibile, caratterizzato da un buona stabilità termica e da ampia lavorabilità. Nel presente lavoro di Tesi sono state realizzate miscele e membrane elettrofilate a base di PBS e cheratina a diversa composizione, ed è stato valutato l'effetto della composizione sulle proprietà chimico-fisiche delle membrane elettrofilate e sulla cinetica di rilascio di farmaci. Per prima cosa è stata analizzata la stabilità della cheratina nel solvente; sono state quindi svolte analisi sul comportamento reologico delle miscele in tre rapporti di peso ed i tappetini elettrofilati sono stati caratterizzati da un punto di vista morfologico (SEM), termico (TGA e DSC) e meccanico (prove di trazione e di adesione). Le prove di rilascio sono state effettuate impiegando rodamina, una molecola modello, e le membrane sono state analizzate prima e dopo il rilascio tramite FTIR, per valutare eventuali variazioni compositive. Dai risultati ottenuti, emerge che è stato possibile modulare sia le proprietà delle membrane sia i profili di rilascio, agendo semplicemente sulla composizione delle miscele, ad indicare un’ampia versatilità per applicazioni in ambito di rilascio controllato di farmaco.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
Lo scopo di questa tesi consiste nell’analisi della rete di ponti a microonde, o CML commercial microwave link, gestita da Lepida Spa; la rete è costituita da un gruppo di connessioni telefoniche, collocate sul territorio dell’Emilia Romagna, ed utilizzata all’interno di questo lavoro come strumento di misura della precipitazione. In particolare è stata elaborata una descrizione delle caratteristiche di misura, trasmissione di segnale e geometria delle antenne coinvolte ed eseguita un’analisi statistica di verifica della misura, sviluppata a partire dal confronto tra le osservazioni estrapolate dalla rete, ottenute per mezzo dell’applicazione dell’algoritmo RAINLINK, e le misure effettuate da radar e pluviometri presenti sullo stesso territorio monitorato. Le analisi iniziali hanno evidenziato la peculiarità delle caratteristiche dei ponti all’interno della rete: processi di controllo hanno dimostrato la presenza di vuoti d’informazione relativamente ad alcuni ponti ed uno studio legato alla trasmissione del segnale ha mostrato la presenza di effetti di attenuazione di cui non è possibile offrire una parametrizzazione, anche in assenza di precipitazione. La misura di precipitazione da rete CML è stata confrontata separatamente con i dati estratti da radar e pluviometro, cercando in entrambi i casi di presentare la migliore strategia possibile di comparazione tra misure con diverse caratteristiche spaziali; dal confronto emerge come l’accordo tra le diverse osservazioni risulti maggiore durante i mesi estivi. I risultati hanno evidenziato la presenza di un sottogruppo di strumenti, collocati generalmente nelle zone in cui la rete risulta meno densa, le cui misure presentano un grado di accordo inferiore con il dato osservato da pluviometro e radar, relativamente al resto della rete. É stato inoltre osservato che, la maggior parte dei ponti della rete, tende a sottostimare la presenza di precipitazione.
Resumo:
A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.
Resumo:
Con l’aumentare del livello delle manifestazioni sportive d’élite, la biomeccanica dello sport è diventata uno strumento fondamentale per permettere agli atleti di tenere il passo con le difficoltà legate alla competizione. Per riuscire in questo compito, vengono integrate tecnologie sempre più avanzate e fra queste spicca l’elettromiografia di superficie. L’obbiettivo di questo lavoro consiste in una revisione della letteratura per vedere come l’EMG permetta di studiare l’attivazione coordinata di più muscoli ad un’articolazione o ad un intero arto, valutandone le sinergie muscolari, e capire quali vantaggi questo possa portare alla ricerca sportiva. Lo studio è stato limitato all’ambito del ciclismo e della corsa in quanto discipline in cui questa tecnologia è più utilizzata. I risultati hanno mostrato come lo studio delle sinergie muscolari permetta di raggiungere una comprensione più profonda del movimento e come le tecniche di allenamento possano sfruttare questa conoscenza per monitorare gli atleti e raggiungere strategie motorie sempre più efficienti.
Resumo:
Nel nuovo secolo l’uomo sta cercando di affrontare le problematiche del cambiamento climatico, che purtroppo sta già provocando fenomeni di frequenza ed intensità mai visti. Fra i diversi metodi per provare a mitigare le emissioni di gas serra vi è quello di sfruttare il settore delle Informations and Communications Technologies (ICT). Complessivamente si stima che le ICT consumino l’8-10% di elettricità in Europa e che siano responsabili del 4% delle emissioni di carbonio del continente. Questo lavoro analizza la letteratura scientifica che si è occupata degli studi relativi ai consumi ed alle emissioni legate alle ICT. L’analisi dell’impatto ambientale viene svolta tramite il metodo Life Cycle Assessment (LCA). Nella prima parte di questa tesi si analizzano le impronte di carbonio di diversi prodotti o servizi degni di nota fino ad arrivare in generale a tutto il settore delle ICT. Nella seconda, si valutano gli impatti ambientali di sistemi implementati con le ICT comparati con altri considerati tradizionali. In questo studio, vengono analizzati i benefici e le criticità del metodo di valutazione LCA usato per studiare le ICT. Gli studi con questa tecnica sono basati sempre e solo su un modello matematico, per cui dipendono dalle ipotesi dello studio e sono associati ad una sostanziale incertezza che va considerata nell’analisi finale. Per questo motivo, applicando questo metodo al singolo prodotto, i risultati possono essere utili per fornire una base di dati per futuri studi, considerando, tuttavia, che non si può definire in maniera rigida l’impatto per ogni prodotto. Piuttosto, l’LCA è risultata più efficace per fare una comparazione tra scenari ICT e non ICT per valutare come si possa usare la tecnologia per mitigare l’impatto ambientale. Le ICT sono il presente ed il futuro della società ed è proprio per questo che è necessario monitorarle e svilupparle consapevolmente, perché per quanto l’impatto ambientale di esse possa sembrare basso, non è mai nullo.
Resumo:
Analisi dei principali fatti politici riportati da Maurizio Crozza- dalla prima puntata di Crozza nel Paese delle Meraviglie (2012) fino all'ultima puntata della terza stagione di Fratelli di Crozza (2019)- approfondendoli attraverso i monologhi e le imitazioni del comico genovese.
Resumo:
La presente tesi di laurea vuole affrontare il tema degli allagamenti in ambito urbano e si inserisce all’interno di un progetto già in essere riguardante la realizzazione di un modello numerico del sistema di drenaggio della città di Ravenna. L'obbiettivo è la modellazione in 2D delle aree della città del comparto nord caratterizzate da eventi di Pluvial flooding con particolare riguardo ai siti di interesse archeologico facenti parte del patrimonio UNESCO. Il caso di studio, inoltre, è ripreso dal programma SHELTER (Sustainable Historic Environments hoListic reconstruction through Technological Enhancement and community based Resilience) finanziato nell’ambito del programma per la ricerca europea Horizon 2020. Nel presente elaborato verranno dunque simulati i vari scenari idraulici caratterizzati da eventi di precipitazione riferiti a tempi di ritorno differenti al fine di analizzare la risposta del comparto nord della rete di Ravenna, per valutarne le critica tramite l’utilizzo del software EPA SWMM. I risultati ottenuti saranno dunque rielaborati per essere utilizzati nella realizzazione di carte tematiche grazie all’utilizzo del software GIS. Tali carte permetteranno quindi di valutare le aree maggiormente soggette a fenomeni di allagamento. I risultati verranno infine analizzati attraverso il software di modellazione bidimensionale HEC-RAS riuscendo così a comprendere meglio il fenomeno dell’allagamento urbano. Verrà posta una particolare attenzione nelle zone dove sono presenti i siti facenti parte del patrimonio UNESCO: Basilica di San Vitale e Battistero Ariani. I risultati ottenuti dalla modellazione, permetteranno infine, di valutare le metodologie e gli approcci per ridurre i deflussi superficiali durante la precipitazione e, quindi le portate in fognatura, andando così a garantire una protezione idraulica e ambientale del territorio aumentando la resilienza del comparto urbano.
Resumo:
Lo scopo dell’elaborato è stato quello di creare un termbase trilingue in italiano, portoghese e spagnolo nel dominio del diritto di famiglia, che possa aiutare in quanto risorsa terminologica i traduttori giuridici che hanno la necessità di documentarsi sull'argomento con una prospettiva comparatista. Il dominio della ricerca, il diritto di famiglia, è una branca del diritto privato che si occupa di regolare i rapporti giuridici tra le persone che costituiscono un nucleo famigliare, ovvero i rapporti di coniugio, di filiazione, di adozione e i rapporti patrimoniali per le successioni. Nella prima sezione dell’elaborato si introducono alcuni concetti cardine della giurisprudenza e si riflette su quale sia la relazione tra società, cultura e legge. Inoltre, si analizza lo stato dell’arte della traduzione specialistica, in particolare della traduzione giuridica. Nella seconda parte, proprio in virtù della riflessione precedente, è stata fatta un’analisi comparativa delle legislazioni riguardanti il diritto di famiglia e della loro evoluzione tra il XX e il XXI secolo in Italia, Portogallo e Spagna. La terza parte riporta le fasi che si sono susseguite per poter creare il termbase, a partire dalla raccolta di testi per la successiva estrazione di termini grazie al software AntConc, all’individuazione dei traducenti, per concludersi con la conversione del glossario in formato Excel a termbase attraverso il pacchetto di software MultiTerm. Il risultato è un termbase composto da 103 voci in italiano, con altrettanti equivalenti interlinguistici in portoghese e in spagnolo, per ciascuno dei quali sono state stati specificati definizioni, contesti ed eventuali sinonimi e note. In ultima istanza, sono state riportate alcune riflessioni riguardanti i termini e i loro traducenti, in particolare sulla loro natura mutevole e non sempre ben definita, che spinge il traduttore a inserire i termini in un framework linguistico, ma anche e soprattutto culturale.
Resumo:
Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".
Resumo:
L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.