1000 resultados para Modellazione,dati sperimentali,Calibrazione,Ottimizzazione
Resumo:
A differenza di allil- e crotilborazioni realizzate su aldeidi e chetoni, la crotilborazione di azodicarbossilati rappresenta un terreno ancora inesplorato in sintesi asimmetrica. Per sviluppare un processo catalitico ed enantioselettivo è stato pertanto necessario valutare singolarmente l’effetto di ciascuno dei fattori in grado di influenzare l’andamento della reazione, ovvero: catalizzatore, quantità relative di reagenti, temperatura, alcoli ausiliari, additivi, solventi e composizione della miscela di reazione. Dopo aver ottimizzato le condizioni operative affinché si raggiungesse la massima enantioselettività possibile, è stato effettuato uno studio del meccanismo di reazione tramite spettroscopia 1H NMR. L’indagine ha permesso di individuare le specie cataliticamente attive ed avere maggiori informazioni sulla cinetica della crotilborazione. Rispetto alla fase iniziale di sviluppo della reazione, l’ottimizzazione delle condizioni operative ha consentito di aumentare notevolmente sia la resa che l’eccesso enantiomerico. Le informazioni ricavate nel corso del progetto hanno inoltre portato a una maggiore comprensione del processo catalitico, che potrà essere sfruttata per incrementare ulteriormente l’efficienza e la selettività della reazione di crotilborazione in esame.
Resumo:
Il problema del rumore derivante dai volumi di traffico sempre crescente richiede la ricerca di svariate soluzioni, tra cui l'installazione di barriere di sicurezza e antirumore, definite anche integrate. La tesi, svolta in collaborazione con Piacentini Ingegneri srl, dopo un primo inquadramento del problema dei livelli di rumore eccessivi e dei limiti imposti da normativa, descrive le possibili soluzioni trovate nel tempo e in corso di ricerca. Vengono dunque descritte nel dettaglio le barriere integrate, specialmente quelle trovate nei tratti autostradali di Genova e Milano nel corso del tirocinio svolto presso Piacentini Ingegneri srl. È stata eseguita una modellazione FEM delle barriere Integauto-s e diverse prove sperimentali sui new jersey e sulle opere di supporto alle barriere (pull-out, carotaggi, prove a trazione, ecc). Dai certificati delle prove si ricavano i parametri di resistenza degli elementi (barriera e cordoli di sostegno) grazie ai quali, in aggiunta alla documentazione originale fornita da Autostrade per l'Italia, si raggiunge il Livello di Conoscenza accurato, il massimo possibile: LC3. Ciò è indispensabile per rispettare la procedura per il rialzamento delle barriere integrate concordate tra le 2 società sopracitate. Quindi, si procede con le verifiche delle barriere e delle opere di supporto alle barriere (cordolo su terreno, cordolo con micropali o pali, cordolo su opera d'arte esistente, pile da ponte). L'intera tesi è finalizzata alla definizione delle altezze delle barriere integrate, in quanto per motivi di sicurezza erano state abbassate. I calcoli strutturali, la modellazione FEM e le prove condotte hanno portato alla conoscenza massima possibile delle seguenti barriere: Integauto-s, NJBP C1.2 Martellona, e NJBP Ecotecnica (trovate nei tratti autostradali oggetto di rialzamento).
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
L’obiettivo di questa trattazione è quello di esporre il rapporto controverso fra il diritto alla privacy, garantito ad ogni cittadino, e la tutela della sicurezza nazionale. L’episodio protagonista che verrà analizzato riguarda il contenzioso che, nel dicembre del 2015, ha coinvolto la società Apple Inc. e l’Fbi. Nella prima parte dell’elaborato l’attenzione verrà focalizzata sul concetto di privacy, approfondendo la sua diversa impostazione nelle normative americana e europea. In particolare, si partirà dal right to be let alone del 1890 per giungere a quella che è la concezione attuale del diritto alla protezione dei dati personali secondo il GDPR e il Privacy Act per poi elaborarne un confronto. Successivamente, verrà analizzato il tema della tutela della sicurezza pubblica facendo ricorso ad alcuni esempi di leggi emanate a seguito degli attentati terroristici dell’11 settembre. Nella seconda parte, dunque, si entrerà nel vivo della Strage di San Bernardino, ripercorrendo passo dopo passo le indagini. Il focus sarà lo scontro legale tra Apple e Fbi e le trattative in merito al dispositivo rinvenuto durante la strage. Infine, si ipotizzerà di “trasportare” il caso nella normativa europea, ossia immaginando la sua risoluzione qualora la normativa adottata non fosse stata quella americana.
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
Con il termine "crowdsensing" si intende una tecnica in cui un folto gruppo di individui aventi dispositivi mobili acquisiscono e condividono dati di natura diversa in maniera collettiva, al fine di estrarre informazioni utili. Il concetto di Mobile Crowdsensing è molto recente e derivante dalle ultime innovazioni tecnologiche in materia di connettività online e cattura di dati di vario genere; pertanto non si trova attualmente una vera e propria applicazione in campo reale, la modellazione solo teorica e fin troppo specifica pone un limite alla conoscenza di un ambito che può rivelarsi molto utile ai fini di ricerca. YouCrowd è un piattaforma web che va ad implementare un sistema di crowdsourcing completo, in grado di leggere dati dai numerosi sensori di uno smartphone e condividerli, al fine di ottenere una remunerazione per gli utenti che completano una campagna. La web application vede la sua implementazione di base supportata da NodeJS e si configura come una piattaforma dinamica che varia la propria interfaccia con l'utente in base alle richieste di dati da parte degli administrators. Il test di YouCrowd ha coinvolto un buon numero di partecipanti più o meno esperti nell'utilizzo degli strumenti informatici, rivelando delle buone prestazioni in relazione alla difficoltà del task e alle prestazioni del device in test.
Resumo:
Recentemente il consumo di carne ha attirato l'attenzione per motivi salutistici, ambientali ed etici; pertanto è sempre più urgente considerare formulazioni di prodotti a base di carne più salutari e sostenibili inclusi in una dieta sana e nutriente. In questa tesi sono stati valutati gli effetti in vitro sul microbiota intestinale umano di salami riformulati sostituendo i nitriti con acido ascorbico e antiossidanti vegetali. A questo scopo è stato utilizzato il modello intestinale in vitro MICODE, nella versione che include la digestione gastro-duodenale seguita dalla fermentazione colonica. Gli effetti sul microbiota intestinale sono stati valutati attraverso tecniche di analisi quantitativa Real Time qPCR in base agli shift di alcune popolazioni microbiche, sia quelle benefiche (come Lactobacillales, Bifidobacteriaceae, Clostridium gruppo IV), sia quelle opportuniste (come Enterobacteriaceae, Clostridium gruppo I) e infine il rapporto Firmicutes/Bacteroidetes (importante indice di eubiosi del microbiota intestinale dell’ospite). Inoltre, sono state analizzate, tramite SPME-GC-MS, le molecole volatili prodotte in seguito alla fermentazione colonica, sia positive, come gli SCFA, sia negative, come fenolo e cresolo. I risultati ottenuti hanno mostrato che le formulazioni innovative promuovono una generale eubiosi del microbiota intestinale e una riduzione di popolazioni microbiche negative, in confronto ai controlli. Inoltre, l’analisi del volatiloma evidenzia una maggiore produzione di molecole benefiche e una maggiore riduzione delle molecole negative per l’ospite. Sebbene le formulazioni innovative non abbiano dato benefici nettamente superiori a quelli dei controlli, i risultati ottenuti sono promettenti, in quanto gli antiossidanti utilizzati in sostituzione hanno dato risultati comparabili a quelli ottenuti con il formulato tradizionale.
Resumo:
La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.
Resumo:
L'oggetto della tesi è la modellazione numerica di pali di fondazione per turbine eoliche in ambiente offshore. Il metodo di modellazione comprende l'interpretazione di prove CPT per l'estrapolazione dei parametri geotecnici del terreno, la creazione di un modello dell'interazione tra struttura e terreno tramite il software agli elementi finiti Abaqus, la sua verifica, l'ottimizzazione dell'estensione del modello del terreno e della mesh e la simulazione numerica del comportamento di pali caricati assialmente in compressione. Grazie al confronto con i risultati di test su modelli fisici, eseguiti nel laboratorio dell'istituto Fraunhofer IWES di Hannover, di tre pali aventi la stessa geometria ma installati in punti con diverse condizioni di compattazione della sabbia, è stata possibile la messa a punto di una strategia di simulazione più accurata possibile e la sua validazione. A conclusione del lavoro è stato eseguito un esempio di design di una fondazione jacket per una turbina eolica offshore.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Il lavoro svolto in questa tesi si colloca nel contesto della riqualificazione di una struttura in muratura portante esistente tramite cappotto sismico. Ha come oggetto l’analisi della sua risposta meccanica, con particolare attenzione alla modellazione numerica. L’immobile oggetto di studio è edificato nella zona costiera del comune di San Benedetto del Tronto (AP). La prima fase di analisi consiste in un approfondito percorso di conoscenza della struttura, che riguarda un attento studio storico-critico dell’evoluzione strutturale seguito, poi, da un’indagine conoscitiva della geometria della struttura e delle caratteristiche meccaniche dei materiali costituenti. Per migliorare il comportamento dell’edificio sotto carichi sismici, si sceglie di intervenire tramite la realizzazione di un’epidermide sismo-resistente, che deve essere correttamente modellata congiuntamente alla muratura portante. Viene proposta una prima modellazione semplificata nella quale le pareti del cappotto vengono implementate mediante l’utilizzo di elementi bidimensionali, mentre la muratura esistente viene considerata solamente come massa sismica. Nella seconda strategia di modellazione, seppure si mantenga la stessa impostazione per la schematizzazione del cappotto sismico, si avanza l’ipotesi di discretizzare la struttura esistente mediante il metodo a telaio equivalente, per valutare così la ripartizione delle azioni sismiche tra cappotto e muratura. Vengono eseguite tutte le verifiche necessarie per la valutazione di fattibilità dell’opera, esaminando anche i livelli di sicurezza raggiunti per lo stato di progetto. Con entrambe le strategie si raggiunge un’ottima riqualificazione dell’immobile.
Resumo:
La seguente tesi ha come oggetto l’area archeologica di Santa Croce a Ravenna (Emilia-Romagna), che si colloca all’interno della buffer zone dell’area monumentale della Basilica di San Vitale e del Mausoleo di Galla Placidia, sito UNESCO (dal 1996). L’area in oggetto risulta un palinsesto stratificato di manufatti, emersi dapprima in una campagna di scavo del XVIII secolo iniziati da Filippo Lanciani e successivamente approfondite in una campagna di scavo degli anni ’90 da Sauro Gelichi e Paola Novara. L’attuale configurazione è il risultato delle numerose trasformazioni che il luogo ha subito nel tempo non solo stratigrafiche ma anche a causa del fenomeno della subsidenza. Di recente l’area è stata oggetto di successivi allagamenti dovuti al malfunzionamento del sistema drenante, risolti di volta in volta grazie ai volontari della Mistral Protezione Civile e alla gestione e direzione della SABAP_RA. L’obbiettivo di questa tesi è fornire delle indicazioni per la conservazione e manutenzione preventiva e programmata dell’area. Il testo si compone di una fase analitica e di una fase di ricerca d’archivio e bibliografica, le quali si intrecciano con la lettura geometrica, della consistenza materica dell’oggetto e del suo stato di conservazione, analisi finalizzate alla redazione di un piano di manutenzione e conservazione dell’intero complesso. Al fine di sistematizzare le informazioni e renderle più fruibili per i gestori dell’area, si è fatto uso del sistema HBIM, ovvero una modellazione digitale tridimensionale arricchita con dati e informazioni non strettamente geometriche ma anche analitiche e di conoscenza del manufatto, quali notizie storiche, documenti d’archivio, analisi della consistenza e dell’attuale stato di conservazione. La tesi si conclude con alcune indicazioni e proposte progettuali per la valorizzazione dell’intera area.
Resumo:
In these last years a great effort has been put in the development of new techniques for automatic object classification, also due to the consequences in many applications such as medical imaging or driverless cars. To this end, several mathematical models have been developed from logistic regression to neural networks. A crucial aspect of these so called classification algorithms is the use of algebraic tools to represent and approximate the input data. In this thesis, we examine two different models for image classification based on a particular tensor decomposition named Tensor-Train (TT) decomposition. The use of tensor approaches preserves the multidimensional structure of the data and the neighboring relations among pixels. Furthermore the Tensor-Train, differently from other tensor decompositions, does not suffer from the curse of dimensionality making it an extremely powerful strategy when dealing with high-dimensional data. It also allows data compression when combined with truncation strategies that reduce memory requirements without spoiling classification performance. The first model we propose is based on a direct decomposition of the database by means of the TT decomposition to find basis vectors used to classify a new object. The second model is a tensor dictionary learning model, based on the TT decomposition where the terms of the decomposition are estimated using a proximal alternating linearized minimization algorithm with a spectral stepsize.
Resumo:
Nuclear cross sections are the pillars onto which the transport simulation of particles and radiations is built on. Since the nuclear data libraries production chain is extremely complex and made of different steps, it is mandatory to foresee stringent verification and validation procedures to be applied to it. The work here presented has been focused on the development of a new python based software called JADE, whose objective is to give a significant help in increasing the level of automation and standardization of these procedures in order to reduce the time passing between new libraries releases and, at the same time, increasing their quality. After an introduction to nuclear fusion (which is the field where the majority of the V\&V action was concentrated for the time being) and to the simulation of particles and radiations transport, the motivations leading to JADE development are discussed. Subsequently, the code general architecture and the implemented benchmarks (both experimental and computational) are described. After that, the results coming from the major application of JADE during the research years are presented. At last, after a final discussion on the objective reached by JADE, the possible brief, mid and long time developments for the project are discussed.
Resumo:
Agricultural techniques have been improved over the centuries to match with the growing demand of an increase in global population. Farming applications are facing new challenges to satisfy global needs and the recent technology advancements in terms of robotic platforms can be exploited. As the orchard management is one of the most challenging applications because of its tree structure and the required interaction with the environment, it was targeted also by the University of Bologna research group to provide a customized solution addressing new concept for agricultural vehicles. The result of this research has blossomed into a new lightweight tracked vehicle capable of performing autonomous navigation both in the open-filed scenario and while travelling inside orchards for what has been called in-row navigation. The mechanical design concept, together with customized software implementation has been detailed to highlight the strengths of the platform and some further improvements envisioned to improve the overall performances. Static stability testing has proved that the vehicle can withstand steep slopes scenarios. Some improvements have also been investigated to refine the estimation of the slippage that occurs during turning maneuvers and that is typical of skid-steering tracked vehicles. The software architecture has been implemented using the Robot Operating System (ROS) framework, so to exploit community available packages related to common and basic functions, such as sensor interfaces, while allowing dedicated custom implementation of the navigation algorithm developed. Real-world testing inside the university’s experimental orchards have proven the robustness and stability of the solution with more than 800 hours of fieldwork. The vehicle has also enabled a wide range of autonomous tasks such as spraying, mowing, and on-the-field data collection capabilities. The latter can be exploited to automatically estimate relevant orchard properties such as fruit counting and sizing, canopy properties estimation, and autonomous fruit harvesting with post-harvesting estimations.