16 resultados para performance-based engineering
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
Rail transportation has significant importance in the future world. This importance is tightly bounded to accessible, sustainable, efficient and safe railway systems. Precise positioning in railway applications is essential for increasing railway traffic, train-track control, collision avoidance, train management and autonomous train driving. Hence, precise train positioning is a safety-critical application. Nowadays, positioning in railway applications highly depends on a cellular-based system called GSM-R, a railway-specific version of Global System for Mobile Communications (GSM). However, GSM-R is a relatively outdated technology and does not provide enough capacity and precision demanded by future railway networks. One option for positioning is mounting Global Navigation Satellite System (GNSS) receivers on trains as a low-cost solution. Nevertheless, GNSS can not provide continuous service due to signal interruption by harsh environments, tunnels etc. Another option is exploiting cellular-based positioning methods. The most recent cellular technology, 5G, provides high network capacity, low latency, high accuracy and high availability suitable for train positioning. In this thesis, an approach to 5G-based positioning for railway systems is discussed and simulated. Observed Time Difference of Arrival (OTDOA) method and 5G Positioning Reference Signal (PRS) are used. Simulations run using MATLAB, based on existing code developed for 5G positioning by extending it for Non Line of Sight (NLOS) link detection and base station exclusion algorithms. Performance analysis for different configurations is completed. Results show that efficient NLOS detection improves positioning accuracy and implementing a base station exclusion algorithm helps for further increase.
Resumo:
La progettazione sismica negli ultimi anni ha subito una forte trasformazione, infatti con l’introduzione delle nuove normative tecniche si è passati dallo svolgere una verifica delle capacità locali dei singoli elementi ad una progettazione con un approccio di tipo probabilistico, il quale richiede il soddisfacimento di una serie di stati limite ai quali viene attribuita una certa probabilità di superamento. La valutazione dell’affidabilità sismica di una struttura viene condotta di solito attraverso metodologie che prendono il nome di Probabilistic Seismic Design Analysis (PSDA) in accordo con la procedura del Performance Based Earthquake Engineering (PBEE). In questa procedura di tipo probabilistico risulta di notevole importanza la definizione della misura d’intensità sismica, la quale può essere utilizzata sia come predittore della risposta strutturale a fronte di un evento sismico, sia come parametro per definire la pericolosità di un sito. Queste misure d’intensità possono essere definite direttamente dalla registrazione dell’evento sismico, come ad esempio l’accelerazione di picco del terreno, oppure sulla base della risposta, sia lineare che non, della struttura soggetta a tale evento, ovvero quelle che vengono chiamate misure d’intensità spettrali. Come vedremo è preferibile l’utilizzo di misure d’intensità che soddisfino certe proprietà, in modo da far risultare più efficace possibile le risoluzione del problema con l’approccio probabilistico PBEE. Obbiettivo principale di questa dissertazione è quello di valutare alcune di queste proprietà per un gran numero di misure d’intensità sismiche a partire dai risultati di risposta strutturale ottenuti mediante analisi dinamiche non lineari nel tempo, condotte per diverse tipologie di strutture con differenti proprietà meccaniche.
Resumo:
Il presente elaborato di tesi tratta la valutazione di differenti sistemi di controventatura, sia dal punto di vista di risposta ad un evento sismico che in termini di perdite economiche legate al danneggiamento delle varie componenti. Tra di esse è presentata anche una nuova tipologia strutturale, ideata per ridurre il comportamento “soft-story” e “weak-story”, tipico delle strutture controventate convenzionali. In questo caso, è integrata alla struttura una trave reticolare metallica, che funge da supporto verticale ed è progettata per rimanere in campo elastico. Tale sostegno garantisce una distribuzione più uniforme degli sforzi lungo l’intera altezza della struttura, anziché concentrarli in un unico piano. La ricerca tratta lo studio della fattibilità economica di questa nuova tecnologia, rispetto alle precedenti soluzioni di controventatura adottate, confrontando le perdite economiche delle diverse soluzioni, applicate ad un unico prototipo di edificio collocato a Berkeley, CA. L’analisi sismica tiene in considerazione di tre diversi livelli di intensità, riferiti a un periodo di ritorno di 50 anni, corrispondente alla vita dell’edificio: questi sono caratterizzati dalla probabilità di ricorrenza, rispettivamente del 2%, 10% e 50% ogni 50 anni. L’ambito di ricerca presentato è estremamente innovativo e di primario interesse per lo sviluppo di uno studio sulla resilienza, che può essere adattato anche in un modello di urbanizzazione futura.
Resumo:
Nella presente tesi è stato esaminato il comportamento di un sistema di dissipazione isteretica denominato CSB, costituito da un elemento metallico realizzato partendo da profili di tipo standard, la cui peculiarità consiste nella particolare forma geometrica a boomerang che consente di dimensionare la rigidezza laterale e la forza di snervamento in maniera indipendente. I CSB posso essere utilizzati sia come alternativa ai controventi diagonali tradizionali, sia come sistema resistente alle azioni orizzontali dimensionato per ottenere un comportamento di soft-storey “controllato” (cosiddetto isolamento di piano) nell’ambito della progettazione di tipo PBSD (Performance Based Seismic Design). Il comportamento del dispositivo CSB è stato studiato dapprima attraverso una prima campagna sperimentale che è stata poi validata con l’utilizzo di modelli analitici e numerici.
Resumo:
A partire dalle caratteristiche chiave dell’inquinamento acustico, lo scopo della tesi è stato quello di valutare quantitativamente l’entità del rumore aeronautico prodotto dall'aeroporto Marconi e di analizzare le soluzioni tecniche e gestionali disponibili per definire misure adeguate alle caratteristiche infrastrutturali e operative dello scalo e capaci di mitigare il disturbo subito dalla popolazione. Si è tenuto conto delle profonde modificazioni in atto nel mondo dell’aviazione, il quale, avendo come obiettivo quello di fornire un servizio di trasporto sempre più sostenibile, efficace, competitivo e omogeneo sul territorio europeo, sollecita profonde innovazioni nei requisiti funzionali e tecnici. Inizialmente l’attenzione è stata rivolta alla descrizione del rumore aeronautico e del contesto in cui è inserito, soffermandosi sul concetto di sostenibilità di un’infrastruttura di trasporto. Si è proseguito con un'analisi dettagliata della normativa vigente, italiana ed europea, al fine di affrontare gli aspetti legislativi del problema e di delineare le line guida per la valutazione del rumore. Segue uno studio, dal punto di vista tecnico e infrastrutturale, dell’evoluzione della navigazione aerea e del concetto innovativo di performance based navigation, focalizzando l’interesse sul curved approach, procedura di avvicinamento non convenzionale. L'attenzione è stata, poi, dedicata alla descrizione del caso di studio e alla presentazione della metodologia usata. Mediante il supporto dell’INM, sono state determinate le curve isofoniche, quantificando la popolazione esposta a specifici livelli di rumore aeronautico per lo scenario consuntivo dell’anno 2015. Infine, sono state eseguite simulazioni future, sulla base delle previsioni di crescita del volume di traffico aereo, per definire un limite massimo per lo sfruttamento del sistema ILS in testata 30 e per valutare il beneficio generato dall’introduzione del curved approach.
Resumo:
A global italian pharmaceutical company has to provide two work environments that favor different needs. The environments will allow to develop solutions in a controlled, secure and at the same time in an independent manner on a state-of-the-art enterprise cloud platform. The need of developing two different environments is dictated by the needs of the working units. Indeed, the first environment is designed to facilitate the creation of application related to genomics, therefore, designed more for data-scientists. This environment is capable of consuming, producing, retrieving and incorporating data, furthermore, will support the most used programming languages for genomic applications (e.g., Python, R). The proposal was to obtain a pool of ready-togo Virtual Machines with different architectures to provide best performance based on the job that needs to be carried out. The second environment has more of a traditional trait, to obtain, via ETL (Extract-Transform-Load) process, a global datamodel, resembling a classical relational structure. It will provide major BI operations (e.g., analytics, performance measure, reports, etc.) that can be leveraged both for application analysis or for internal usage. Since, both architectures will maintain large amounts of data regarding not only pharmaceutical informations but also internal company informations, it would be possible to digest the data by reporting/ analytics tools and also apply data-mining, machine learning technologies to exploit intrinsic informations. The thesis work will introduce, proposals, implementations, descriptions of used technologies/platforms and future works of the above discussed environments.
Resumo:
Il seguente elaborato è la diretta conseguenza di un periodo di stage, pari a cinque mesi, svolto presso l’azienda INTERTABA S.p.A., a Zola Predosa (BO). Il Dipartimento presso cui è stato svolto il tirocinio è l’Engineering. In particolare è stata compiuta un’analisi dei KPIs presenti e sono state proposte delle azioni migliorative. Il lavoro si è sviluppato in tre fasi. Nella prima fase è stata fatta un’analisi dei KPIs attuali per ciascuna funzione appartenente all’Engineering: Engineering Support, Project Engineering, Plant & Utilities Maintenance, Technical Warehouse e General Services. Nella seconda fase sono state descritte, per ciascuna funzione, alcune proposte migliorative per i KPIs presenti. Infine, per alcune funzioni, sono state proposte alcune iniziative in merito all’implementazione di nuovi KPIs.
Resumo:
Web is constantly evolving, thanks to the 2.0 transition, HTML5 new features and the coming of cloud-computing, the gap between Web and traditional desktop applications is tailing off. Web-apps are more and more widespread and bring several benefits compared to traditional ones. On the other hand reference technologies, JavaScript primarly, are not keeping pace, so a paradim shift is taking place in Web programming, and so many new languages and technologies are coming out. First objective of this thesis is to survey the reference and state-of-art technologies for client-side Web programming focusing in particular on what concerns concurrency and asynchronous programming. Taking into account the problems that affect existing technologies, we finally design simpAL-web, an innovative approach to tackle Web-apps development, based on the Agent-oriented programming abstraction and the simpAL language. == Versione in italiano: Il Web è in continua evoluzione, grazie alla transizione verso il 2.0, alle nuove funzionalità introdotte con HTML5 ed all’avvento del cloud-computing, il divario tra le applicazioni Web e quelle desktop tradizionali va assottigliandosi. Le Web-apps sono sempre più diffuse e presentano diversi vantaggi rispetto a quelle tradizionali. D’altra parte le tecnologie di riferimento, JavaScript in primis, non stanno tenendo il passo, motivo per cui la programmazione Web sta andando incontro ad un cambio di paradigma e nuovi linguaggi e tecnologie stanno spuntando sempre più numerosi. Primo obiettivo di questa tesi è di passare al vaglio le tecnologie di riferimento ed allo stato dell’arte per quel che riguarda la programmmazione Web client-side, porgendo particolare attenzione agli aspetti inerenti la concorrenza e la programmazione asincrona. Considerando i principali problemi di cui soffrono le attuali tecnologie passeremo infine alla progettazione di simpAL-web, un approccio innovativo con cui affrontare lo sviluppo di Web-apps basato sulla programmazione orientata agli Agenti e sul linguaggio simpAL.
Resumo:
Laser Shock Peening (LSP) is a surface enhancement treatment which induces a significant layer of beneficial compressive residual stresses of up to several mm underneath the surface of metal components in order to improve the detrimental effects of the crack growth behavior rate in it. The aim of this thesis is to predict the crack growth behavior in metallic specimens with one or more stripes which define the compressive residual stress area induced by the Laser Shock Peening treatment. The process was applied as crack retardation stripes perpendicular to the crack propagation direction with the object of slowing down the crack when approaching the peened stripes. The finite element method has been applied to simulate the redistribution of stresses in a cracked model when it is subjected to a tension load and to a compressive residual stress field, and to evaluate the Stress Intensity Factor (SIF) in this condition. Finally, the Afgrow software is used to predict the crack growth behavior of the component following the Laser Shock Peening treatment and to detect the improvement in the fatigue life comparing it to the baseline specimen. An educational internship at the “Research & Technologies Germany – Hamburg” department of AIRBUS helped to achieve knowledge and experience to write this thesis. The main tasks of the thesis are the following: •To up to date Literature Survey related to “Laser Shock Peening in Metallic Structures” •To validate the FE model developed against experimental measurements at coupon level •To develop design of crack growth slowdown in Centered Cracked Tension specimens based on residual stress engineering approach using laser peened strip transversal to the crack path •To evaluate the Stress Intensity Factor values for Centered Cracked Tension specimens after the Laser Shock Peening treatment via Finite Element Analysis •To predict the crack growth behavior in Centered Cracked Tension specimens using as input the SIF values evaluated with the FE simulations •To validate the results by means of experimental tests
Resumo:
The objective of this study was to fundamentally characterize the laboratory performance of traditional hot mix asphalt (HMA) mixtures incorporating high RAP content and waste tire crumb rubber through their fundamental engineering properties. The nominal maximum aggregates size was chosen for this research was 12mm (considering the limitation of aggregate size for surface layer) and both coarse and fine aggregates are commonly used in Italy that were examined and analyzed in this study. On the other hand, the RAP plays an important role in reducing production costs and enhancing the environmentally sustainable pavements instead of using virgin materials in HMA. Particularly, this study has aimed to use 30% of RAP content (25% fine aggregate RAP and 5% coarse aggregate RAP) and 1% of CR additives by the total weight of aggregates for mix design. The mixture of aggregates, RAP and CR were blended with different amount of unmodified binder through dry processes. Generally, the main purposes of this study were investigating on capability of using RAP and CR in dense graded HMA and comparing the performance of rejuvenator in RAP with CR. In addition, based on the engineering analyses during the study, we were able compare the fundamental Indirect Tensile Strength (ITS) value of dense graded HMA and also mechanical characteristics in terms of Indirect Tensile Stiffness Modulus (ITSM). In order to get an extended comparable data, four groups of different mixtures such as conventional mixture with only virgin aggregates (DV), mixture with RAP (DR), mixture with RAP and rejuvenator (DRR), and mixture with RAP, rejuvenator, CR (DRRCr) were investigated in this research experimentally. Finally, the results of those tests indicated that the mixtures with RAP and CR had the high stiffness and less thermal sensitivity, while the mixture with virgin aggregates only had very low values in comparison.
Resumo:
In the last twenty years aerospace and automotive industries started working widely with composite materials, which are not easy to test using classic Non-Destructive Inspection (NDI) techniques. Pairwise, the development of safety regulations sets higher and higher standards for the qualification and certification of those materials. In this thesis a new concept of a Non-Destructive defect detection technique is proposed, based on Ultrawide-Band (UWB) Synthetic Aperture Radar (SAR) imaging. Similar SAR methods are yet applied either in minefield [22] and head stroke [14] detection. Moreover feasibility studies have already demonstrated the validity of defect detection by means of UWB radars [12, 13]. The system was designed using a cheap commercial off-the-shelf radar device by Novelda and several tests of the developed system have been performed both on metallic specimen (aluminum plate) and on composite coupon (carbon fiber). The obtained results confirm the feasibility of the method and highlight the good performance of the developed system considered the radar resolution. In particular, the system is capable of discerning healthy coupons from damaged ones, and correctly reconstruct the reflectivity image of the tested defects, namely a 8 x 8 mm square bulge and a 5 mm drilled holes on metal specimen and a 5 mm drilled hole on composite coupon.
Resumo:
Due to the low cost, lightness and flexibility, Polymer Solar Cell (PSC) technology is considered one of the most promising energy technologies. In the past decades, PSCs using fullerenes or fullerene derivatives as the electron acceptors have made great progress with best power conversion efficiency (PCE) reaching 11%. However, fullerene type electron acceptors have several drawbacks such as complicated synthesis, a low light absorption coefficient and poor tuning in energy levels, which prevent the further development of fullerene-based PSCs. Hence the need to have a new class of electron acceptors as an alternative to conventional fullerene compounds. Non-fullerene acceptors (NFAs) have developed rapidly in the last years and the maximum PCEs have exceeded 14% for single-junction cells and 17% for double-junction tandem cells. By combining an electron-donating backbone, generally with several fused rings with electron-withdrawing units, we can simply construct NFA of the acceptor–donor–acceptor type (A–D–A). Versatile molecular structures have been developed using methods such as acceptor motif engineering and donor motif engineering. However, there are only a few electron-donating backbones that have been proved to be successful. Therefore, it is still necessary to develop promising building blocks to further enrich the structural diversity. An indacenodithiophene (IDT) unit with just five fused rings has a sufficiently rigid coplanar structure, which has been regarded as one of the promising electron-rich units to design high-performance A–D–A NFAs. In this work, performed at the King Abdullah University of Science and Technology in Saudi Arabia, a new nine-cyclic building block (TBIDT) with a two benzothiophene unit was synthesized and used for designing new non-fullerene electron acceptors.
Resumo:
Nell'ambito della loro trasformazione digitale, molte organizzazioni stanno adottando nuove tecnologie per supportare lo sviluppo, l'implementazione e la gestione delle proprie architetture basate su microservizi negli ambienti cloud e tra i fornitori di cloud. In questo scenario, le service ed event mesh stanno emergendo come livelli infrastrutturali dinamici e configurabili che facilitano interazioni complesse e la gestione di applicazioni basate su microservizi e servizi cloud. L’obiettivo di questo lavoro è quello di analizzare soluzioni mesh open-source (istio, Linkerd, Apache EventMesh) dal punto di vista delle prestazioni, quando usate per gestire la comunicazione tra applicazioni a workflow basate su microservizi all’interno dell’ambiente cloud. A questo scopo è stato realizzato un sistema per eseguire il dislocamento di ognuno dei componenti all’interno di un cluster singolo e in un ambiente multi-cluster. La raccolta delle metriche e la loro sintesi è stata realizzata con un sistema personalizzato, compatibile con il formato dei dati di Prometheus. I test ci hanno permesso di valutare le prestazioni di ogni componente insieme alla sua efficacia. In generale, mentre si è potuta accertare la maturità delle implementazioni di service mesh testate, la soluzione di event mesh da noi usata è apparsa come una tecnologia ancora non matura, a causa di numerosi problemi di funzionamento.
Resumo:
Vision systems are powerful tools playing an increasingly important role in modern industry, to detect errors and maintain product standards. With the enlarged availability of affordable industrial cameras, computer vision algorithms have been increasingly applied in industrial manufacturing processes monitoring. Until a few years ago, industrial computer vision applications relied only on ad-hoc algorithms designed for the specific object and acquisition setup being monitored, with a strong focus on co-designing the acquisition and processing pipeline. Deep learning has overcome these limits providing greater flexibility and faster re-configuration. In this work, the process to be inspected consists in vials’ pack formation entering a freeze-dryer, which is a common scenario in pharmaceutical active ingredient packaging lines. To ensure that the machine produces proper packs, a vision system is installed at the entrance of the freeze-dryer to detect eventual anomalies with execution times compatible with the production specifications. Other constraints come from sterility and safety standards required in pharmaceutical manufacturing. This work presents an overview about the production line, with particular focus on the vision system designed, and about all trials conducted to obtain the final performance. Transfer learning, alleviating the requirement for a large number of training data, combined with data augmentation methods, consisting in the generation of synthetic images, were used to effectively increase the performances while reducing the cost of data acquisition and annotation. The proposed vision algorithm is composed by two main subtasks, designed respectively to vials counting and discrepancy detection. The first one was trained on more than 23k vials (about 300 images) and tested on 5k more (about 75 images), whereas 60 training images and 52 testing images were used for the second one.