962 resultados para Matlab.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Each plasma physics laboratory has a proprietary scheme to control and data acquisition system. Usually, it is different from one laboratory to another. It means that each laboratory has its own way to control the experiment and retrieving data from the database. Fusion research relies to a great extent on international collaboration and this private system makes it difficult to follow the work remotely. The TCABR data analysis and acquisition system has been upgraded to support a joint research programme using remote participation technologies. The choice of MDSplus (Model Driven System plus) is proved by the fact that it is widely utilized, and the scientists from different institutions may use the same system in different experiments in different tokamaks without the need to know how each system treats its acquisition system and data analysis. Another important point is the fact that the MDSplus has a library system that allows communication between different types of language (JAVA, Fortran, C, C++, Python) and programs such as MATLAB, IDL, OCTAVE. In the case of tokamak TCABR interfaces (object of this paper) between the system already in use and MDSplus were developed, instead of using the MDSplus at all stages, from the control, and data acquisition to the data analysis. This was done in the way to preserve a complex system already in operation and otherwise it would take a long time to migrate. This implementation also allows add new components using the MDSplus fully at all stages. (c) 2012 Elsevier B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, an experimental and numerical analysis and characterization of functionally graded structures (FGSs) is developed. Nickel (Ni) and copper (Cu) materials are used as basic materials in the numerical modeling and experimental characterization. For modeling, a MATLAB finite element code is developed, which allows simulation of harmonic and modal analysis considering the graded finite element formulation. For experimental characterization, Ni-Cu FGSs are manufactured by using spark plasma sintering technique. Hardness and Young's modulus are found by using microindentation and ultrasonic measurements, respectively. The effective gradation of Ni/Cu FGS is addressed by means of optical microscopy, energy dispersive spectrometry, scanning electron microscopy and hardness testing. For the purpose of comparing modeling and experimental results, the hardness curve, along the gradation direction, is used for identifying the gradation profile; accordingly, the experimental hardness curve is used for approximating the Young's modulus variation and the graded finite element modeling is used for verification. For the first two resonance frequency values, a difference smaller than 1% between simulated and experimental results is obtained. (C) 2012 Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of the present study was to evaluate the use MRI to quantify the workload of gluteus medius (GM), vastus medialis (VM) and vastus lateralis (VL) muscles in different types of squat exercises. Fourteen female volunteers were evaluated, average age of 22 +/- 2 years, sedentary, without clinical symptoms, and without history of previous lower limb injuries. Quantitative MRI was used to analyze VM, VL and GM muscles before and after squat exercise, squat associated with isometric hip adduction and squat associated with isometric hip abduction. Multi echo images were acquired to calculate the transversal relaxation times (T2) before and after exercise. Mixed Effects Model statistical analysis was used to compare images before and after the exercise (Delta T2) to normalize the variability between subjects. Imaging post processing was performed in Matlab software. GM muscle was the least active during the squat associated with isometric hip adduction and VM the least active during the squat associated with isometric hip abduction, while VL was the most active during squat associated with isometric hip adduction. Our data suggests that isometric hip adduction during the squat does not increase the workload of VM, but decreases the GM muscle workload. Squat associated with isometric hip abduction does not increase VL workload.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The major goal of this research was the development and implementation of a control system able to avoid collisions during the flight for a mini-quadrotor helicopter, based only on its embedded sensors without changing the environment. However, it is important to highlight that the design aspects must be seriously considered in order to overcome hardware limitations and achieve control simplification. The controllers of a UAV (Unmanned Aerial Vehicle) robot deal with highly unstable dynamics and strong axes coupling. Furthermore, any additional embedded sensor increases the robot total weight and therefore, decreases its operating time. The best balance between embedded electronics and robot operating time is desired. This paper focuses not only on the development and implementation of a collision avoidance controller for a mini-robotic helicopter using only its embedded sensors, but also on the mathematical model that was essential for the controller developing phases. Based on this model we carried out the development of a simulation tool based on MatLab/Simulink that was fundamental for setting the controllers' parameters. This tool allowed us to simulate and improve the OS4 controllers in different modeled environments and test different approaches. After that, the controllers were embedded in the real robot and the results proved to be very robust and feasible. In addition to this, the controller has the advantage of being compatible with future path planners that we are developing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work proposes the development of an Adaptive Neuro-fuzzy Inference System (ANFIS) estimator applied to speed control in a three-phase induction motor sensorless drive. Usually, ANFIS is used to replace the traditional PI controller in induction motor drives. The evaluation of the estimation capability of the ANFIS in a sensorless drive is one of the contributions of this work. The ANFIS speed estimator is validated in a magnetizing flux oriented control scheme, consisting in one more contribution. As an open-loop estimator, it is applied to moderate performance drives and it is not the proposal of this work to solve the low and zero speed estimation problems. Simulations to evaluate the performance of the estimator considering the vector drive system were done from the Matlab/Simulink(R) software. To determine the benefits of the proposed model, a practical system was implemented using a voltage source inverter (VSI) to drive the motor and the vector control including the ANFIS estimator, which is carried out by the Real Time Toolbox from Matlab/Simulink(R) software and a data acquisition card from National Instruments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper shows theoretical models (analytical formulations) to predict the mechanical behavior of thick composite tubes and how some parameters can influence this behavior. Thus, firstly, it was developed the analytical formulations for a pressurized tube made of composite material with a single thick ply and only one lamination angle. For this case, the stress distribution and the displacement fields are investigated as function of different lamination angles and reinforcement volume fractions. The results obtained by the theoretical model are physic consistent and coherent with the literature information. After that, the previous formulations are extended in order to predict the mechanical behavior of a thick laminated tube. Both analytical formulations are implemented as a computational tool via Matlab code. The results obtained by the computational tool are compared to the finite element analyses, and the stress distribution is considered coherent. Moreover, the engineering computational tool is used to perform failure analysis, using different types of failure criteria, which identifies the damaged ply and the mode of failure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The cellular rheology has recently undergone a rapid development with particular attention to the cytoskeleton mechanical properties and its main components - actin filaments, intermediate filaments, microtubules and crosslinked proteins. However it is not clear what are the cellular structural changes that directly affect the cell mechanical properties. Thus, in this work, we aimed to quantify the structural rearrangement of these fibers that may emerge in changes in the cell mechanics. We created an image analysis platform to study smooth muscle cells from different arteries: aorta, mammary, renal, carotid and coronary and processed respectively 31, 29, 31, 30 and 35 cell image obtained by confocal microscopy. The platform was developed in Matlab (MathWorks) and it uses the Sobel operator to determine the actin fiber image orientation of the cell, labeled with phalloidin. The Sobel operator is used as a filter capable of calculating the pixel brightness gradient, point to point, in the image. The operator uses vertical and horizontal convolution kernels to calculate the magnitude and the angle of the pixel intensity gradient. The image analysis followed the sequence: (1) opens a given cells image set to be processed; (2) sets a fix threshold to eliminate noise, based on Otsu's method; (3) detect the fiber edges in the image using the Sobel operator; and (4) quantify the actin fiber orientation. Our first result is the probability distribution II(Δθ) to find a given fiber angle deviation (Δθ) from the main cell fiber orientation θ0. The II(Δθ) follows an exponential decay II(Δθ) = Aexp(-αΔθ) regarding to its θ0. We defined and determined a misalignment index α of the fibers of each artery kind: coronary αCo = (1.72 ‘+ or =’ 0.36)rad POT -1; renal αRe = (1.43 + or - 0.64)rad POT -1; aorta αAo = (1.42 + or - 0.43)rad POT -1; mammary αMa = (1.12 + or - 0.50)rad POT -1; and carotid αCa = (1.01 + or - 0.39)rad POT -1. The α of coronary and carotid are statistically different (p < 0.05) among all analyzed cells. We discussed our results correlating the misalignment index data with the experimental cell mechanical properties obtained by using Optical Magnetic Twisting Cytometry with the same group of cells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the new active absorption wave basin, named Hydrodynamic Calibrator (HC), constructed at the University of São Paulo (USP), in the Laboratory facilities of the Numerical Offshore Tank (TPN). The square (14 m 14 m) tank is able to generate and absorb waves from 0.5 Hz to 2.0 Hz, by means of 148 active hinged flap wave makers. An independent mechanical system drives each flap by means of a 1HP servo-motor and a ball-screw based transmission system. A customized ultrasonic wave probe is installed in each flap, and is responsible for measuring wave elevation in the flap. A complex automation architecture was implemented, with three Programmable Logic Computers (PLCs), and a low-level software is responsible for all the interlocks and maintenance functions of the tank. Furthermore, all the control algorithms for the generation and absorption are implemented using higher level software (MATLAB /Simulink block diagrams). These algorithms calculate the motions of the wave makers both to generate and absorb the required wave field by taking into account the layout of the flaps and the limits of wave generation. The experimental transfer function that relates the flap amplitude to the wave elevation amplitude is used for the calculation of the motion of each flap. This paper describes the main features of the tank, followed by a detailed presentation of the whole automation system. It includes the measuring devices, signal conditioning, PLC and network architecture, real-time and synchronizing software and motor control loop. Finally, a validation of the whole automation system is presented, by means of the experimental analysis of the transfer function of the waves generated and the calculation of all the delays introduced by the automation system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rationale: NAVA is an assisted ventilatory mode that uses the electrical activity of the diaphragm (Edi) to trigger and cycle the ventilator, and to offer inspiratory assistance in proportion to patient effort. Since Edi varies from breath to breath, airway pressure and tidal volume also vary according to the patient's breathing pattern. Our objective was to compare the variability of NAVA with PSV in mechanically ventilated patients during the weaning phase. Methods: We analyzed the data collected for a clinical trial that compares PSV and NAVA during spontaneous breathing trials using PSV, with PS of 5 cmH2O, and NAVA, with Nava level titrated to generate a peak airway pressure equivalent to PSV of 5 cmH2O (NCT01137271). We captured flow, airway pressure and Edi at 100Hz from the ventilator using a dedicated software (Servo Tracker v2, Maquet, Sweden), and processed the cycles using a MatLab (Mathworks, USA) code. The code automatically detects the tidal volume (Vt), respiratory rate (RR), Edi and Airway pressure (Paw) on a breath-by-breath basis for each ventilatory mode. We also calculated the coefficient of variation (standard deviation, SD, divided by the mean). Results: We analyzed data from eleven patients. The mean Vt was similar on both modes (370 ±70 for Nava and 347± 77 for PSV), the RR was 26±6 for Nava and 26±7 or PSV. Paw was higher for Nava than for PSV (14±1 vs 11±0.4, p=0.0033), and Edi was similar for both modes (12±8 for Nava and 11±6 for PSV). The variability of the respiratory pattern, assessed with the coefficient of variation, was larger for Nava than for PSV for the Vt ( 23%±1% vs 15%±1%, p=0.03) and Paw (17%±1% vs 1% ±0.1%, p=0.0033), but not for RR (21% ±1% vs 16% ±8%, p=0.050) or Edi (33%±14% vs 39% ±16%,p=0.07). Conclusion: The variability of the breathing pattern is high during spontaneous breathing trials independent of the ventilatory mode. This variability results in variability of airway pressure and tidal volume, which are higher on Nava than on PSV. Our results suggest that Nava better reflects the normal variability of the breathing pattern during assisted mechanical ventilation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The growth and the metabolism of Bifidobacterium adolescentis MB 239 fermenting GOS, lactose, galactose, and glucose were investigated. An unstructerd unsegregated model for growth of B. adolescentis MB 239 in batch cultures was developed and kinetic parameters were calculated with a Matlab algorithm. Galactose was the best carbon source; lactose and GOS led to lower growth rate and cellular yield, but glucose was the poorest carbon source. Lactate, acetate and ethanol yields allowed calculation of the carbon fluxes toward fermentation products. Similar distribution between 3- and 2-carbon products was observed on all the carbohydrates (45 and 55%, respectively), but ethanol production was higher on glucose than on GOS, lactose and galactose, in decreasing order. Based on the stoichiometry of the fructose 6-phosphate shunt and on the carbon distribution among the products, ATP yield was calculated on the different carbohydrates. ATP yield was the highest on galactose, while it was 5, 8, and 25% lower on lactose, GOS, and glucose, respectively. Therefore, a correspondance among ethanol production, low ATP yields, and low biomass production was established demonstrating that carbohydrate preferences may result from different sorting of carbon fluxes through the fermentative pathway. During GOS fermentation, stringent selectivity based on the degree of polymerization was exhibited, since lactose and the trisaccharide were first to be consumed, and a delay was observed until longer oligosaccharides were utilized. Throughout the growth on both lactose and GOS, galactose accumulated in the cultural broth, suggesting that β-(1-4) galactosides can be hydrolysed before they are taken up. The physiology of Bifidobacterium adolescentis MB 239 toward xylooligosaccharides (XOS) was also studied and our attention was focused on an extracellular glycosyl-hydrolase (β-Xylosidase) expressed by a culture of B. adolescentis grown on XOS as sole carbon source. The extracellular enzyme was purified from the the supernatant, which was dialyzed and concentrated by ultrafiltration. A two steps purification protocol was developed: the sample was loaded on a Mono-Q anion exchange chromatography and then, the active fractions were pooled and β-Xylosidase was purified by gel filtration chromatography on a Superdex-75. The enzyme was characterized in many aspects. β- Xylosidase was an homo-tetramer of 160 kDa as native molecular mass; it was a termostable enzyme with an optimum of temperature at 53 °C and an optimum of pH of 6.0. The kinetics parameter were calculated: km = 4.36 mM, Vmax = 0.93 mM/min. The substrate specificity with different di-, oligo- and polysaccharides was tested. The reactions were carried out overnight at pH 7 and at the optimum of temperature and the carbohydrates hydrolysis were analyzed by thin layer chromatography (TLC). Only glycosyl-hydrolase activities on XOS and on xylan were detected, whereas sucrose, lactose, cellobiose, maltose and raffinose were not hydrolyzed. It’s clearly shown that β-Xylosidase activity was higher than the Xylanase one. These studies on the carbohydrate preference of a strain of Bifidobacterium underlined the importance of the affinity between probiotics and prebiotics. On the basis of this concept, together with Barilla G&R f.lli SpA, we studied the possibility to develop a functional food containing a synbiotic. Three probiotic strains Lactobacillus plantarum BAR 10, Streptococcus thermophilus BAR 20, and Bifidobacterium lactis BAR 30 were studied to assess their suitability for utilization in synbiotic products on the basis of antioxidative activity, glutathione production, acid and bile tolerance, carbohydrates fermentation and viability in food matrices. Bile and human gastric juice resistance was tested in vitro to estimate the transit tolerance in the upper gastrointestinal tract. B. lactis and L. plantarum were more acid tolerant than S. thermophilus. All the strains resisted to bile. The growth kinetics on 13 prebiotic carbohydrates were determined. Galactooligosaccharides and fructo-oligosaccharides were successfully utilized by all the strains and could be considered the most appropriate prebiotics to be used in effective synbiotic formulations. The vitality of the three strains inoculated in different food matrices and maintained at room temperature was studied. The best survival of Lactobacillus plantarum BAR 10, Streptococcus thermophilus BAR 20, and Bifidobacterium lactis BAR 30 was found in food chocolate matrices. Then an in vivo clinical trial was carried out for 20 healthy volunteers. The increase in faecal bifidobacteria and lactobacilli populations and the efficacy of the pre-prototype was promising for the future develop of potential commercial products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella presente tesi sono state modellate in Ansys due tipologie di travi P.R.E.M comunemente utilizzate nella pratica. Lo scopo è stato quello di determinare i parametri che maggiormente influenzano la stabilità delle due tipologie di travi in fase 1. I parametri analizzati sono stati: l'altezza della trave, l'altezza dell'irrigidimento verticale e il tipo di caricamento (simmetrico e eccentrico). Il processo di calcolo è stato automatizzato interfacciando Matlab ed Ansys.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Water distribution networks optimization is a challenging problem due to the dimension and the complexity of these systems. Since the last half of the twentieth century this field has been investigated by many authors. Recently, to overcome discrete nature of variables and non linearity of equations, the research has been focused on the development of heuristic algorithms. This algorithms do not require continuity and linearity of the problem functions because they are linked to an external hydraulic simulator that solve equations of mass continuity and of energy conservation of the network. In this work, a NSGA-II (Non-dominating Sorting Genetic Algorithm) has been used. This is a heuristic multi-objective genetic algorithm based on the analogy of evolution in nature. Starting from an initial random set of solutions, called population, it evolves them towards a front of solutions that minimize, separately and contemporaneously, all the objectives. This can be very useful in practical problems where multiple and discordant goals are common. Usually, one of the main drawback of these algorithms is related to time consuming: being a stochastic research, a lot of solutions must be analized before good ones are found. Results of this thesis about the classical optimal design problem shows that is possible to improve results modifying the mathematical definition of objective functions and the survival criterion, inserting good solutions created by a Cellular Automata and using rules created by classifier algorithm (C4.5). This part has been tested using the version of NSGA-II supplied by Centre for Water Systems (University of Exeter, UK) in MATLAB® environment. Even if orientating the research can constrain the algorithm with the risk of not finding the optimal set of solutions, it can greatly improve the results. Subsequently, thanks to CINECA help, a version of NSGA-II has been implemented in C language and parallelized: results about the global parallelization show the speed up, while results about the island parallelization show that communication among islands can improve the optimization. Finally, some tests about the optimization of pump scheduling have been carried out. In this case, good results are found for a small network, while the solutions of a big problem are affected by the lack of constraints on the number of pump switches. Possible future research is about the insertion of further constraints and the evolution guide. In the end, the optimization of water distribution systems is still far from a definitive solution, but the improvement in this field can be very useful in reducing the solutions cost of practical problems, where the high number of variables makes their management very difficult from human point of view.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vengono presentate correzioni agli sviluppi asintotici di Edgeworth per densità di somme di variabili aleatorie stabili. Queste stime sono successivamente implementate in Matlab, con particolare attenzioni agli approssimanti in forma razionale di Padè. Nell'Appendice viene poi fornita la distribuzione di zeri degli approssimanti di Padè per la funzione esponenziale.