987 resultados para Double-strap joint incollaggi simulazione numerica CFRP
Resumo:
Adhesively bonded repairs offer an attractive option for repair of aluminium structures, compared to more traditional methods such as fastening or welding. The single-strap (SS) and double-strap (DS) repairs are very straightforward to execute but stresses in the adhesive layer peak at the overlap ends. The DS repair requires both sides of the damaged structures to be reachable for repair, which is often not possible. In strap repairs, with the patches bonded at the outer surfaces, some limitations emerge such as the weight, aerodynamics and aesthetics. To minimize these effects, SS and DS repairs with embedded patches were evaluated in this work, such that the patches are flush with the adherends. For this purpose, in this work standard SS and DS repairs, and also with the patches embedded in the adherends, were tested under tension to allow the optimization of some repair variables such as the overlap length (LO) and type of adhesive, thus allowing the maximization of the repair strength. The effect of embedding the patch/patches on the fracture modes and failure loads was compared with finite elements (FE) analysis. The FE analysis was performed in ABAQUS® and cohesive zone modelling was used for the simulation of damage onset and growth in the adhesive layer. The comparison with the test data revealed an accurate prediction for all kinds of joints and provided some principles regarding this technique.
Resumo:
L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.
Resumo:
La détermination de la structure tertiaire du ribosome fut une étape importante dans la compréhension du mécanisme de la synthèse des protéines. Par contre, l’élucidation de la structure du ribosome comme tel ne permet pas une compréhension de sa fonction. Pour mieux comprendre la nature des relations entre la structure et la fonction du ribosome, sa structure doit être étudiée de manière systématique. Au cours des dernières années, nous avons entrepris une démarche systématique afin d’identifier et de caractériser de nouveaux motifs structuraux qui existent dans la structure du ribosome et d’autres molécules contenant de l’ARN. L’analyse de plusieurs exemples d’empaquetage de deux hélices d’ARN dans la structure du ribosome nous a permis d’identifier un nouveau motif structural, nommé « G-ribo ». Dans ce motif, l’interaction d’une guanosine dans une hélice avec le ribose d’un nucléotide d’une autre hélice donne naissance à un réseau d’interactions complexes entre les nucléotides voisins. Le motif G-ribo est retrouvé à 8 endroits dans la structure du ribosome. La structure du G-ribo possède certaines particularités qui lui permettent de favoriser la formation d’un certain type de pseudo-nœuds dans le ribosome. L’analyse systématique de la structure du ribosome et de la ARNase P a permis d’identifier un autre motif structural, nommé « DTJ » ou « Double-Twist Joint motif ». Ce motif est formé de trois courtes hélices qui s’empilent l’une sur l’autre. Dans la zone de contact entre chaque paire d’hélices, deux paires de bases consécutives sont surenroulées par rapport à deux paires de bases consécutives retrouvées dans l’ARN de forme A. Un nucléotide d’une paire de bases est toujours connecté directement à un nucléotide de la paire de bases surenroulée, tandis que les nucléotides opposés sont connectés par un ou plusieurs nucléotides non appariés. L’introduction d’un surenroulement entre deux paires de bases consécutives brise l’empilement entre les nucléotides et déstabilise l’hélice d’ARN. Dans le motif DTJ, les nucléotides non appariés qui lient les deux paires de bases surenroulées interagissent avec une des trois hélices qui forment le motif, offrant ainsi une stratégie élégante de stabilisation de l’arrangement. Pour déterminer les contraintes de séquences imposées sur la structure tertiaire d’un motif récurrent dans le ribosome, nous avons développé une nouvelle approche expérimentale. Nous avons introduit des librairies combinatoires de certains nucléotides retrouvés dans des motifs particuliers du ribosome. Suite à l’analyse des séquences alternatives sélectionnées in vivo pour différents représentants d’un motif, nous avons été en mesure d’identifier les contraintes responsables de l’intégrité d’un motif et celles responsables d’interactions avec les éléments qui forment le contexte structural du motif. Les résultats présentés dans cette thèse élargissent considérablement notre compréhension des principes de formation de la structure d’ARN et apportent une nouvelle façon d’identifier et de caractériser de nouveaux motifs structuraux d’ARN.
Resumo:
Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità e una sostanziale disomogeneità prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità di ottimizzare l'allocazione delle unità operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.
Resumo:
L’obiettivo di questo lavoro è illustrare l’analisi dello stato di fatto e la progettazione degli interventi di correzione acustica della torre dell’ ex Carico dell’Acqua di Budrio, nella prospettiva di renderla utilizzabile come sala polifunzionale. La norma tecnica ISO 3382-1 [8] delinea criteri generali per l’analisi qualitativa degli ambienti di ascolto. Il capitolo 1 presenta un panorama sintetico sull’acustica architettonica, con particolare riferimento ai descrittori acustici riportati nella ISO 3382 e riporta cenni teorici sulla simulazione numerica. Nel capitolo 2 sono descritte in dettaglio le misurazioni all’interno dell’ambiente. Sono indicate inoltre motivazioni tecniche e teoriche riguardo i metodi di analisi. I valori misurati sono successivamente confrontati con i valori ricavati mediante simulazione numerica realizzata con un software previsionale. La realizzazione e la successiva taratura del modello numerico chiudono il capitolo 2. Il capitolo 3 relaziona in merito agli interventi proposti di correzione acustica. Attraverso il modello tridimensionale tarato si eseguono simulazioni numeriche di diversi interventi di correzione acustica fino a definire una rosa di possibili soluzioni che realizzino gli obiettivi qualitativi riportati nella ISO 3382. Materiali e geometrie sono riportati in dettaglio, insieme ad una esauriente mappatura acustica dell’ambiente, dallo stato di fatto alla progressiva ottimizzazione acustica.
Resumo:
Since the first underground nuclear explosion, carried out in 1958, the analysis of seismic signals generated by these sources has allowed seismologists to refine the travel times of seismic waves through the Earth and to verify the accuracy of the location algorithms (the ground truth for these sources was often known). Long international negotiates have been devoted to limit the proliferation and testing of nuclear weapons. In particular the Treaty for the comprehensive nuclear test ban (CTBT), was opened to signatures in 1996, though, even if it has been signed by 178 States, has not yet entered into force, The Treaty underlines the fundamental role of the seismological observations to verify its compliance, by detecting and locating seismic events, and identifying the nature of their sources. A precise definition of the hypocentral parameters represents the first step to discriminate whether a given seismic event is natural or not. In case that a specific event is retained suspicious by the majority of the State Parties, the Treaty contains provisions for conducting an on-site inspection (OSI) in the area surrounding the epicenter of the event, located through the International Monitoring System (IMS) of the CTBT Organization. An OSI is supposed to include the use of passive seismic techniques in the area of the suspected clandestine underground nuclear test. In fact, high quality seismological systems are thought to be capable to detect and locate very weak aftershocks triggered by underground nuclear explosions in the first days or weeks following the test. This PhD thesis deals with the development of two different seismic location techniques: the first one, known as the double difference joint hypocenter determination (DDJHD) technique, is aimed at locating closely spaced events at a global scale. The locations obtained by this method are characterized by a high relative accuracy, although the absolute location of the whole cluster remains uncertain. We eliminate this problem introducing a priori information: the known location of a selected event. The second technique concerns the reliable estimates of back azimuth and apparent velocity of seismic waves from local events of very low magnitude recorded by a trypartite array at a very local scale. For the two above-mentioned techniques, we have used the crosscorrelation technique among digital waveforms in order to minimize the errors linked with incorrect phase picking. The cross-correlation method relies on the similarity between waveforms of a pair of events at the same station, at the global scale, and on the similarity between waveforms of the same event at two different sensors of the try-partite array, at the local scale. After preliminary tests on the reliability of our location techniques based on simulations, we have applied both methodologies to real seismic events. The DDJHD technique has been applied to a seismic sequence occurred in the Turkey-Iran border region, using the data recorded by the IMS. At the beginning, the algorithm was applied to the differences among the original arrival times of the P phases, so the cross-correlation was not used. We have obtained that the relevant geometrical spreading, noticeable in the standard locations (namely the locations produced by the analysts of the International Data Center (IDC) of the CTBT Organization, assumed as our reference), has been considerably reduced by the application of our technique. This is what we expected, since the methodology has been applied to a sequence of events for which we can suppose a real closeness among the hypocenters, belonging to the same seismic structure. Our results point out the main advantage of this methodology: the systematic errors affecting the arrival times have been removed or at least reduced. The introduction of the cross-correlation has not brought evident improvements to our results: the two sets of locations (without and with the application of the cross-correlation technique) are very similar to each other. This can be commented saying that the use of the crosscorrelation has not substantially improved the precision of the manual pickings. Probably the pickings reported by the IDC are good enough to make the random picking error less important than the systematic error on travel times. As a further justification for the scarce quality of the results given by the cross-correlation, it should be remarked that the events included in our data set don’t have generally a good signal to noise ratio (SNR): the selected sequence is composed of weak events ( magnitude 4 or smaller) and the signals are strongly attenuated because of the large distance between the stations and the hypocentral area. In the local scale, in addition to the cross-correlation, we have performed a signal interpolation in order to improve the time resolution. The algorithm so developed has been applied to the data collected during an experiment carried out in Israel between 1998 and 1999. The results pointed out the following relevant conclusions: a) it is necessary to correlate waveform segments corresponding to the same seismic phases; b) it is not essential to select the exact first arrivals; and c) relevant information can be also obtained from the maximum amplitude wavelet of the waveforms (particularly in bad SNR conditions). Another remarkable point of our procedure is that its application doesn’t demand a long time to process the data, and therefore the user can immediately check the results. During a field survey, such feature will make possible a quasi real-time check allowing the immediate optimization of the array geometry, if so suggested by the results at an early stage.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.
Resumo:
Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.
Resumo:
The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.
Resumo:
In questo lavoro di tesi si è realizzato un modello matematico con l’intento di fornire uno strumento per lo studio della risposta cardiovascolare alla contropulsazione esterna. L’ EECP (Enhanced External Counterpulsation) è un metodo non invasivo di assistenza cardiaca basato sull’applicazione di pressioni sincronizzate col ritmo cardiaco su determinate superfici corporee. I benefici della terapia su pazienti con sofferenze cardiache sono confermati dalle tabelle cliniche; rimane tuttavia non chiaro il legame diretto tra questi e la EECP. La base del lavoro è un modello della circolazione sanguigna adattato allo studio della situazione in esame e riprodotto mediante il software di calcolo Matlab. Il modello proposto e la relativa simulazione numerica permettono la visualizzazione istantanea delle modifiche che l’azione di contropulsazione apporta al flusso e alla pressione sanguigna, al fine di offrire un aiuto nella ricerca di un legame diretto tra la EECP e i benefici che questa terapia ha sul paziente.
Resumo:
As ligações adesivas têm sido utilizadas em diversas áreas de aplicação. A utilização das juntas adesivas em aplicações industriais tem vindo a aumentar nos últimos anos, por causa das vantagens significativas que apresentam comparativamente com os métodos tradicionais de ligação tais como soldadura, ligações aparafusadas e rebitadas. A redução de peso, redução de concentrações de tensões e facilidade de fabrico são algumas das principais vantagens das ligações adesivas. Devido à crescente utilização das ligações adesivas, torna-se necessário a existência de ferramentas que permitam prever a resistência das juntas com elevada precisão. Assim, para a análise de juntas adesivas, está a ser cada vez mais utilizado o método de Elementos Finitos. Neste âmbito o Método de Elementos Finitos eXtendido (MEFX) perfila-se como um método capaz de prever o comportamento da junta, embora este ainda não esteja convenientemente estudado no que diz respeito à aplicação a juntas adesivas. Neste trabalho é apresentado um estudo experimental e numérico pelo MEFX de juntas de sobreposição dupla, nas quais são aplicados adesivos que variam desde frágeis e rígidos, como o caso do Araldite® AV138, até adesivos mais dúcteis, como o Araldite® 2015 e o Sikaforce® 7888. Foram considerados substratos de alumínio (AW6082-T651) em juntas com diferentes comprimentos de sobreposição, sendo sujeitos a esforços de tração de forma a avaliar o seu desempenho. Na análise numérica foi realizada uma análise da distribuição de tensões na camada adesiva, a previsão da resistência das juntas pelo MEFX segundo critérios de iniciação de dano baseados em tensões e deformações, e ainda um estudo sobre o critério energético de propagação de dano. A análise por MEFX revelou que este método é bastante preciso quando usados os critérios de iniciação de dano MAXS e QUADS, e parâmetro com valor de 1 no critério energético de propagação de dano. Apesar de ser um método pouco estudado na literatura comparativamente com outros, o MEFX apresentou resultados muito satisfatórios.