904 resultados para Thermo dynamic analysis
Resumo:
The dynamics of a passive back-to-back test rig have been characterised, leading to a multi-coordinate approach for the analysis of arbitrary test configurations. Universal joints have been introduced into a typical pre-loaded back-to-back system in order to produce an oscillating torsional moment in a test specimen. Two different arrangements have been investigated using a frequency-based sub-structuring approach: the receptance method. A numerical model has been developed in accordance with this theory, allowing interconnection of systems with two-coordinates and closed multi-loop schemes. The model calculates the receptance functions and modal and deflected shapes of a general system. Closed form expressions of the following individual elements have been developed: a servomotor, damped continuous shaft and a universal joint. Numerical results for specific cases have been compared with published data in literature and experimental measurements undertaken in the present work. Due to the complexity of the universal joint and its oscillating dynamic effects, a more detailed analysis of this component has been developed. Two models have been presented. The first represents the joint as two inertias connected by a massless cross-piece. The second, derived by the dynamic analysis of a spherical four-link mechanism, considers the contribution of the floating element and its gyroscopic effects. An investigation into non-linear behaviour has led to a time domain model that utilises the Runge-Kutta fourth order method for resolution of the dynamic equations. It has been demonstrated that the torsional receptances of a universal joint, derived using the simple model, result in representation of the joint as an equivalent variable inertia. In order to verify the model, a test rig has been built and experimental validation undertaken. The variable inertia of a universal joint has lead to a novel application of the component as a passive device for the balancing of inertia variations in slider-crank mechanisms.
Resumo:
Il presente lavoro ha lo scopo di presentare gli studi e i risultati ottenuti durante l’attività di ricerca svolta sul Displacement-based Assessment (DBA) dei telai in cemento armato. Dopo alcune considerazioni iniziali sul tema della vulnerabilità sismica e sui metodi di analisi e verifica, si procede alla descrizione teorica del metodo. Sono stati analizzati tre casi studio di telai piani, progettati per soli carichi verticali e secondo normative non più in vigore che non prevedevano l’applicazione della gerarchia delle resistenze. I telai considerati, destinati ad abitazione civile, hanno diversa altezza e numero di piani, e diverso numero di campate. Si è proceduto all’applicazione del metodo, alla valutazione della vulnerabilità sismica in base alla domanda in termini di spostamento costituita da uno spettro elastico previsto dall’EC8 e alla validazione dei risultati ottenuti mediante analisi non lineari statiche e dinamiche e mediante l’applicazione dei teoremi dell’Analisi limite dei telai, proposta come procedura alternativa per la determinazione del meccanismo anelastico e della capacità in termini di taglio alla base. In ultimo si è applicata la procedura DBA per la valutazione della vulnerabilità sismica di un edificio scolastico, realizzato tra il 1969 e il 1975 in un sito caratterizzato da una accelerazione di picco orizzontale pari a 0,24g e una probabilità di superamento del 10% in 75 anni.
Resumo:
Lo scopo di questa tesi è quello di analizzare dapprima l’impatto ambientale di tali impianti e poi analizzare il contributo effettivo che oggi la tecnologia innovativa dei cicli Rankine organici può dare nella valorizzazione elettrica del calore di scarto di processi industriali, focalizzando l’obiettivo principalmente sulle turbine a gas ed eseguendo un caso di studio in un settore ancora poco esplorato da questa tecnologia, quello Oil&Gas. Dopo aver effettuato il censimento degli impianti a fonti fossili e rinnovabili, cogenerativi e non, presenti in Emilia-Romagna, è stato sviluppato un software chiamato MiniBref che permette di simulare il funzionamento di una qualsiasi centrale termoelettrica grazie alla possibilità di combinare la tecnologia dell’impianto con il tipo di combustibile consentendo la valutazione delle emissioni inquinanti ed i potenziali di inquinamento. Successivamente verranno illustrati gli ORC, partendo dalle caratteristiche impiantistiche e termodinamiche fino ad arrivare alla scelta del fluido organico, fondamentale per le performance del ciclo. Dopo aver effettuato una ricognizione dello stato dell’arte delle applicazioni industriali degli ORC nel recupero termico, verranno eseguite simulazioni numeriche per ricostruire gli ORC ed avere una panoramica il più completa ed attendibile delle prestazioni effettive di questi sistemi. In ultimo verranno illustrati i risultati di un caso di studio che vede l’adozione di recupero mediante ciclo organico in un’installazione esistente del settore Oil&Gas. Si effettuerà uno studio delle prestazione dell’impianto al variare delle pressioni massime e minime del ciclo ed al variare del fluido impiegato al fine di mostrare come questi parametri influenzino non solo le performance ma anche le caratteristiche impiantistiche da adottare. A conclusione del lavoro si riporteranno i risultati relativi all’analisi condotte considerando l’impianto ai carichi parziali ed in assetto cogenerativo.
Resumo:
Most of today's dynamic analysis approaches are based on method traces. However, in the case of object-orientation understanding program execution by analyzing method traces is complicated because the behavior of a program depends on the sharing and the transfer of object references (aliasing). We argue that trace-based dynamic analysis is at a too low level of abstraction for object-oriented systems. We propose a new approach that captures the life cycle of objects by explicitly taking into account object aliasing and how aliases propagate during the execution of the program. In this paper, we present in detail our new meta-model and discuss future tracks opened by it.
Resumo:
Writing unit tests for legacy systems is a key maintenance task. When writing tests for object-oriented programs, objects need to be set up and the expected effects of executing the unit under test need to be verified. If developers lack internal knowledge of a system, the task of writing tests is non-trivial. To address this problem, we propose an approach that exposes side effects detected in example runs of the system and uses these side effects to guide the developer when writing tests. We introduce a visualization called Test Blueprint, through which we identify what the required fixture is and what assertions are needed to verify the correct behavior of a unit under test. The dynamic analysis technique that underlies our approach is based on both tracing method executions and on tracking the flow of objects at runtime. To demonstrate the usefulness of our approach we present results from two case studies.
Resumo:
Tooth surface modification is a potential method of preventing dental erosion, a form of excessive tooth wear facilitated by softening of tooth surfaces through the direct action of acids, mainly of dietary origin. We have previously shown that dodecyl phosphates (DPs) effectively inhibit dissolution of native surfaces of hydroxyapatite (the type mineral for dental enamel) and show good substantivity. However, adsorbed saliva also inhibits dissolution and DPs did not augment this effect, which suggests that DPs and saliva interact at the hydroxyapatite surface. In the present study the adsorption and desorption of potassium and sodium dodecyl phosphates or sodium dodecyl sulphate (SDS) to hydroxyapatite and human tooth enamel powder, both native and pre-treated with saliva, were studied by high performance liquid chromatography-mass Spectrometry. Thermo gravimetric analysis was used to analyse residual saliva and surfactant on the substrates. Both DPs showed a higher affinity than SDS for both hydroxyapatite and enamel, and little DP was desorbed by washing with water. SDS was readily desorbed from hydroxyapatite, suggesting that the phosphate head group is essential for strong binding to this substrate. However, SDS was not desorbed from enamel, so that this substrate has surface properties different from those of hydroxyapatite. The presence of a salivary coating had little or no effect on adsorption of the DPs, but treatment with DPs partly desorbed saliva; this could account for the failure of DPs to increase the dissolution inhibition due to adsorbed saliva.
Resumo:
Polymorphism, along with inheritance, is one of the most important features in object-oriented languages, but it is also one of the biggest obstacles to source code comprehension. Depending on the run-time type of the receiver of a message, any one of a number of possible methods may be invoked. Several algorithms for creating accurate call-graphs using static analysis already exist, however, they consume significant time and memory resources. We propose an approach that will combine static and dynamic analysis and yield the best possible precision with a minimal trade-off between used resources and accuracy.
Resumo:
Femoroacetabular impingement (FAI) is a dynamic conflict of the hip defined by a pathological, early abutment of the proximal femur onto the acetabulum or pelvis. In the past two decades, FAI has received increasing focus in both research and clinical practice as a cause of hip pain and prearthrotic deformity. Anatomical abnormalities such as an aspherical femoral head (cam-type FAI), a focal or general overgrowth of the acetabulum (pincer-type FAI), a high riding greater or lesser trochanter (extra-articular FAI), or abnormal torsion of the femur have been identified as underlying pathomorphologies. Open and arthroscopic treatment options are available to correct the deformity and to allow impingement-free range of motion. In routine practice, diagnosis and treatment planning of FAI is based on clinical examination and conventional imaging modalities such as standard radiography, magnetic resonance arthrography (MRA), and computed tomography (CT). Modern software tools allow three-dimensional analysis of the hip joint by extracting pelvic landmarks from two-dimensional antero-posterior pelvic radiographs. An object-oriented cross-platform program (Hip2Norm) has been developed and validated to standardize pelvic rotation and tilt on conventional AP pelvis radiographs. It has been shown that Hip2Norm is an accurate, consistent, reliable and reproducible tool for the correction of selected hip parameters on conventional radiographs. In contrast to conventional imaging modalities, which provide only static visualization, novel computer assisted tools have been developed to allow the dynamic analysis of FAI pathomechanics. In this context, a validated, CT-based software package (HipMotion) has been introduced. HipMotion is based on polygonal three-dimensional models of the patient’s pelvis and femur. The software includes simulation methods for range of motion, collision detection and accurate mapping of impingement areas. A preoperative treatment plan can be created by performing a virtual resection of any mapped impingement zones both on the femoral head-neck junction, as well as the acetabular rim using the same three-dimensional models. The following book chapter provides a summarized description of current computer-assisted tools for the diagnosis and treatment planning of FAI highlighting the possibility for both static and dynamic evaluation, reliability and reproducibility, and its applicability to routine clinical use.
Resumo:
La Revista de Literaturas Modernas (RLM) fue creada con el objetivo de reunir en una sola entrega anual una visión de conjunto del trabajo del entonces llamado Instituto de Lenguas y Literaturas Modernas de la Facultad de Filosofía y Letras (Universidad Nacional de Cuyo) y comenzó a aparecer anualmente desde 1956. En ella se priorizan las publicaciones circunscriptas a la especialidad de cada una de las secciones del Instituto que posteriormente se bifurcó en dos: Lingüística y Literaturas Modernas (área que sigue editando la RLM). Desde sus comienzos, esta publicación da a conocer los trabajos de los profesores de la Facultad, y también de colaboradores del exterior, cuyos aportes han sido y son acordes con la temática y jerarquía propuestas como objetivo. En sus artículos y notas, se apunta a relacionar la literatura con otras disciplinas para posibilitar un análisis dinámico de los textos, enmarcados en su contexto de producción cultural. Si bien la periodicidad se vio interrumpida en algunas ocasiones, actualmente existe el objetivo de publicar un número por año, con la meta siempre presente de su difusión internacional. Por último, cabe aclarar que las siglas que abrevian su título deben ser utilizadas en citas, notas a pie de página y referencias bibliográficas.
Resumo:
La Revista de Literaturas Modernas (RLM) fue creada con el objetivo de reunir en una sola entrega anual una visión de conjunto del trabajo del entonces llamado Instituto de Lenguas y Literaturas Modernas de la Facultad de Filosofía y Letras (Universidad Nacional de Cuyo) y comenzó a aparecer anualmente desde 1956. En ella se priorizan las publicaciones circunscriptas a la especialidad de cada una de las secciones del Instituto que posteriormente se bifurcó en dos: Lingüística y Literaturas Modernas (área que sigue editando la RLM). Desde sus comienzos, esta publicación da a conocer los trabajos de los profesores de la Facultad, y también de colaboradores del exterior, cuyos aportes han sido y son acordes con la temática y jerarquía propuestas como objetivo. En sus artículos y notas, se apunta a relacionar la literatura con otras disciplinas para posibilitar un análisis dinámico de los textos, enmarcados en su contexto de producción cultural. Si bien la periodicidad se vio interrumpida en algunas ocasiones, actualmente existe el objetivo de publicar un número por año, con la meta siempre presente de su difusión internacional. Por último, cabe aclarar que las siglas que abrevian su título deben ser utilizadas en citas, notas a pie de página y referencias bibliográficas.
Resumo:
La Revista de Literaturas Modernas (RLM) fue creada con el objetivo de reunir en una sola entrega anual una visión de conjunto del trabajo del entonces llamado Instituto de Lenguas y Literaturas Modernas de la Facultad de Filosofía y Letras (Universidad Nacional de Cuyo) y comenzó a aparecer anualmente desde 1956. En ella se priorizan las publicaciones circunscriptas a la especialidad de cada una de las secciones del Instituto que posteriormente se bifurcó en dos: Lingüística y Literaturas Modernas (área que sigue editando la RLM). Desde sus comienzos, esta publicación da a conocer los trabajos de los profesores de la Facultad, y también de colaboradores del exterior, cuyos aportes han sido y son acordes con la temática y jerarquía propuestas como objetivo. En sus artículos y notas, se apunta a relacionar la literatura con otras disciplinas para posibilitar un análisis dinámico de los textos, enmarcados en su contexto de producción cultural. Si bien la periodicidad se vio interrumpida en algunas ocasiones, actualmente existe el objetivo de publicar un número por año, con la meta siempre presente de su difusión internacional. Por último, cabe aclarar que las siglas que abrevian su título deben ser utilizadas en citas, notas a pie de página y referencias bibliográficas.
Resumo:
En el año 2000, los gobiernos de 189 países se comprometieron a alcanzar dieciocho metas para combatir la desigualdad y mejorar el desarrollo humano en el mundo a través del cumplimiento de los denominados Objetivos de Desarrollo del Milenio (ODM) de la Organización de las Naciones Unidas (ONU), todo ello con un horizonte para el año 2015. Los ODM deben ser monitoreados por los institutos de estadística existentes en la mayoría de los países que calculan indicadores económicos. En la Argentina, el Instituto Nacional de Estadística y Censos tiene una larga experiencia en la creación y cálculo de índices, específicamente, del índice de Precios al Consumidor el cual ha sido considerado como el mejor índice de precios de toda América Latina. Sin embargo, desde el año 2007 se ha implementado una nueva metodología para su cálculo. En esta comunicación se presentan resultados de trabajos realizados desde diferentes puntos de vista que aportan los métodos exploratorios y confirmatorios tendientes a conocer la situación de pobreza e indigencia y la distribución de los ingresos de los habitantes del Aglomerado Gran Rosario. Los análisis exploratorios y confirmatorios aplicados presentan incuestionables resultados que reflejan la coherencia de las conclusiones a que se ha arribado. Los datos primarios de calidad utilizados permitieron plasmar análisis dinámicos con la información homogénea disponible. Finalmente y a la luz de estas circunstancias, ¿se podrá saber fehacientemente si se alcanzarán los Objetivos de Desarrollo del Milenio en el año 2015?
Resumo:
En el año 2000, los gobiernos de 189 países se comprometieron a alcanzar dieciocho metas para combatir la desigualdad y mejorar el desarrollo humano en el mundo a través del cumplimiento de los denominados Objetivos de Desarrollo del Milenio (ODM) de la Organización de las Naciones Unidas (ONU), todo ello con un horizonte para el año 2015. Los ODM deben ser monitoreados por los institutos de estadística existentes en la mayoría de los países que calculan indicadores económicos. En la Argentina, el Instituto Nacional de Estadística y Censos tiene una larga experiencia en la creación y cálculo de índices, específicamente, del índice de Precios al Consumidor el cual ha sido considerado como el mejor índice de precios de toda América Latina. Sin embargo, desde el año 2007 se ha implementado una nueva metodología para su cálculo. En esta comunicación se presentan resultados de trabajos realizados desde diferentes puntos de vista que aportan los métodos exploratorios y confirmatorios tendientes a conocer la situación de pobreza e indigencia y la distribución de los ingresos de los habitantes del Aglomerado Gran Rosario. Los análisis exploratorios y confirmatorios aplicados presentan incuestionables resultados que reflejan la coherencia de las conclusiones a que se ha arribado. Los datos primarios de calidad utilizados permitieron plasmar análisis dinámicos con la información homogénea disponible. Finalmente y a la luz de estas circunstancias, ¿se podrá saber fehacientemente si se alcanzarán los Objetivos de Desarrollo del Milenio en el año 2015?