59 resultados para ES-SAGD. Heavy oil. Recovery factor. Reservoir modeling and simulation
Resumo:
Nanoinformatics has recently emerged to address the need of computing applications at the nano level. In this regard, the authors have participated in various initiatives to identify its concepts, foundations and challenges. While nanomaterials open up the possibility for developing new devices in many industrial and scientific areas, they also offer breakthrough perspectives for the prevention, diagnosis and treatment of diseases. In this paper, we analyze the different aspects of nanoinformatics and suggest five research topics to help catalyze new research and development in the area, particularly focused on nanomedicine. We also encompass the use of informatics to further the biological and clinical applications of basic research in nanoscience and nanotechnology, and the related concept of an extended ?nanotype? to coalesce information related to nanoparticles. We suggest how nanoinformatics could accelerate developments in nanomedicine, similarly to what happened with the Human Genome and other -omics projects, on issues like exchanging modeling and simulation methods and tools, linking toxicity information to clinical and personal databases or developing new approaches for scientific ontologies, among many others.
Resumo:
The network mobility (NEMO) is proposed to support the mobility management when users move as a whole. In IP Multimedia Subsystem (IMS), the individual Quality of Service (QoS) control for NEMO results in excessive signaling cost. On the other hand, current QoS schemes have two drawbacks: unawareness of the heterogeneous wireless environment and inefficient utilization of the reserved bandwidth. To solve these problems, we present a novel heterogeneous bandwidth sharing (HBS) scheme for QoS provision under IMS-based NEMO (IMS-NEMO). The HBS scheme selects the most suitable access network for each session and enables the new coming non-real-time sessions to share bandwidth with the Variable Bit Rate (VBR) coded media flows. The modeling and simulation results demonstrate that the HBS can satisfy users' QoS requirement and obtain a more efficient use of the scarce wireless bandwidth.
Resumo:
Over a decade ago, nanotechnologists began research on applications of nanomaterials for medicine. This research has revealed a wide range of different challenges, as well as many opportunities. Some of these challenges are strongly related to informatics issues, dealing, for instance, with the management and integration of heterogeneous information, defining nomenclatures, taxonomies and classifications for various types of nanomaterials, and research on new modeling and simulation techniques for nanoparticles. Nanoinformatics has recently emerged in the USA and Europe to address these issues. In this paper, we present a review of nanoinformatics, describing its origins, the problems it addresses, areas of interest, and examples of current research initiatives and informatics resources. We suggest that nanoinformatics could accelerate research and development in nanomedicine, as has occurred in the past in other fields. For instance, biomedical informatics served as a fundamental catalyst for the Human Genome Project, and other genomic and ?omics projects, as well as the translational efforts that link resulting molecular-level research to clinical problems and findings.
Resumo:
Nanotechnology represents an area of particular promise and significant opportunity across multiple scientific disciplines. Ongoing nanotechnology research ranges from the characterization of nanoparticles and nanomaterials to the analysis and processing of experimental data seeking correlations between nanoparticles and their functionalities and side effects. Due to their special properties, nanoparticles are suitable for cellular-level diagnostics and therapy, offering numerous applications in medicine, e.g. development of biomedical devices, tissue repair, drug delivery systems and biosensors. In nanomedicine, recent studies are producing large amounts of structural and property data, highlighting the role for computational approaches in information management. While in vitro and in vivo assays are expensive, the cost of computing is falling. Furthermore, improvements in the accuracy of computational methods (e.g. data mining, knowledge discovery, modeling and simulation) have enabled effective tools to automate the extraction, management and storage of these vast data volumes. Since this information is widely distributed, one major issue is how to locate and access data where it resides (which also poses data-sharing limitations). The novel discipline of nanoinformatics addresses the information challenges related to nanotechnology research. In this paper, we summarize the needs and challenges in the field and present an overview of extant initiatives and efforts.
Resumo:
Mechanical degradation of tungsten alloys at extreme temperatures in vacuum and oxidation atmospheres.
Design and Simulation of Deep Nanometer SRAM Cells under Energy, Mismatch, and Radiation Constraints
Resumo:
La fiabilidad está pasando a ser el principal problema de los circuitos integrados según la tecnología desciende por debajo de los 22nm. Pequeñas imperfecciones en la fabricación de los dispositivos dan lugar ahora a importantes diferencias aleatorias en sus características eléctricas, que han de ser tenidas en cuenta durante la fase de diseño. Los nuevos procesos y materiales requeridos para la fabricación de dispositivos de dimensiones tan reducidas están dando lugar a diferentes efectos que resultan finalmente en un incremento del consumo estático, o una mayor vulnerabilidad frente a radiación. Las memorias SRAM son ya la parte más vulnerable de un sistema electrónico, no solo por representar más de la mitad del área de los SoCs y microprocesadores actuales, sino también porque las variaciones de proceso les afectan de forma crítica, donde el fallo de una única célula afecta a la memoria entera. Esta tesis aborda los diferentes retos que presenta el diseño de memorias SRAM en las tecnologías más pequeñas. En un escenario de aumento de la variabilidad, se consideran problemas como el consumo de energía, el diseño teniendo en cuenta efectos de la tecnología a bajo nivel o el endurecimiento frente a radiación. En primer lugar, dado el aumento de la variabilidad de los dispositivos pertenecientes a los nodos tecnológicos más pequeños, así como a la aparición de nuevas fuentes de variabilidad por la inclusión de nuevos dispositivos y la reducción de sus dimensiones, la precisión del modelado de dicha variabilidad es crucial. Se propone en la tesis extender el método de inyectores, que modela la variabilidad a nivel de circuito, abstrayendo sus causas físicas, añadiendo dos nuevas fuentes para modelar la pendiente sub-umbral y el DIBL, de creciente importancia en la tecnología FinFET. Los dos nuevos inyectores propuestos incrementan la exactitud de figuras de mérito a diferentes niveles de abstracción del diseño electrónico: a nivel de transistor, de puerta y de circuito. El error cuadrático medio al simular métricas de estabilidad y prestaciones de células SRAM se reduce un mínimo de 1,5 veces y hasta un máximo de 7,5 a la vez que la estimación de la probabilidad de fallo se mejora en varios ordenes de magnitud. El diseño para bajo consumo es una de las principales aplicaciones actuales dada la creciente importancia de los dispositivos móviles dependientes de baterías. Es igualmente necesario debido a las importantes densidades de potencia en los sistemas actuales, con el fin de reducir su disipación térmica y sus consecuencias en cuanto al envejecimiento. El método tradicional de reducir la tensión de alimentación para reducir el consumo es problemático en el caso de las memorias SRAM dado el creciente impacto de la variabilidad a bajas tensiones. Se propone el diseño de una célula que usa valores negativos en la bit-line para reducir los fallos de escritura según se reduce la tensión de alimentación principal. A pesar de usar una segunda fuente de alimentación para la tensión negativa en la bit-line, el diseño propuesto consigue reducir el consumo hasta en un 20 % comparado con una célula convencional. Una nueva métrica, el hold trip point se ha propuesto para prevenir nuevos tipos de fallo debidos al uso de tensiones negativas, así como un método alternativo para estimar la velocidad de lectura, reduciendo el número de simulaciones necesarias. Según continúa la reducción del tamaño de los dispositivos electrónicos, se incluyen nuevos mecanismos que permiten facilitar el proceso de fabricación, o alcanzar las prestaciones requeridas para cada nueva generación tecnológica. Se puede citar como ejemplo el estrés compresivo o extensivo aplicado a los fins en tecnologías FinFET, que altera la movilidad de los transistores fabricados a partir de dichos fins. Los efectos de estos mecanismos dependen mucho del layout, la posición de unos transistores afecta a los transistores colindantes y pudiendo ser el efecto diferente en diferentes tipos de transistores. Se propone el uso de una célula SRAM complementaria que utiliza dispositivos pMOS en los transistores de paso, así reduciendo la longitud de los fins de los transistores nMOS y alargando los de los pMOS, extendiéndolos a las células vecinas y hasta los límites de la matriz de células. Considerando los efectos del STI y estresores de SiGe, el diseño propuesto mejora los dos tipos de transistores, mejorando las prestaciones de la célula SRAM complementaria en más de un 10% para una misma probabilidad de fallo y un mismo consumo estático, sin que se requiera aumentar el área. Finalmente, la radiación ha sido un problema recurrente en la electrónica para aplicaciones espaciales, pero la reducción de las corrientes y tensiones de los dispositivos actuales los está volviendo vulnerables al ruido generado por radiación, incluso a nivel de suelo. Pese a que tecnologías como SOI o FinFET reducen la cantidad de energía colectada por el circuito durante el impacto de una partícula, las importantes variaciones de proceso en los nodos más pequeños va a afectar su inmunidad frente a la radiación. Se demuestra que los errores inducidos por radiación pueden aumentar hasta en un 40 % en el nodo de 7nm cuando se consideran las variaciones de proceso, comparado con el caso nominal. Este incremento es de una magnitud mayor que la mejora obtenida mediante el diseño de células de memoria específicamente endurecidas frente a radiación, sugiriendo que la reducción de la variabilidad representaría una mayor mejora. ABSTRACT Reliability is becoming the main concern on integrated circuit as the technology goes beyond 22nm. Small imperfections in the device manufacturing result now in important random differences of the devices at electrical level which must be dealt with during the design. New processes and materials, required to allow the fabrication of the extremely short devices, are making new effects appear resulting ultimately on increased static power consumption, or higher vulnerability to radiation SRAMs have become the most vulnerable part of electronic systems, not only they account for more than half of the chip area of nowadays SoCs and microprocessors, but they are critical as soon as different variation sources are regarded, with failures in a single cell making the whole memory fail. This thesis addresses the different challenges that SRAM design has in the smallest technologies. In a common scenario of increasing variability, issues like energy consumption, design aware of the technology and radiation hardening are considered. First, given the increasing magnitude of device variability in the smallest nodes, as well as new sources of variability appearing as a consequence of new devices and shortened lengths, an accurate modeling of the variability is crucial. We propose to extend the injectors method that models variability at circuit level, abstracting its physical sources, to better model sub-threshold slope and drain induced barrier lowering that are gaining importance in FinFET technology. The two new proposed injectors bring an increased accuracy of figures of merit at different abstraction levels of electronic design, at transistor, gate and circuit levels. The mean square error estimating performance and stability metrics of SRAM cells is reduced by at least 1.5 and up to 7.5 while the yield estimation is improved by orders of magnitude. Low power design is a major constraint given the high-growing market of mobile devices that run on battery. It is also relevant because of the increased power densities of nowadays systems, in order to reduce the thermal dissipation and its impact on aging. The traditional approach of reducing the voltage to lower the energy consumption if challenging in the case of SRAMs given the increased impact of process variations at low voltage supplies. We propose a cell design that makes use of negative bit-line write-assist to overcome write failures as the main supply voltage is lowered. Despite using a second power source for the negative bit-line, the design achieves an energy reduction up to 20% compared to a conventional cell. A new metric, the hold trip point has been introduced to deal with new sources of failures to cells using a negative bit-line voltage, as well as an alternative method to estimate cell speed, requiring less simulations. With the continuous reduction of device sizes, new mechanisms need to be included to ease the fabrication process and to meet the performance targets of the successive nodes. As example we can consider the compressive or tensile strains included in FinFET technology, that alter the mobility of the transistors made out of the concerned fins. The effects of these mechanisms are very dependent on the layout, with transistor being affected by their neighbors, and different types of transistors being affected in a different way. We propose to use complementary SRAM cells with pMOS pass-gates in order to reduce the fin length of nMOS devices and achieve long uncut fins for the pMOS devices when the cell is included in its corresponding array. Once Shallow Trench isolation and SiGe stressors are considered the proposed design improves both kinds of transistor, boosting the performance of complementary SRAM cells by more than 10% for a same failure probability and static power consumption, with no area overhead. While radiation has been a traditional concern in space electronics, the small currents and voltages used in the latest nodes are making them more vulnerable to radiation-induced transient noise, even at ground level. Even if SOI or FinFET technologies reduce the amount of energy transferred from the striking particle to the circuit, the important process variation that the smallest nodes will present will affect their radiation hardening capabilities. We demonstrate that process variations can increase the radiation-induced error rate by up to 40% in the 7nm node compared to the nominal case. This increase is higher than the improvement achieved by radiation-hardened cells suggesting that the reduction of process variations would bring a higher improvement.
Resumo:
La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).
Resumo:
El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.
Resumo:
El objetivo general de esta Tesis Doctoral fue estudiar la influencia de diversos factores nutricionales y de manejo sobre la productividad y la calidad del huevo en gallinas ponedoras comerciales rubias. Los factores estudiados fueron: 1) Cereal principal y tipo de grasa en la dieta; 2) Nivel de proteína bruta y grasa en la dieta; 3) Nivel energético de la dieta; 4) Peso vivo al inicio del período de puesta. En el experimento 1, la influencia del cereal principal en la dieta y el tipo de grasa suplementada en la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 756 gallinas rubias de la estirpe Lohmann desde la sem 22 hasta las 54 de vida. El experimento se realizó mediante un diseño completamente al azar con 9 tratamientos ordenados factorialmente, con 3 cereales bases (maíz, trigo blando y cebada) y 3 tipos de grasa que variaban en su contenido en ácido linoléico (aceite de soja, oleína vegetal mezcla y manteca). Todas las dietas satisfacian las recomendaciones nutricionales para gallinas ponedoras rubias según el NRC (1994) y FEDNA (2008). La unidad experimental fue la jaula para todas las variables. Cada tratamiento fue replicado 4 veces, y la unidad experimental estuvo formada por 21 gallinas alojadas en grupos de 7. Las dietas fueron formuladas con un contenido nutritivo similar, excepto para el ácido linoléico, que varió en función del tipo de cereal y grasa utilizado. Así, dependiendo de la combinación de estos elementos el contenido de este ácido graso varió desde un 0.8% (dieta trigo-manteca) a un 3.4% (dieta maíz-aceite de soja). Este rango de ácido linoléico permitió estimar el nivel mínimo de este nutriente en el pienso que permite maximizar el peso del huevo. Los parámetros productivos y la calidad del huevo se controlaron cada 28 días y el peso de las aves se midió individualmente al inicio y al final del experimento con el objetivo de estudiar la variación en el peso vivo de los animales. No se observaron interacciones entre el tipo de cereal y grasa en la dieta para ninguna de las variables productivas estudiadas. Los tratamientos experimentales no afectaron a las principales variables productivas (porcentaje de puesta, peso del huevo y masa de huevo). Sin embargo, la ganancia de peso fue mayor en gallinas alimentadas con maíz o trigo que las gallinas alimentadas con cebada (243 vs. 238 vs. 202 g, respectivamente; P< 0.05). En el mismo sentido, las gallinas alimentadas con manteca obtuvieron una mayor ganancia de peso que las gallinas alimentadas con aceite de soja u oleína vegetal (251 vs. 221 vs. 210 g, respectivamente; P< 0.05). En cuanto a las variables estudiadas en relación con la calidad del huevo, ninguna de las variables estudiadas se vio afectada por el tratamiento experimental, salvo la pigmentación de la yema. Así, las gallinas alimentadas con maíz como cereal principal obtuvieron una mayor puntuación en relación con la escala de color que las gallinas alimentadas con trigo y con cebada (9.0 vs. 8.3 vs. 8.3, respectivamente; P< 0.001). La pigmentación de la yema también se vio afectada por el tipo de grasa en la dieta, así, las gallinas alimentadas con manteca obtuvieron una mayor puntuación de color en relación con la escala de color que las gallinas alimentadas con aceite de soja u oleína vegetal (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). La influencia del contenido en ácido linoléico respecto al peso de huevo y masa de huevo fue mayor a medida que el contenido de dicho ácido graso se redujo en la dieta. Así, la influencia de la dieta en los radios peso de huevo/g linoléico ingerido y masa de huevo/g linoléico ingerido fue significativamente mayor a medida que el contenido en dicho ácido graso disminuyo en la dieta (P< 0.001). Los resultados del ensayo indican que las gallinas ponedoras rubias no necesitan más de un 1.0% de ácido linoléico en la dieta para maximizar la producción y el tamaño del huevo. Además, se pudo concluir que los 3 cereales y las 3 grasas utilizadas pueden sustituirse en la dieta sin ningún perjuicio productivo o referente a la calidad del huevo siempre que los requerimientos de los animales sean cubiertos. En el experimento 2, la influencia del nivel de proteína bruta y el contenido de grasa de la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 672 gallinas ponedoras rubias de la estirpe Lohmann entre las sem 22 y 50 de vida. El experimento fue conducido mediante un diseño completamente al azar con 8 tratamientos ordenados factorialmente con 4 dietas y 2 pesos vivos distintos al inicio de puesta (1592 vs. 1860g). Tres de esas dietas diferían en el contenido de proteína bruta (16.5%, 17.5% y 18.5%) y tenían un contenido en grasa añadida de 1.8%. La cuarta dieta tenía el nivel proteico más elevado (18.5%) pero fue suplementada con 3.6% de grasa añadida en vez de 1.8%. Cada tratamiento fue replicado 4 veces y la unidad experimental consistió en 21 gallinas alojadas dentro de grupos de 7 animales en 3 jaulas contiguas. Todas las dietas fueron isocalóricas (2750 kcal EMAn/kg) y cubrieron las recomendaciones en aminoácidos para gallinas ponedoras rubias (Arg, Ile, Lys, Met, Thr, Trp, TSAA y Val) según el NRC (1994) y FEDNA (2008). Los efectos de los tratamientos sobre las variables productivas y la calidad de huevo fueron estudiados cada 28 días. La dieta no afecto a ninguna de las variables productivas estudiadas a lo largo del período productivo. Sin embargo, el peso inicial origino que las gallinas pesadas consumieran más (120.6 vs. 113.9 g; P< 0.001), obtuvieran un porcentaje de puesta mayor (92.5 vs. 89.8%; P< 0.01) y un peso del huevo mayor (64.9 vs. 62.4 g; P< 0.001) que las gallinas ligeras. El peso inicial de las gallinas no afecto al IC por kg de huevo ni a la mortalidad, sin embargo, la ganancia de peso fue mayor (289 vs. 233 g; P< 0.01) y el IC por docena de huevos fue mejor (1.52 vs. 1.57; P< 0.01) en las gallinas ligeras que en las gallinas pesadas. En cuanto a la calidad del huevo, la dieta no influyó sobre ninguna de las variables estudiadas. Los resultados del ensayo muestran que las gallinas ponedoras rubias, independientemente de su peso vivo al inicio de la puesta, no necesitan una cantidad de proteína bruta superior a 16.5% para maximizar la producción, asegurando que las dietas cubren los requerimientos en AA indispensables. Asimismo, se puedo concluir que las gallinas con un peso más elevado al inicio de puesta producen más masa de huevo que las gallinas con un peso más bajo debido a que las primeras producen más cantidad de huevos y más pesados. Sin embargo, ambos grupos de peso obtuvieron el mismo IC por kg de huevo y las gallinas más livianas en peso obtuvieron un mejor IC por docena de huevo que las pesadas. En el experimento 3 la influencia de la concentración energética sobre los parámetros productivos y la calidad del huevo fue estudiada en 520 gallinas ponedoras rubias de la estirpe Hy-Line en el período 24-59 sem de vida. Se utilizaron 8 tratamientos ordenados factorialmente con 4 dietas que variaron en el contenido energético (2650, 2750, 2850 y 2950 kcal EMAn/kg) y 2 pesos vivos distintos al inicio del período de puesta (1733 vs. 1606g). Cada tratamiento fue replicado 5 veces y la unidad experimental consistió en una jaula con 13 aves. Todas las dietas se diseñaron para que tuvieran una concentración nutritiva similar por unidad energética. Las variables productivas y de calidad de huevo se estudiaron mediante controles cada 28 días desde el inicio del experimento. No se observaron interacciones entre el nivel energético y el peso inicial del ave para ninguna de las variables estudiadas. Un incremento en la concentración energética de la dieta incrementó la producción de huevos (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), masa de huevo (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), y eficiencia energética (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal EMA/g huevo) de forma lineal y cuadrática (P< 0.05) y afectó significativamente a la ganancia de peso (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) . Sin embargo, un incremento en la concentración energética provocó un descenso lineal en el consumo de los animales (115 g vs. 114 g vs. 111 g vs. 110 g; P< 0.001) y un descenso lineal y cuadrático en el IC por kg de huevo (2.05 vs. 1.96 vs. 1.89 vs. 1.89; P< 0.01). En cuanto a la calidad del huevo, un incremento en el contenido energético de la dieta provocó una reducción en la calidad del albumen de forma lineal en forma de reducción de Unidades Haugh (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.001), asimismo el incremento de energía redujo de forma lineal la proporción relativa de cáscara en el huevo (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Sin embargo, el incremento energético propició un incremento lineal en la pigmentación de la yema del huevo (7.4 vs. 7.4 vs. 7.6 vs. 7.9; P< 0.001). El peso vivo al inicio de la prueba afecto a las variables productivas y a la calidad del huevo. Así, los huevos procedentes de gallinas pesadas al inicio de puesta tuvieron una mayor proporción de yema (25.7 % vs. 25.3 %; P< 0.001) y menor de albumen (64.7 vs. 65.0; P< 0.01) y cáscara (9.5 vs. 9.6; P< 0.05) respecto de los huevos procedentes de gallinas ligeras. Consecuentemente, el ratio yema:albumen fue mayor (0.40 vs. 0.39; P< 0.001) para las gallinas pesadas. Según los resultados del experimento se pudo concluir que las actuales gallinas ponedoras rubias responden con incrementos en la producción y en la masa del huevo a incrementos en la concentración energética hasta un límite que se sitúa en 2850 kcal EMAn/kg. Asimismo, los resultados obtenidos entre los 2 grupos de peso al inicio de puesta demostraron que las gallinas pesadas al inicio de puesta tienen un mayor consumo y producen huevos más pesados, con el consecuente aumento de la masa del huevo respecto de gallinas más ligeras. Sin embargo, el IC por kg de huevo fue el mismo en ambos grupos de gallinas y el IC por docena de huevo fue mejor en las gallinas ligeras. Asimismo, la eficiencia energética fue mejor en las gallinas ligeras. Abstract The general aim of this PhD Thesis was to study the influence of different nutritional factors and management on the productivity and egg quality of comercial Brown laying hens. The factor studied were: 1) The effect of the main cereal and type of fat of the diet; 2) The effect of crude protein and fat content of the diet; 3) The effect of energy concentration of the diet; 4) The effect of initial body weight of the hens at the onset of lay period. In experiment 1, the influence of the main cereal and type of supplemental fat in the diet on productive performance and egg quality of the eggs was studied in 756 Lohmann brown-egg laying hens from 22 to 54 wk of age. The experiment was conducted as a completely randomized design with 9 treatments arranged factorially with 3 cereals (dented corn, soft wheat, and barley) and 3 types of fat (soy oil, acidulated vegetable soapstocks, and lard). Each treatment was replicated 4 times (21 hens per replicate). All diets were formulated according to NRC (1994) and FEDNA (2008) to have similar nutrient content except for linoleic acid that ranged from 0.8 (wheat-lard diet) to 3.4% (corn-soy bean oil) depending on the combination of cereal and fat source used. This approach will allow to estimate the minimum level of linoleic acid in the diets that maximizes egg weight. Productive performance and egg quality traits were recorded every 28 d and BW of the hens was measured individually at the beginning and at the end of the experiment. No significant interactions between main factors were detected for any of the variables studied. Egg production, egg weight, and egg mass were not affected by dietary treatment. Body weight gain was higher (243 vs. 238 vs. 202 g; P<0.05) for hens fed corn or wheat than for hens fed barley and also for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (251 vs. 221 vs. 210 g; P< 0.05). Egg quality was not influenced by dietary treatment except for yolk color that was greater (9.0 vs. 8.3 vs. 8.3; P< 0.001) for hens fed corn than for hens fed wheat or barley and for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). The influence of linoleic acid on egg weight and egg mass was higher when the fatty acid was reduced in the diet. Thus, the influence of the diet in egg weight/g linoleic acid intake and egg mass/g linolec acid intake was higher when the amount of this fatty acid decreased in the diet (P< 0.001). It is concluded that brown egg laying hens do not need more than 1.0% of linoleic acid in the diet (1.16 g/hen/d) to maximize egg production and egg size. The 3 cereals and the 3 fat sources tested can replace each other in the diet provided that the linoleic acid requirements to maximize egg size are met. In experiment 2, the influence of CP and fat content of the diet on performance and egg quality traits was studied in 672 Lohmann brown egg-laying hens from 22 to 50 wk of age. The experiment was conducted as a completely randomized design with 8 treatments arranged factorially with 4 diets and 2 initial BW of the hens (1,592 vs. 1,860 g). Three of these diets differed in the CP content (16.5, 17.5, and 18.5%) and included 1.8% added fat. The fourth diet had also 18.5% CP but was supplemented with 3.6% fat instead of 1.8% fat. Each treatment was replicated 4 times and the experimental unit consisted of 21 hens allocated in groups of 7 in 3 adjacent cages. All diets were isocaloric (2,750 kcal AME/kg) and met the recommendations of brown egg-laying hens for digestible Arg, Ile, Lys, Met, Thr, Trp, TSAA, and Val. Productive performance and egg quality were recorded by replicate every 28-d. For the entire experimental period, diet did not affect any of the productive performance traits studied but the heavier hens had higher ADFI (120.6 vs. 113.9g; P< 0.001), egg production (92.5 vs. 89.8%; P< 0.01), and egg weight (64.9 vs. 62.4g; P< 0.001) than the lighter hens. Initial BW did not affect feed conversion per kilogram of eggs or hen mortality but BW gain was higher (289 vs. 233g; P< 0.01) and FCR per dozen of eggs was better (1.52 vs. 1.57; P< 0.01) for the lighter than for the heavier hens. None of the egg quality variables studied was affected by dietary treatment or initial BW of the hens. It is concluded that brown egg-laying hens, irrespective of their initial BW, do not need more than 16.5% CP to maximize egg production provided that the diet meet the requirements for key indispensable amino acids. Heavier hens produce more eggs that are larger than lighter hens but feed efficiency per kilogram of eggs is not affected. In experiment 3, the influence of AMEn concentration of the diet on productive performance and egg quality traits was studied in 520 Hy-Line brown egg-laying hens differing in initial BW from 24 to 59 wks of age. There were 8 treatments arranged factorially with 4 diets varying in energy content (2,650, 2,750, 2,850, and 2,950 kcal AMEn/kg) and 2 initial BW of the hens (1,733 vs. 1,606 g). Each treatment was replicated 5 times (13 hens per replicate) and all diets had similar nutrient content per unit of energy. No interactions between energy content of the diet and initial BW of the hens were detected for any trait. An increase in energy concentration of the diet increased (linear, P< 0.05; quadratic P< 0.05) egg production (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), egg mass (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), energy efficiency (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal AMEn/g of egg), and BW gain (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) but decreased ADFI (115 g vs. 114 g vs. 111 g vs. 110 g; P< linear, P< 0.001) and FCR per kg of eggs (2.05 vs. 1.96 vs. 1.89 vs. 1.89; linear, P< 0.01; quadratic P< 0.01). An increase in energy content of the diet reduced Haugh units (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.01) and the proportion of shell in the egg (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Feed intake (114.6 vs. 111.1 g/hen per day), AMEn intake (321 vs. 311 kcal/hen per day), egg weight (64.2 vs. 63.0 g), and egg mass (58.5 vs. 57.0 g) were higher for the heavier than for the lighter hens (P<0.01) but FCR per kg of eggs and energy efficiency were not affected. Eggs from the heavier hens had higher proportion of yolk (25.7 % vs. 25.3 %; P< 0.001) and lower of albumen (64.7 vs. 65.0; P< 0.01) and shell (9.5 vs. 9.6; P< 0.05) than eggs from the lighter hens. Consequently, the yolk to albumen ratio was higher (0.40 vs. 0.39; P< 0.001) for the heavier hens. It is concluded that brown egg-laying hens respond with increases in egg production and egg mass, to increases in AMEn concentration of the diet up to 2,850 kcal/kg. Heavy hens had higher feed intake and produced heavier eggs and more egg mass than light hens. However, energy efficiency was better for the lighter hens.
Resumo:
El objetivo de este proyecto es estudiar la recuperación secundaria de petróleo de la capa sureste Ayoluengo del campo Ayoluengo, Burgos (España), y su conversión en un almacenamiento subterráneo de gas. La capa Ayoluengo se ha considerado como una capa inclinada de 60 km por 10 km de superficie por 30 m de espesor en el que se han perforado 20 pozos, y en donde la recuperación primaria ha sido de un 19%. Se ha realizado el ajuste histórico de la recuperación primaria de gas, petróleo y agua de la capa desde el año 1965 al 2011. La conversión a almacenamiento subterráneo de gas se ha realizado mediante ciclos de inyección de gas, de marzo a octubre, y extracción de gas, de noviembre a febrero, de forma que se incrementa la presión del campo hasta alcanzar la presión inicial. El gas se ha inyectado y extraído por 5 pozos situados en la zona superior de la capa. Al mismo tiempo, se ha realizado una recuperación secundaria debido a la inyección de gas natural de 20 años de duración en donde la producción de petróleo se realiza por 14 pozos situados en la parte inferior de la capa. Para proceder a la simulación del ajuste histórico, conversión en almacenamiento y recuperación secundaria se utilizó el simulador Eclipse100. Los resultados obtenidos fueron una recuperación secundaria de petróleo de un 9% más comparada con la primaria. En cuanto al almacenamiento de gas natural, se alcanzó la presión inicial consiguiendo un gas útil de 300 Mm3 y un gas colchón de 217,3 Mm3. ABSTRACT The aim of this project is to study the secondary recovery of oil from the southeast Ayoluengo layer at the oil field Ayoluengo, Burgos (Spain), and its conversion into an underground gas storage. The Ayoluengo layer is an inclined layer of 60 km by 10km of area by 30 m gross and with 20 wells, which its primary recovery is of 19%. The history matching of the production of oil, gas and water has been carried out from the year 1965 until 2011. The conversion into an underground gas storage has been done in cycles of gas injection from March to October, and gas extraction from November to February, so that the reservoir pressure increases until it gets to the initial pressure. The gas has been injected and extracted through five well situated in the top part of the layer. At the same time, the secondary recovery has occurred due to de injection of natural gas during 20 years where the production of oil has been done through 14 wells situated in the lowest part of the layer. To proceed to the simulation of the history match, the conversion into an underground gas storage and its secondary recovery, the simulator used was Eclipse100. The results were a secondary recovery of oil of 9% more, compared to the primary recovery and concerning the underground gas storage, the initial reservoir pressure was achieved with a working gas of 300 Mm3 and a cushion gas of 217,3 Mm3.
Resumo:
Recently, vision-based advanced driver-assistance systems (ADAS) have received a new increased interest to enhance driving safety. In particular, due to its high performance–cost ratio, mono-camera systems are arising as the main focus of this field of work. In this paper we present a novel on-board road modeling and vehicle detection system, which is a part of the result of the European I-WAY project. The system relies on a robust estimation of the perspective of the scene, which adapts to the dynamics of the vehicle and generates a stabilized rectified image of the road plane. This rectified plane is used by a recursive Bayesian classi- fier, which classifies pixels as belonging to different classes corresponding to the elements of interest of the scenario. This stage works as an intermediate layer that isolates subsequent modules since it absorbs the inherent variability of the scene. The system has been tested on-road, in different scenarios, including varied illumination and adverse weather conditions, and the results have been proved to be remarkable even for such complex scenarios.
Resumo:
A simple illustrative physical model is presented to describe the kinetics of damage and amorphization by swiftheavyions (SHI) in LiNbO3. The model considers that every ion impact generates initially a defective region (halo) and a full amorphous core whose relative size depends on the electronic stopping power. Below a given stopping power threshold only a halo is generated. For increasing fluences the amorphized area grows monotonically via overlapping of a fixed number N of halos. In spite of its simplicity the model, which provides analytical solutions, describes many relevant features of the kinetic behaviour. In particular, it predicts approximate Avrami curves with parameters depending on stopping power in qualitative accordance with experiment that turn into Poisson laws well above the threshold value
Resumo:
El objetivo del presente proyecto consiste en la modelización y optimización de una planta de gasificación integrada en ciclo combinado de 400 MW de potencia neta, mediante el uso del programa Cycle-Tempo, desarrollado por la Universidad de Delft. Para la modelización de la planta, se ha dividido en sus dos unidades principales: la isla de gasificación y el ciclo combinado. Para la validación del modelo de la isla de gasificación, se ha utilizado una composición de referencia de un combustible gasificable y se ha obtenido la composición del gas de síntesis esperada. Se han modelado y optimizado varias configuraciones de ciclo combinado, variando los parámetros característicos de la caldera de recuperación de calor. Se ha realizado la integración de las dos unidades para maximizar la potencia entregada por la planta. Finalmente, se ha estimado el balance anual de energía del ciclo combinado alimentado con gas natural y con el gas de síntesis, con el fin de comparar las rentabilidades económicas obtenidas. Mediante el estudio realizado, se deduce que la forma más eficiente de producir energía, a partir del uso del carbón, es la tecnología de gasificación integrada en ciclo combinado, pese a que su rendimiento sea inferior al ciclo combinado alimentado con gas natural. ABSTRACT The aim of this project is the modeling and optimization of an integrated gasification combined cycle plant of 400 MW net power, using the Cycle-Tempo program, developed by the University of Delft. For the modeling of the plant, it has been divided into its two main units: the island of gasification and the combined cycle. For the model validation of the gasification island, a reference composition of a gasifiable fuel has been used and the expected synthesis gas composition was obtained. Several configurations of combined cycle have been modeled and optimized by varying the characteristic parameters of the heat recovery steam generator. It has made the integration of the two units to reach maximum optimization of power, which has been delivered by the plant. Finally, it has been estimated the annual energy balance for the combined cycle plant fueled with natural gas and with syngas, in order to compare the profitability obtained with each one. Through the study, it is deduced that the most efficient way to produce energy from the use of coal, is the integrated gasification combined cycle technology, although their performance is lower than that obtained from the combined cycle fueled with natural gas.
Resumo:
The fracture behavior parallel to the fibers of an E-glass/epoxy unidirectional laminate was studied by means of three-point tests on notched beams. Selected tests were carried out within a scanning electron microscope to ascertain the damage and fracture micromechanisms upon loading. The mechanical behavior of the notched beam was simulated within the framework of the embedded cell model, in which the actual composite microstructure was resolved in front of the notch tip. In addition, matrix and interface properties were independently measured in situ using a nanoindentor. The numerical simulations very accurately predicted the macroscopic response of the composite as well as the damage development and crack growth in front of the notch tip, demonstrating the ability of the embedded cell approach to simulate the fracture behavior of heterogeneous materials. Finally, this methodology was exploited to ascertain the influence of matrix and interface properties on the intraply toughness.
Resumo:
Modeling and prediction of the overall elastic–plastic response and local damage mechanisms in heterogeneous materials, in particular particle reinforced composites, is a very complex problem. Microstructural complexities such as the inhomogeneous spatial distribution of particles, irregular morphology of the particles, and anisotropy in particle orientation after secondary processing, such as extrusion, significantly affect deformation behavior. We have studied the effect of particle/matrix interface debonding in SiC particle reinforced Al alloy matrix composites with (a) actual microstructure consisting of angular SiC particles and (b) idealized ellipsoidal SiC particles. Tensile deformation in SiC particle reinforced Al matrix composites was modeled using actual microstructures reconstructed from serial sectioning approach. Interfacial debonding was modeled using user-defined cohesive zone elements. Modeling with the actual microstructure (versus idealized ellipsoids) has a significant influence on: (a) localized stresses and strains in particle and matrix, and (b) far-field strain at which localized debonding takes place. The angular particles exhibited higher degree of load transfer and are more sensitive to interfacial debonding. Larger decreases in stress are observed in the angular particles, because of the flat surfaces, normal to the loading axis, which bear load. Furthermore, simplification of particle morphology may lead to erroneous results.