784 resultados para TK Ingeniería Eléctrica, Electrónica, Ingeniería Nuclear
Resumo:
La operación de un sistema eléctrico debe cumplir con aspectos de economía, y de seguridad. Un aspecto importante, es la propensión que tienen los circuitos utilizados por las compañías eléctricas a las fluctuaciones en la tensión eléctrica cuando alimentan cargas de gran tamaño. Estas fluctuaciones momentáneas en la magnitud de la tensión suministrada son probablemente los problemas de calidad de la energía más importantes. Sin embargo, los usuarios industriales con servicio de suministro eléctrico exclusivo son más bien la excepción que la regla. En consecuencia, los niveles crecientes de las fluctuaciones de tensión producidos por la operación de cargas cíclicas de tamaños considerables utilizadas por algunos usuarios, se proyectan como una fuente progresiva de deterioro de la calidad de la energía no solo en las instalaciones de los usuarios que las producen sino también en instalaciones vecinas alimentadas por la misma línea. En este documento se propone una metodología para caracterizar los fenómenos electromagnéticos que se presentan en sistemas eléctricos industriales débiles, para establecer un criterio para diagnosticar incompatibilidades entre el sistema eléctrico de suministro y la carga.
Resumo:
Título del congreso : El español, lengua del futuro. Resumen basado en el del autor
Resumo:
El objetivo general de este proyecto es desarrollar nuevos modelos multi-dominio de máquinas eléctricas para aplicaciones al control y al diagnóstico de fallas. Se propone comenzar con el modelo electromagnético del motor de inducción en base a circuitos magnéticos equivalentes (MEC) validándolo por medio de simulación y de resultados experimentales. Como segundo paso se pretende desarrollas modelos térmicos y mecánicos con el objetivo que puedan ser acoplados al modelo electromagnético y de esta estudiar la interacción de los dominios y se validará mediante resultados de simulación y experimentales el modelo completo. Finalmente se pretende utilizar el modelo multi-dominio como una herramienta para la prueba de nuevas estrategias de control y diagnóstico de fallas.
Resumo:
Los óxidos transparentes conductores (TCO′ s) son materiales compuestos conformados por oxígeno y un metal, que presentan una combinación única de alta estabilidad química, alta concentración electrónica y alta transparencia óptica. Por esta razón, el procesamiento de TCO′ s en película delgada va orientado hacia aplicaciones específicas tales como ventanas ópticas en celdas solares, sensores de gases, electrodos en dispositivos de pantallas planas, ventanas inteligentes. En este proyecto se trabajó en la síntesis experimental de dos TCO′ s relevantes tanto en investigación fundamental como en aplicaciones tecnológicas: el óxido de indio (In2O3) y el óxido de estaño (SnO2). Ambos TCO′ s se depositaron por la técnica de erosión iónica reactiva por corriente directa (DC). Para el análisis de las películas se utilizaron varias técnicas de caracterización: difracción de rayos X, espectroscopia UV-Visible, resistividad eléctrica, efecto Hall, así como microscopías electrónica de barrido y de fuerza atómica. Se fabricó también una bicapa de In2O3/SnO2, la cual se caracterizó además con espectroscopia de fotoemisión de rayos X (XPS).En esta tesis se reporta por primera vez la síntesis y caracterización de esta bicapa, la cual abre una línea de investigación en el área de interfaces. Asimismo, se desarrolló e implementó un procedimiento, basado en los modelos ópticos, tal que permite obtener parámetros que se utilizan para evaluar a cualquier película delgada TCO como potencial metamaterial. Las propiedades de las muestras se analizaron en función de la temperatura aplicada post-depósito: temperatura ambiente (TA), 100oC, 200oC, 300oC, bajo una atmósfera de argón o argón-oxígeno. Los resultados confirman que las películas presentan un crecimiento de tipo poli cristalino. Además, la calidad cristalina tiende a incrementarse como función del incremento de la temperatura. El In2O3 creció con estructura cúbica bcc (a=10.11 ˚A, ICDD #71-2195). A partir de 200C, se detectaron trazas de la fase romboédrica (a=5.490 ˚A, c=14.520 ˚A, ICDD #73-1809). Asimismo, el SnO2 creció con estructura tetragonal (a = 4.737 ˚A, c = 3.186 ˚A, ICDD #88-0287). Las películas de In2O3 poseen una transparencia promedio del 90 % en una ventana de 500 nm a 1100 nm. El borde de absorción se recorre al azul como función de la temperatura, de Eg=3.3 eV a Eg=3.7 eV por el efecto Burstein-Moss. Por otra parte, la bicapa presentó una interfaz claramente definida, sin difusión de especies metálicas. Al incrementarse la temperatura, de TA a 400oC, se detectaron dos fases de óxido de estaño: SnO2 y SnO, en un porcentaje atómico de ≈70 %:30 %, respectivamente. Se concluye que los parámetros y valores obtenidos de las películas como son el texturizado y espesor homogéneo, alta transparencia, crecimiento preferencial, ancho prohibido y resistividad eléctrica, son comparables a los que se requieren del In2O3 y SnO2 en película delgada para aplicaciones optoelectrónicas.
Resumo:
Con el propósito de conocer cuáles han sido los resultados de algunas de las acciones más comunes para la sustentabilidad que se han realizado de manera intuitiva en los Hogares de México, se llevaron a cabo los análisis energéticos correspondientes para evaluar su efectividad en aras de promover una nueva era de responsabilidad social, con fundamento y en base a cálculos energéticos, en el área de Desarrollo Sustentable. Mediante el análisis de los resultados obtenidos se pretende socializar un sistema de contabilidad viable, reporte y evaluación de desempeño ambiental en el marco de responsabilidad social. Esto con la finalidad de establecer una línea base e identificar, clasificar y tipificar las acciones de sustentabilidad en el Hogar que permitan sugerir acciones física y económicamente plausibles para disminuir el impacto sobre el medio ambiente por el uso de energía eléctrica, agua y gas en el ámbito doméstico. Finalmente, lo que se busca es tener una evaluación no solo cualitativa sino que también sea cuantitativa delas acciones sustentables realizadas en los Hogares de México, específicamente en poco más de 1,200,000 viviendas particulares de Nuevo León, para poder determinar correctamente su efectividad e implementar aquellas acciones de sustentabilidad que sean realmente efectivas en base a cálculos y no en base a percepciones.
Resumo:
Tesis (Ingeniero Eléctrico). -- Universidad de La Salle. Facultad de Ingeniería. Programa de Ingeniería Eléctrica, 2014
Resumo:
Tesis (Maestría en Ciencias con especialidad en Ingeniería Nuclear) U.A.N.L Fac. de Ingeniería Mecánica y Eléctrica, 1986.
Resumo:
ABSRACT This thesis focuses on the monitoring, fault detection and diagnosis of Wastewater Treatment Plants (WWTP), which are important fields of research for a wide range of engineering disciplines. The main objective is to evaluate and apply a novel artificial intelligent methodology based on situation assessment for monitoring and diagnosis of Sequencing Batch Reactor (SBR) operation. To this end, Multivariate Statistical Process Control (MSPC) in combination with Case-Based Reasoning (CBR) methodology was developed, which was evaluated on three different SBR (pilot and lab-scales) plants and validated on BSM1 plant layout.
Resumo:
El Departamento de Ingeniería Nuclear imparte los Programas oficiales de Máster y Doctorado en Ciencia y Tecnología Nuclear, que cuentan desde el año 2006 con la Mención de Calidad del Ministerio de Educación y desde este curso 2010-2011con la Mención a la Excelencia. El contenido del Máster abarca desde la tecnología nuclear de los reactores de fisión hasta el estudio de los combustibles y materiales para los futuros reactores de fusión tanto inercial como magnética.
Resumo:
A finales de 2009, Jóvenes Nucleares (JJNN) y la Universidad Politécnica de Madrid (UPM) comenzaron a planificar un nuevo y original seminario que tratase de la seguridad nuclear centrada en los reactores avanzados (Generación III, III+ y IV). El objetivo era hacer una descripción general de la seguridad en los nuevos reactores en comparación con los reactores construidos de la generación II desde un punto de vista técnico pero simple y sin la necesidad de un conocimiento muy profundo en ingeniería nuclear, para intentar que fuera interesante para el mayor número de gente posible. Después de un gran esfuerzo de JJNN con la ayuda del UPM, el seminario tuvo lugar en abril de 2010 en la ETS de Ingenieros Industriales (ETSII). Las lecciones fueron conducidas por jóvenes profesionales, expertos en la materia, que pertenecen a Jóvenes Nucleares y a compañías e instituciones relacionadas con la energía nuclear.
Resumo:
En el año 2008 la Universidad Politécnica de Madrid y la empresa Gas Natural Fenosa firmaron un acuerdo por el que se creaba el Aula José Cabrera en el Departamento de Ingeniería Nuclear de la UPM. Dicho aula cuenta con el simulador gráfico interactivo de la central nuclear José Cabrera, que es un simulador de alcance total de una central nuclear PWR de un lazo. El objetivo de la ponencia es demostrar la gran aplicación didáctica que tiene dicho aula. El simulador es una herramienta de uso interactivo para trabajo individual o en grupo con los alumnos. Dentro de la asignatura de “Fiabilidad y Análisis del Riesgo” del Máster Ciencia y Tecnología Nuclear de la ETSII-UPM, se propuso la realización de un árbol de eventos para un accidente propuesto por los alumnos. El trabajo que se presenta en esta ponencia ha consistido en el análisis del accidente de rotura de tubos en el generador de vapor usando el simulador gráfico interactivo.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.
Resumo:
El código COBAYA4 es un simulador de núcleo multi-escala que resuelve la ecuación de difusión 3D en multigrupos en geometría cartesiana y hexagonal[3]. Este código ha sido desarrollado en el Departamento de Ingeniería Nuclear desde los años 80[2] ampliando su alcance y funcionalidades de forma continua. Como parte de estos desarrollos es necesaria la verificación continua de que el código sigue teniendo al menos las mismas capacidades que tenía anteriormente. Además es necesario establecer casos de referencia que nos permitan confirmar que los resultados son comparables a los obtenidos con otros códigos con modelos de mayor precisión. El desarrollo de una herramienta informática que automatice la comparación de resultados con versiones anteriores del código y con resultados obtenidos mediante modelos de mayor precisión es crucial para implementar en el código nuevas funcionalidades. El trabajo aquí presentado ha consistido en la generación de la mencionada herramienta y del conjunto de casos de referencia que han constituido la matriz mencionada.
Resumo:
La línea de cálculo de INVAP consiste principalmente de los códigos CONDOR y CITVAP. Este último es la versión mejorada del código CITATION II que resuelve la ecuación de difusión neutrónica multigrupo por el método de diferencias finitas. CITVAP es ampliamente usado para estudiar reactores de investigación y reactores de potencia tales como PWR, BWR, VVER y últimamente se implemento nuevas funciones para estudiar una central PHWR tipo Atucha. Siguiendo con la línea de reactores PHWR, en este trabajo se estudian las capacidades y deficiencias del código de núcleo CITVAP para modelar una central nuclear tipo CANDU. Se plantean mejoras a realizar para un manejo mas eficiente desde el punto de vista del usuario, tanto de la gestión de combustibles, movimientos de barras de control y zonas líquidas como mejoras en el modelo termohidraulico. La metodología consiste en validar la línea de cálculo de INVAP, contrastando los resultados con el benchmark IAEA-tecdoc-887. El proceso de validación consiste en cálculos de celda en dos y tres dimensiones usando los códigos CONDOR y SERPENT respectivamente, obtención de secciones eficaces macroscópicas en función del quemado y cálculos de núcleo para distintas configuraciones de los dispositivos de control usando un núcleo fresco y una distribución de quemado en equilibrio. Se analizan las dificultades que se presentan al modelar el núcleo con las capacidades actuales del código y se plantean posibles soluciones a implementar. Para un estudio completo de un reactor CANDU, se estudian tres de la características distintivas de este tipo de reactor: la termohidraulica, la gestión de combustibles y los dispositivos de control de reactividad, distribución de potencia y apagado.