1000 resultados para El código Da Vinci


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las limitaciones de las tecnologías de red actuales, identificadas en la Agencia de Proyectos de Investigación Avanzados para la Defensa (DARPA) durante 1995, han originado recientemente una propuesta de modelo de red denominado Redes Activas. En este modelo, los nodos proporcionan un entorno de ejecución sobre el que se ejecuta el código asociado a cada paquete. El objetivo es disponer de una tecnología de red que permita que nuevos servicios de red sean desarrollados e instalados rápidamente sin modificar los nodos de la red. Un servicio de red que se puede beneficiar de esta tecnología es la transmisión de datos en multipunto con diferentes grados fiabilidad. Las propuestas actuales de servicios de multipunto fiable proporcionan una solución específica para cada clase de aplicaciones, y los protocolos existentes extremo a extremo sufren de limitaciones técnicas relacionadas con una fiabilidad limitada, y con la ausencia de mecanismos de control de congestión efectivos. Esta tesis realiza propuestas originales conducentes a solucionar parte de las limitaciones actuales en el ámbito de Redes Activas y multipunto fiable con control de congestión. En primer lugar, se especificará un servicio genérico de multipunto fiable que, basándose en los requisitos de una serie de aplicaciones consideradas relevantes, proporcione diferentes clases de sesiones y grados de fiabilidad. Partiendo de la definición del servicio genérico especificado, se diseñará un protocolo de comunicaciones sobre la tecnología de Redes Activas que proporcione dicho servicio. El protocolo diseñado estará dotado de un mecanismo de control de congestión para que la fuente ajuste dinámicamente el tráfico inyectado a las condiciones de carga de la red. En esta tesis se pretende también profundizar en el estudio y análisis de la tecnología de Redes Activas, experimentando con dicha tecnología para proporcionar una realimentación a sus diseñadores. Dicha experimentación se realizará en tres ámbitos: el de los servicios y protocolos que puede soportar, el del modelo y arquitectura de las Redes Activas y el de las plataformas de ejecución disponibles. Como aportación adicional de este trabajo, se validarán los objetivos anteriores mediante una implementación piloto de las entidades de protocolo y de su interfaz de servicio sobre uno de los entornos de ejecución disponibles. Abstract The limitations of current networking technologies identified in the Defense Advance Research Projects Agency (DARPA) along 1995 have led to a recent proposal of a new network model called Active Networks. In this model, the nodes provide an execution environment over which the code used to process each packet is executed. The objective is a network technology that allows the fast design and deployment of new network services without requiring the modification of the network nodes. One network service that could benefit from this technology is the transmission of multicast data with different types of loss tolerance. The current proposals for reliable multicast services provide specific solutions for each application class, and existing end-to-end protocols suffer from technical drawbacks related to limited reliability and lack of an effective congestion control mechanism. This thesis contains original proposals that aim to solve part of the current drawbacks in the scope of Active Networks and reliable multicast with congestion control. Firstly, a generic reliable multicast network service will be specified. This service will be designed from the requirements of a relevant set of applications, and will provide different session classes and different types of reliability. Then, a network protocol based on Active Network technology will be designed such that it provides the specified network service. This protocol will incorporate a congestion control mechanism capable of performing an automatic adjustment of the traffic injected by the source to the available network capacity. This thesis will also contribute to a deeper study and analysis of Active Network technology, by experimenting with the technology in order to provide feedback to its designers. This experimentation will be done attending to three different scopes: support of Active Network for services and protocols, Active Network model and architecture, and currently available Active Network execution environments. As an additional contribution of this work, the previous objectives will be validated through a prototype implementation of the protocol entities and the service interface based on one of the current execution environments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los sistemas de fachadas multicapas ligeras presentan características favorables respecto al ahorro en el consumo energético, ya que presentan un excelente comportamiento térmico. Sin embargo, desde el punto de vista acústico, en general han sido poco estudiados. Los primeros datos que se tienen es que no suelen alcanzar los valores de aislamiento acústico requeridos en el Código Técnico de la Edificación (CTE) en entornos especialmente ruidosos. Por lo tanto, los objetivos principales de esta investigación son obtener sistemas de fachadas multicapas ligeras con un alto grado de aislamiento acústico, que puedan ser empleados en entornos ruidosos. Al mismo tiempo que presenten excelentes características térmicas, sin descuidar aspectos tan importantes como la sostenibilidad de los materiales, la industrialización, los costes, entre otros. En este artículo se explicará el proceso que se ha llevado a cabo para realizar una investigación relacionada con el comportamiento acústico de fachadas multicapas ligeras. Para ello se han empleado los métodos de medida del comportamiento acústico a ruido aéreo e intensimetría sonora. Una vez obtenidos estos resultados se realiza una comparativa entre las fachadas multicapas ligeras y las fachadas tradicionales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A new method is presented to generate reduced order models (ROMs) in Fluid Dynamics problems of industrial interest. The method is based on the expansion of the flow variables in a Proper Orthogonal Decomposition (POD) basis, calculated from a limited number of snapshots, which are obtained via Computational Fluid Dynamics (CFD). Then, the POD-mode amplitudes are calculated as minimizers of a properly defined overall residual of the equations and boundary conditions. The method includes various ingredients that are new in this field. The residual can be calculated using only a limited number of points in the flow field, which can be scattered either all over the whole computational domain or over a smaller projection window. The resulting ROM is both computationally efficient(reconstructed flow fields require, in cases that do not present shock waves, less than 1 % of the time needed to compute a full CFD solution) and flexible(the projection window can avoid regions of large localized CFD errors).Also, for problems related with aerodynamics, POD modes are obtained from a set of snapshots calculated by a CFD method based on the compressible Navier Stokes equations and a turbulence model (which further more includes some unphysical stabilizing terms that are included for purely numerical reasons), but projection onto the POD manifold is made using the inviscid Euler equations, which makes the method independent of the CFD scheme. In addition, shock waves are treated specifically in the POD description, to avoid the need of using a too large number of snapshots. Various definitions of the residual are also discussed, along with the number and distribution of snapshots, the number of retained modes, and the effect of CFD errors. The method is checked and discussed on several test problems that describe (i) heat transfer in the recirculation region downstream of a backwards facing step, (ii) the flow past a two-dimensional airfoil in both the subsonic and transonic regimes, and (iii) the flow past a three-dimensional horizontal tail plane. The method is both efficient and numerically robust in the sense that the computational effort is quite small compared to CFD and results are both reasonably accurate and largely insensitive to the definition of the residual, to CFD errors, and to the CFD method itself, which may contain artificial stabilizing terms. Thus, the method is amenable for practical engineering applications. Resumen Se presenta un nuevo método para generar modelos de orden reducido (ROMs) aplicado a problemas fluidodinámicos de interés industrial. El nuevo método se basa en la expansión de las variables fluidas en una base POD, calculada a partir de un cierto número de snapshots, los cuales se han obtenido gracias a simulaciones numéricas (CFD). A continuación, las amplitudes de los modos POD se calculan minimizando un residual global adecuadamente definido que combina las ecuaciones y las condiciones de contorno. El método incluye varios ingredientes que son nuevos en este campo de estudio. El residual puede calcularse utilizando únicamente un número limitado de puntos del campo fluido. Estos puntos puede encontrarse dispersos a lo largo del dominio computacional completo o sobre una ventana de proyección. El modelo ROM obtenido es tanto computacionalmente eficiente (en aquellos casos que no presentan ondas de choque reconstruir los campos fluidos requiere menos del 1% del tiempo necesario para calcular una solución CFD) como flexible (la ventana de proyección puede escogerse de forma que evite contener regiones con errores en la solución CFD localizados y grandes). Además, en problemas aerodinámicos, los modos POD se obtienen de un conjunto de snapshots calculados utilizando un código CFD basado en la versión compresible de las ecuaciones de Navier Stokes y un modelo de turbulencia (el cual puede incluir algunos términos estabilizadores sin sentido físico que se añaden por razones puramente numéricas), aunque la proyección en la variedad POD se hace utilizando las ecuaciones de Euler, lo que hace al método independiente del esquema utilizado en el código CFD. Además, las ondas de choque se tratan específicamente en la descripción POD para evitar la necesidad de utilizar un número demasiado grande de snapshots. Varias definiciones del residual se discuten, así como el número y distribución de los snapshots,el número de modos retenidos y el efecto de los errores debidos al CFD. El método se comprueba y discute para varios problemas de evaluación que describen (i) la transferencia de calor en la región de recirculación aguas abajo de un escalón, (ii) el flujo alrededor de un perfil bidimensional en regímenes subsónico y transónico y (iii) el flujo alrededor de un estabilizador horizontal tridimensional. El método es tanto eficiente como numéricamente robusto en el sentido de que el esfuerzo computacional es muy pequeño comparado con el requerido por el CFD y los resultados son razonablemente precisos y muy insensibles a la definición del residual, los errores debidos al CFD y al método CFD en sí mismo, el cual puede contener términos estabilizadores artificiales. Por lo tanto, el método puede utilizarse en aplicaciones prácticas de ingeniería.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tendencia más extendida actualmente para el análisis tridimensional de núcleos PWR se basa en la utilización de códigos de difusión en multigrupos. Uno de ellos es el código COBAYA3, desarrollado en el Departamento de Ingeniería Nuclear de la Universidad Politécnica de Madrid. Estos códigos emplean como datos de entrada librerías de parámetros equivalentes homogeneizados (secciones eficaces y factores de discontinuidad), que dependen, entre otros, de las variables locales en el reactor (temperatura del combustible, temperatura del moderador, densidad del moderador y concentración de boro). Típicamente, esos parámetros se pre-generan para cada tipo de elemento con un código de transporte determinista..

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el presente trabajo se presenta un estudio experimental y numérico de impactos balísticos sobre placas de acero inoxidable martensítico a altas temperaturas (400ºC y 700ºC), que pone de manifiesto la importancia del ablandamiento térmico en simulaciones de impactos a altas temperaturas. Mediante un estudio metalográfico de la zona de impacto, se ha observado la aparición de bandas adiabáticas de cortante formadas por el aumento brusco de la temperatura debido a la acumulación del trabajo plástico en el interior del material. La correcta predicción en la formación de estas bandas durante el proceso de penetración es crítica a la hora de obtener resultados representativos de los experimentos realizados. Basándose en datos experimentales de ensayos previamente realizados, se ha calibrado un modelo de material de Johnson-Cook (JC) para su uso con simulaciones numéricas en el código no lineal de elementos finitos LSDYNA. Mediante estas simulaciones numéricas se demuestra la importancia del ablandamiento térmico en el proceso de perforación de placas, al igual que la incapacidad que un modelo tipo JC tiene para representar el dicho ablandamiento para material estudiado. Esta investigación presenta, finalmente, una modificación a un modelo tipo JC programado como subrutina de material de usuario para LS-DYNA que permite simular correctamente estos procesos de impacto a alta temperatura

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el año 2002 durante una inspección se localizó una importante corrosión en la cabeza de la vasija de Davis Besse NPP. Si no se hubiera producido esa detección temprana, la corrosión hubiera provocado una pequeña rotura en la cabeza de la vasija. La OECD/NEA consideró la importancia de simular esta secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Los resultados de este test experimental fueron muy analizados internacionalmente por la gran influencia que dos factores tenía sobre el resultado: las acciones del operador relativas a la despresurización y la detección del descubrimiento del núcleo por los termopares que se encuentran a su salida. El comienzo del inicio de la despresurización del secundario estaba basado en la determinación del descubrimiento del núcleo por la lectura de los temopares de salida del núcleo. En el experimento se registró un retraso importante en la determinación de ese descubrimiento, comenzando la despresurización excesivamente tarde y haciendo necesaria la desactivación de los calentadores que simulan el núcleo del reactor para evitar su daño. Dada las condiciones excesivamente conservadoras del test experimentale, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En situación de incendio, los elementos estructurales de madera laminada encolada (?MLE?) sufren una degradación térmica que les lleva a una pérdida de sección portante. El Código Técnico de la Edificación cuantifica esta pérdida en 0,55 - 0,70 mm/min por cada cara sometida a carga, según especie y densidad, pero no propone una metodología específica para el cálculo de uniones carpinteras en situación de incendio. Para conocer el comportamiento de este tipo de uniones en situación de incendio, la Plataforma de Ingeniería de la Madera Estructural (PEMADE) de la Universidad de Santiago de Compostela, el Instituto de Ciencias de la Construcción Eduardo Torroja y el Centro Tecnológico CIDEMCO-Tecnalia han realizado conjuntamente una serie de ensayos experimentales sobre probetas ensambladas con unión carpintera del tipo cola de milano. Se han sometido las probetas a cargas térmicas variantes en el tiempo siguiendo la norma ISO 834-1, tal y como indica el CTE. Se registró usando termopares la variación de la temperatura a lo largo de la duración del ensayo. En este trabajo se expone en detalle la metodología desarrollada para realizar los ensayos, así como los primeros resultados obtenidos. In a fire event, glued laminated timber ("GLULAM") elements suffer a thermal degradation that produces in them a decrease of bearing section. Spanish technical building normative (?CTE?) quantify this decreasing from 0.55 to 0.70 mm / min according to species and density, but does not propose a specific methodology for calculating carpenter joints in a fire situation. In order to understand the behavior of such joints in a fire situation, the Platform for Structural Timber Engineering (PEMADE) of University of Santiago de Compostela; Institute of Science Construction Eduardo Torroja and Technology Center CIDEMCO-Tecnalia conducted together a series of experimental tests on glulam specimens assembled with a carpenter union type called ?dovetail?. Specimens were subjected to thermal loads varying in time according to ISO 834-1, as indicated by the CTE. Thermocouples were inserted in the specimens, recording the temperature variation along the length of the test. This paper details the methodology developed for the test and the first results.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este trabajo se presentan los avances realizados en el marco del proyecto “Evaluación de la Peligrosidad Sísmica en España para aplicaciones relacionadas con la seguridad nuclear” financiado por el Consejo de Seguridad Nuclear. La finalidad última del proyecto es ahondar en el conocimiento de la peligrosidad sísmica y de su incertidumbre en los emplazamientos de instalaciones críticas como instalaciones nucleares y almacenamientos de residuos radiactivos en nuestro país. Con ese propósito, una primera fase del proyecto está destinada a recopilar y estructurar toda la información generada en proyectos previos financiados por el CSN (DAÑOS, SIGMA, PRIOR, EXPEL y DATACIÓN) concerniente a estudio de fallas activas, análisis de paleosismicidad, catálogos sísmicos y de movimiento fuerte del suelo, etc.. Esta información está siendo integrada y unificada en una Base de Datos y en un Sistema de Información Geográfica. Paralelamente, el código informático desarrollado en el proyecto EXPEL está siendo actualizado para desarrollar cálculos de peligrosidad sísmica siguiendo la metodología PSHA de una forma eficiente, incluyendo formulación de un árbol lógico, cuantificación de incertidumbres epistémicas y aleatorias, análisis de sensibilidad de diferentes opciones en los resultados y desagregación. Los resultados preliminares del proyecto son presentados en esta comunicación, dando una orientación hacia futuros desarrollos y toma de decisiones relacionados con la seguridad nuclear.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el presente trabajo se presenta un estudio experimental y numérico de impactos balísticos sobre placas de acero inoxidable martensítico a altas temperaturas (400ºC y 700ºC), que pone de manifiesto la importancia del ablandamiento térmico en simulaciones de impactos a altas temperaturas. Mediante un estudio metalográfico de la zona de impacto, se ha observado la aparición de bandas adiabáticas de cortante formadas por el aumento brusco de la temperatura debido a la acumulación del trabajo plástico en el interior del material. La correcta predicción en la formación de estas bandas durante el proceso de penetración es crítica a la hora de obtener resultados representativos de los experimentos realizados. Basándose en datos experimentales de ensayos previamente realizados, se ha calibrado un modelo de material de Johnson-Cook (JC) para su uso con simulaciones numéricas en el código no lineal de elementos finitos LSDYNA. Mediante estas simulaciones numéricas se demuestra la importancia del ablandamiento térmico en el proceso de perforación de placas, al igual que la incapacidad que un modelo tipo JC tiene para representar el dicho ablandamiento para material estudiado. Esta investigación presenta, finalmente, una modificación a un modelo tipo JC programado como subrutina de material de usuario para LS-DYNA que permite simular correctamente estos procesos de impacto a alta temperatura.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este Trabajo Fin de Máster surge de la necesidad de evaluar la fiabilidad de los sistemas fotovoltaicos de concentración, los cuales han sufrido una evolución importante, pasando de usarse células solares de silicio con un 26% de rendimiento, a células multiunión III-V superando el 43% de rendimiento. Las células solares multinunión, mucho más caras y complejas que las células de silicio, no podrán ser comercializadas hasta que no se demuestre que tienen una fiabilidad comparable a las células de silicio. Con el objetivo de disponer de resultados de fiabilidad en un periodo de tiempo adecuado, se utilizan ensayos acelerados. Los ensayos acelerados en células solares presentan una dificultad añadida, debido a la necesidad de que la célula solar esté funcionando y además sea caracterizada dentro de una cámara climática. Mientras que para realizar ensayos acelerados en otros dispositivos es muy sencillo hacerlos funcionar dentro de la cámara climática, en el caso de las células solares tanto el funcionamiento como la caracterización requieren de iluminación dentro de la cámara climática. Conseguir dicha iluminación es complejo como se comentará en el desarrollo de esta memoria de Trabajo Fin de Máster, así como la solución encontrada. A lo largo de esta memoria se desarrollará una primera parte teórica, comenzando con una breve descripción teórica sobre células solares, aunque el estudio de las mismas no es el objetivo de este proyecto, por lo que se continuará con teoría de fiabilidad. El objetivo de este Trabajo Fin de Máster es desarrollar un software capaz de realizar ensayos acelerados sobre células solares. El diseño del software desarrollado podría usarse para cualquier tipo de célula solar, u otro dispositivo similar como un LED o un diodo láser. El último capítulo teórico desarrollado en este proyecto es una introducción al lenguaje de programación gráfico, denominado lenguaje G, implementado con Labview, software elegido para el desarrollo del programa. Dado que estará destinado a su uso en otros proyectos, el desarrollo del sistema estará totalmente descrito y el código comentado, para que en un futuro se pueda modificar de forma sencilla. El núcleo de la memoria es el desarrollo del software aunque también se mostrará el desarrollo hardware, que ha sido desarrollado en paralelo en otro Trabajo Fin de Máster y la instalación necesaria para poder llevar a cabo los ensayos. Para finalizar la memoria, se documenta la instalación realizada, mostrando las pruebas realizadas al software y al hardware y la puesta en funcionamiento de los ensayos con sus primeros resultados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resumen Ejecutivo Desde hace unos años, la tecnología RFID parece estar tecnológicamente madura, aunque se halla inmersa en una continua evolución y mejora de sus prestaciones frente a la tecnología basada en el código de barras. Esta tecnología está empezando a aumentar su comercialización y uso generalizado. Este proyecto describe su funcionamiento y arquitectura, las aplicaciones e implementaciones reales en diversos sectores empresariales y soluciones o propuestas para mejorar y fomentar investigaciones, desarrollos e implementaciones futuras. Una primera parte consiste en el desarrollo teórico del funcionamiento, parámetros físicos y la arquitectura RFID. En la segunda parte se estudian las aplicaciones potenciales, beneficios e inconvenientes y varios puntos de vista; empresas que invierten a favor de RFID y han realizado implementaciones reales exitosas y organizaciones en contra. La tercera y última parte analiza las consecuencias negativas que supone un mal uso de la tecnología como la pérdida de privacidad o confidencialidad, se proponen algunas medidas de seguridad y soluciones al problema utilizando la regularización y estandarización. Finalmente, tras estudiar la tecnología RFID, se aportan algunas conclusiones de carácter actual y de futuro después de observar resultados de expectativas previstas. Executive Summary For several years, RFID technology seems to be technologically mature, but is immersed in a continuous evolution and improvement of their performance than the technology based on the barcode. This technology is starting to increase their marketing and widespread use. This project describes its operation and architecture, applications and real implementations in different business sectors and solutions or proposals to improve and enhance research, development and future implementations. The first part consists of theory development of the operation, physical parameters and architecture RFID. The second part focuses on the potential applications, benefits and drawbacks and several points of view; companies investing on behalf of RFID and have made successful actual deployments and organizations against. The third and last part discusses the negative impact that is a bad use of technology such as loss of privacy or confidentiality; suggest some security measures and solutions to the problem using regularization and standardization. Finally, it provides some conclusions of the current character, after studying RFID technology and the future after observing results of expectations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este proyecto aborda el estudio geotécnico de un edificio destinado a ser un centro cívico situado en una parcela del término municipal de Coslada. El edificio se compone de tres plantas y un sótano, con una superficie de 3173m2. Con el fin de clasificar y caracterizar los materiales del terreno que soporta el edificio, se analiza el marco geológico regional y local de la zona. En el proyecto se presentan los resultados obtenidos en la campaña de reconocimiento de campo y en los ensayos realizados en laboratorio, necesarios para describir las propiedades geotécnicas del terreno. Se estudia la capacidad de carga del terreno para asegurar una correcta cimentación y se dan unas recomendaciones referentes a la excavación del sótano y su sostenimiento. Para ello se siguen la normativa propuesta en el Código Técnico de la Edificación. Por último, se estiman los costes producidos por la campaña de reconocimiento de campo, los ensayos de laboratorio y la redacción del presente proyecto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo del proyecto ha sido desarrollar una funcionalización de las secciones eficaces nodales en multigrupos para códigos tridimensionales de núcleos de agua a presión. Se ha estudiado la dependencia de las secciones eficaces con las condiciones locales de operación: temperatura del combustible, temperatura del moderador, densidad del moderador y concentración de boro. Y se ha desarrollado un modelo que permite determinar las secciones eficaces en función de dichas variables operacionales. De esta forma, pueden reproducirse en el cálculo nodal 3D valores precisos de las secciones eficaces para la resolución de la ecuación de difusión en multigrupos. Se consigue así evitar el uso de ingentes librerías de secciones eficaces pregeneradas para todas las posibles combinaciones de condiciones de operación. Este estudio se ha realizado a nivel de elemento combustible, analizando las diferencias y similitudes con la funcionalización requerida a nivel de celda, estudiándose igualmente condensaciones en distintos números de grupos de energía para obtener una librería de tamaño óptimo. Las actividades desarrolladas han sido: i) utilización de un código de transporte determinista para obtener secciones eficaces homogeneizadas a nivel de elemento; ii) desarrollo de un procedimiento para la generación de todos los parámetros al cambiar las condiciones de operación y análisis de la variación de las secciones eficaces al cambiar dichas condiciones, estudiando los posibles efectos cruzados; iii) una vez finalizado el estudio de la funcionalización de los parámetros con las variables locales, se ha valorado esta librería mediante cálculos con el código de difusión 3D COBAYA3.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El accidente de rotura de tubos de un generador de vapor (Steam Generator Tube Rupture, SGTR) en los reactores de agua a presión es uno de los transitorios más exigentes desde el punto de vista de operación. Los transitorios de SGTR son especiales, ya que podría dar lugar a emisiones radiológicas al exterior sin necesidad de daño en el núcleo previo o sin que falle la contención, ya que los SG pueden constituir una vía directa desde el reactor al medio ambiente en este transitorio. En los análisis de seguridad, el SGTR se analiza desde un punto determinista y probabilista, con distintos enfoques con respecto a las acciones del operador y las consecuencias analizadas. Cuando comenzaron los Análisis Deterministas de Seguridad (DSA), la forma de analizar el SGTR fue sin dar crédito a la acción del operador durante los primeros 30 min del transitorio, lo que suponía que el grupo de operación era capaz de detener la fuga por el tubo roto dentro de ese tiempo. Sin embargo, los diferentes casos reales de accidentes de SGTR sucedidos en los EE.UU. y alrededor del mundo demostraron que los operadores pueden emplear más de 30 minutos para detener la fuga en la vida real. Algunas metodologías fueron desarrolladas en los EEUU y en Europa para abordar esa cuestión. En el Análisis Probabilista de Seguridad (PSA), las acciones del operador se tienen en cuenta para diseñar los cabeceros en el árbol de sucesos. Los tiempos disponibles se utilizan para establecer los criterios de éxito para dichos cabeceros. Sin embargo, en una secuencia dinámica como el SGTR, las acciones de un operador son muy dependientes del tiempo disponible por las acciones humanas anteriores. Además, algunas de las secuencias de SGTR puede conducir a la liberación de actividad radiológica al exterior sin daño previo en el núcleo y que no se tienen en cuenta en el APS, ya que desde el punto de vista de la integridad de núcleo son de éxito. Para ello, para analizar todos estos factores, la forma adecuada de analizar este tipo de secuencias pueden ser a través de una metodología que contemple Árboles de Sucesos Dinámicos (Dynamic Event Trees, DET). En esta Tesis Doctoral se compara el impacto en la evolución temporal y la dosis al exterior de la hipótesis más relevantes encontradas en los Análisis Deterministas a nivel mundial. La comparación se realiza con un modelo PWR Westinghouse de tres lazos (CN Almaraz) con el código termohidráulico TRACE, con hipótesis de estimación óptima, pero con hipótesis deterministas como criterio de fallo único o pérdida de energía eléctrica exterior. Las dosis al exterior se calculan con RADTRAD, ya que es uno de los códigos utilizados normalmente para los cálculos de dosis del SGTR. El comportamiento del reactor y las dosis al exterior son muy diversas, según las diferentes hipótesis en cada metodología. Por otra parte, los resultados están bastante lejos de los límites de regulación, pese a los conservadurismos introducidos. En el siguiente paso de la Tesis Doctoral, se ha realizado un análisis de seguridad integrado del SGTR según la metodología ISA, desarrollada por el Consejo de Seguridad Nuclear español (CSN). Para ello, se ha realizado un análisis termo-hidráulico con un modelo de PWR Westinghouse de 3 lazos con el código MAAP. La metodología ISA permite la obtención del árbol de eventos dinámico del SGTR, teniendo en cuenta las incertidumbres en los tiempos de actuación del operador. Las simulaciones se realizaron con SCAIS (sistema de simulación de códigos para la evaluación de la seguridad integrada), que incluye un acoplamiento dinámico con MAAP. Las dosis al exterior se calcularon también con RADTRAD. En los resultados, se han tenido en cuenta, por primera vez en la literatura, las consecuencias de las secuencias en términos no sólo de daños en el núcleo sino de dosis al exterior. Esta tesis doctoral demuestra la necesidad de analizar todas las consecuencias que contribuyen al riesgo en un accidente como el SGTR. Para ello se ha hecho uso de una metodología integrada como ISA-CSN. Con este enfoque, la visión del DSA del SGTR (consecuencias radiológicas) se une con la visión del PSA del SGTR (consecuencias de daño al núcleo) para evaluar el riesgo total del accidente. Abstract Steam Generator Tube Rupture accidents in Pressurized Water Reactors are known to be one of the most demanding transients for the operating crew. SGTR are special transient as they could lead to radiological releases without core damage or containment failure, as they can constitute a direct path to the environment. The SGTR is analyzed from a Deterministic and Probabilistic point of view in the Safety Analysis, although the assumptions of the different approaches regarding the operator actions are quite different. In the beginning of Deterministic Safety Analysis, the way of analyzing the SGTR was not crediting the operator action for the first 30 min of the transient, assuming that the operating crew was able to stop the primary to secondary leakage within that time. However, the different real SGTR accident cases happened in the USA and over the world demonstrated that operators can took more than 30 min to stop the leakage in actual sequences. Some methodologies were raised in the USA and in Europe to cover that issue. In the Probabilistic Safety Analysis, the operator actions are taken into account to set the headers in the event tree. The available times are used to establish the success criteria for the headers. However, in such a dynamic sequence as SGTR, the operator actions are very dependent on the time available left by the other human actions. Moreover, some of the SGTR sequences can lead to offsite doses without previous core damage and they are not taken into account in PSA as from the point of view of core integrity are successful. Therefore, to analyze all this factors, the appropriate way of analyzing that kind of sequences could be through a Dynamic Event Tree methodology. This Thesis compares the impact on transient evolution and the offsite dose of the most relevant hypothesis of the different SGTR analysis included in the Deterministic Safety Analysis. The comparison is done with a PWR Westinghouse three loop model in TRACE code (Almaraz NPP), with best estimate assumptions but including deterministic hypothesis such as single failure criteria or loss of offsite power. The offsite doses are calculated with RADTRAD code, as it is one of the codes normally used for SGTR offsite dose calculations. The behaviour of the reactor and the offsite doses are quite diverse depending on the different assumptions made in each methodology. On the other hand, although the high conservatism, such as the single failure criteria, the results are quite far from the regulatory limits. In the next stage of the Thesis, the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Safety Council (CSN), has been applied to a thermohydraulical analysis of a Westinghouse 3-loop PWR plant with the MAAP code. The ISA methodology allows obtaining the SGTR Dynamic Event Tree taking into account the uncertainties on the operator actuation times. Simulations are performed with SCAIS (Simulation Code system for Integrated Safety Assessment), which includes a dynamic coupling with MAAP thermal hydraulic code. The offsite doses are calculated also with RADTRAD. The results shows the consequences of the sequences in terms not only of core damage but of offsite doses. This Thesis shows the need of analyzing all the consequences in an accident such as SGTR. For that, an it has been used an integral methodology like ISA-CSN. With this approach, the DSA vision of the SGTR (radiological consequences) is joined with the PSA vision of the SGTR (core damage consequences) to measure the total risk of the accident.