538 resultados para ESPECTROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta en este trabajo una nueva caracterización del movimiento del suelo en la presa de Itoiz, consistente con la peligrosidad sísmica del emplazamiento. En primer lugar, proponemos una metodología con tres niveles de aproximación al movimiento esperado, que es después aplicada considerando las características particulares de la presa y su emplazamiento. Los cálculos de peligrosidad se realizan siguiendo la línea metodológica conocida como PSHA, con un método probabilista zonificado y formulando un árbol lógico que combina diferentes zonificaciones sísmicas y modelos de movimiento fuerte. La peligrosidad se representa en términos de la aceleración pico PGA y de las aceleraciones espectrales para periodos coincidentes con los de vibración de la presa, considerando dos estados de la misma correspondientes a presa vacía (T=0.1s) y presa con capacidad máxima de llenado (T=0.22 s). Se caracterizan los correspondientes movimientos para dos periodos de retorno, 975 años y 4975 años, asociados al sismo de proyecto y al sismo extremo, respectivamente. El efecto de sitio en el emplazamiento de la presa también fue tenido en cuenta. La metodología propuesta conduce a caracterizar el movimiento con tres niveles de detalle. En una primera etapa se obtienen los espectros de respuesta uniforme (UHS) para los dos niveles de movimiento referidos. Seguidamente se desarrolla un análisis de desagregación para obtener los sismos de control que previsiblemente pueden afectar mas a la presa. Estos se identifican como los que más contribuyen a los movimientos objeto dados por las aceleraciones espectrales de los dos periodos característicos, SA (0,1 s) y SA (0.22 s) y para los dos periodos de retorno de 975 y 4975 años asociados a lo sismos de proyecto y extremo. De ahí se obtienen los espectros de respuesta específicos para las cuatro combinaciones resultantes. Finalmente, se realiza una simulación del movimiento en el dominio del tiempo, obteniendo acelerogramas sintéticos mediante el método de número de onda discreto. Las simulaciones se realizaron considerando fuentes finitas en diferentes posiciones y evaluando el efecto de la directividad en las posibles fuentes consideradas. Se concluye destacando la importancia del efecto de directividad, en la caracterización del emplazamiento de la presa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo es un estudio teórico – experimental para la implementación de un edificio metálico de cuatro plantas con dispositivos disipadores de energía. Este estudio presenta una técnica para la generación de un registro sísmico artificial, que sea compatible con los espectros de diseño de las normas chilena y española. Este acelerograma se crea con una herramienta computacional denominada SIMQKE. La simulación de la estructura sometida al terremoto artificial se realizará en el programa de elementos finitos SAP200. El trabajo se encuentra dividido en cuatro capítulos, cuyos contenidos son los siguientes. En el capitulo uno, o estado del arte, se revisan las diferentes técnicas de aislamiento sísmico, se describe el dispositivo a utilizar, sus bases teóricas y formulación matemática, se revisan las normas NCh.2745 Of.2003 [12], NCSE-02 [18] y se presenta la técnica para la generación de un registro sintético compatible. El capítulo dos aborda el análisis experimental para un edificio real: una edificación de estructura metálica implementada con disipadores de energía metálicos y que será sometida a tres terremotos de diferente magnitud. El capítulo tres expone los resultados de los desplazamientos medidos para la estructura sin disipadores y con ellos, se presentan los porcentajes de disminución de desplazamientos relativos por planta y por tipo de estructura. Por último, el capítulo cuatro presenta las principales conclusiones y una breve discusión de los resultados. The present work is a theoretical and experimental study for the implementation of a fourstorey building with energy dissipating devices. This study presents a technique for generation an artificial seismic record, which is compatible with the design spectra Chilean and Spanish standards. This accelerogram is created with a computational tool called SIMQKE. The simulation of the structure subjected to artificial earthquake will take place in the finite element program SAP2000. This work is divided into four chapters whose contents are as follows. In chapter one, or state of the art, reviews the different seismic isolation techniques, describes the device used, theoretical and mathematical formulation, NCh2745 Of.2003 [12] and NCSE-02 [18] standards are checked, and presents the technique for generating a synthetic record compatible. Chapter two explains the experimental analysis to a real building: a building of steel structure implemented with metallic energy dissipators and will be submitted to three different earthquakes of magnitude. Chapter three presents the results of measured displacements for the structure without dissipators and with them, the percentages of decline relative displacements per plant and type of structure. Finally, chapter four presents the main conclusions and a brief discussion of the results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se han cubierto diferentes asuntos del diseño neutrónico de los aspectos radiológicos de las dos instalaciones del proyecto HiPER. El proyecto HiPER es un proyecto europeo concebido en el marco del programa ESFRI (European Scientific Facilities Research Infrastructure). Está destinado al desarrollo de la energía de fusión nuclear inercial mediante el uso de láseres y el esquema iluminación directa. Consecuentemente, se trata de una instalación con fines exclusivamente civiles. Se divide en dos fases, correspondientes con dos instalaciones: HiPER Engineering y HiPER Reactor. La instalación HiPER Engineering desarrollará las tecnologías implicadas en la ignición de alta repetición de cápsulas de DT por iluminación directa. El HiPER Reactor será una planta demostradora que produzca electricidad haciendo uso de las tecnologías desarrolladas durante la fase HiPER Engineering. El HiPER Engineering se centrará en las tecnologías relevantes para las igniciones a alta repetición de cápsulas de DT usando la iluminación directa. El principal esfuerzo de desarrollo tecnológico se hará en todos los asuntos directamente relacionados con la ignición: láseres, óptica, inyector, y fabricación masiva de cápsulas entre otros. Se espera una producción de entre 5200 MJ/año y 120000 MJ/año dependiendo del éxito de la instalación. Comparado con la energía esperada en NIF, 1200 MJ/año, se trata de un reto y un paso más allá en la protección radiológica. En este trabajo se ha concebido una instalación preliminar. Se ha evaluado desde el punto de vista de la protección radiológica, siendo las personas y la óptica el objeto de protección de este estudio. Se ha establecido una zonificación durante la operación y durante el mantenimiento de la instalación. Además, se ha llevado a cabo una evaluación de la selección de materiales para la cámara de reacción desde el punto de vista de gestión de residuos radiactivos. El acero T91 se ha seleccionado por, siendo un acero comercial, presentar el mismo comportamiento que el acero de baja activación EUROFER97 al evaluarse como residuo con el nivel de irradiación de HiPER Engineering. Teniendo en cuenta los resultados obtenidos para la instalación preliminar y las modificaciones de la instalación motivadas en otros campos, se ha propuesto una instalación avanzada también en este trabajo. Un análisis más profundo de los aspectos radiológicos, así como una evaluación completa de la gestión de todos los residuos radiactivos generados en la instalación se ha llevado a cabo. La protección radiológica se ha incrementado respecto de la instalación preliminar, y todos los residuos pueden gestionarse en un plazo de 30 sin recurrir al enterramiento de residuos. El HiPER Reactor sera una planta demostradora que produzca electricidad basada en las tecnologías de ignición desarrolladas durante la fase HiPER Engineering. El esfuerzo de desarrollo tecnológico se llevará a cabo en los sistemas relacionados con la generación de electricidad en condiciones económicas: manto reproductor de tritio, ciclos de potencia, vida y mantenimiento de componentes, o sistemas de recuperación de tritio entre otros. En este trabajo la principal contribución a HiPER Reactor está relacionada con el diseño de la cámara de reacción y sus extensiones en la planta. La cámara de reacción es la isla nuclear más importante de la planta, donde la mayoría de las reacciones nucleares tienen lugar. Alberga la primera pared, el manto reproductor de tritio y la vasija de vacío. Todo el trabajo realizado aquí ha pivotado en torno al manto reproductor de tritio y sus interacciones con el resto de componentes de la planta. Tras una revisión profunda de la bibliografía de los diseños recientes de cámaras de reacción con características similares a HiPER Reactor, se ha propuesto y justificado un esquema tecnológico innovador para el manto reproductor de tritio. El material fértil selecconado es el eutéctico 15.7 at.% Litio – 84.3 at.% Plomo, LiPb, evitando el uso de berilio como multiplicador neutrónico mientras se garantiza el ajuste online de la tasa de reproducción de tritio mediante el ajuste en el enriquecimiento en 6Li. Aunque se podría haber elegido Litio purom el LiPb evita problemas relacionados con la reactividad química. El precio a pagar es un reto materializado como inventario radiactivo de Z alto en el lazo de LiPb que debe controlarse. El material estructural seleccionado es el acero de baja activación EUROFER97, que estará en contacto directo con le LiPb fluyendo a alta velocidad. En este esquema tecnológico, el LiPb asegurará la autosuficiente de tritio de la planta mientras el propio LiPb extrae del manto el calor sobre él depositado por los neutrones. Este esquema recibe el nombre de manto de Litio-Plomo auto-refrigerado (SCLL por sus siglas en inglés). Respecto de los conceptos SCLL previos, es destacable que nos e requieren componentes del SiC, puesto que no hay campos magnéticos en la cámara de reacción. Consecuentemente, el manto SCLL propuesto para HiPER presenta riesgo tecnológicos moderados, similares a otros dispositivos de fusión magnética, como el HCLL, e incluso inferiores a los del DCLL, puesto que no se require SiC. Los retos que se deben afrontar son el control del inventario de Z alto así como las tasas de corrosión derivadas de la interacción del LiPb con el EUROFE97. En este trabajo se abordan ambos aspectos, y se presentan los respectivos análisis, junto con otros aspectos neutrónicos y de activación, tales como la protección de la vasija de vacío por parte del material fértil para garantizar la resoldabilidad de por vida en la cara externa de la vasija. También se propone y se estudio un ciclo de potencia de Brayton de Helio para dos configuraciones diferentes de refrigeración del sistema primera pared-manto reproductor. Las principales conclusiones de estos estudios son: i) el inventario de Z alto puede controlarse y es comparable al que se encuentra en dispositivos de fusión similares, ii)la vasija de vacío requiere una mayor protección frente a la radiación neutrónica y iii) las tasas de corrosión son demasiado altas y la temperatura media de salida del LiPb es demasiado baja. Tiendo en cuenta estos resultados juntos con otras consideraciones relacionadas con el mantenimiento de componentes y la viabilidad constructiva, se ha propuesto una evolución de la cámara de reacción. Las evoluciones más destacables son la introducción de un reflector neutrónico de grafito, la modificación de la configuración de la óptica final, la forma y el tamaño de la cámara de vacío y una nueva subdivisión modular del manto. Se ha evaluado desde el punto de vista neutrónico, y su análisis y posterior evolución queda fuera del objeto de este trabajo. Los códigos utilizados en este trabajo son: CATIA para la generación de geometrías 3D complejas MCAM para la traducción de archivos de CATIA a formato de input de MCNP MCNP para el transporte de la radiación (neutrones y gammas) y sus respuestas asociadas ACAB para la evolución del inventario isotópico y sus respuestas asociadas MC2ACAB para acoplar MCNP y ACAB para el cómputo de dosis en parada usando la metodología R2S basada en celda. Moritz para visualizar los reultados de MCNP FLUENT para llevar a cabo cálculos de fluido-dinámica Para llevar a cabo este trabajo, han sido necesarias unas destrezas computacionales. Las más relevantes utilizadas son: generación de geometrás 3D complejas y transmisión a MCNP, diferentes tñecnica de reducción de varianza como importancia por celdas y weight windows basado en malla, metodología Rigorous-two-Steps basada en celdas para el cálculo de dosis en parada y la modificación del código ACAB para el cálculos con múltiples espectros en la misma simulación. Como resumen, la contribución de este trabajo al proyecto HiPER son dos diseños conceptuales de instalación: una para HiPER Engineering y otra para HiPER Reactor. La primera se ha estudio en profundidad desde el punto de vista de protección radiológica y gestión de residuos, mientras que la segunda se ha estudiado desde el punto de vista de operación: seguridad, comportamiento, vida y mantenimiento de componentes y eficiencia del ciclo de potencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El espacio íntimo no está únicamente asociado al espacio privado y doméstico, sin embargo las nociones de privacidad e intimidad están emparentadas a la idea de casa. Mientras el lugar íntimo no se resuma al espacio de proyección individual, la necesidad revelada por el individuo a lo largo de la historia de poseer un espacio propio configura una categoría de planteamiento íntimo ante el espacio. Aunque pertenezca a un ámbito inmaterial, la intimidad se busca, en las páginas siguientes, en lo arquitectónico a través de la observación de algunos espacios individuales. Se identifican imágenes del habitar individual y espacios de reclusión individual. Se observa en los momentos inicial y final de la vida el exponente máximo de aislamiento y de unidad, la imagen del espacio intrauterino y una idea de lo fúnebre planean sobre el cotidiano, infundiéndolo también de la necesidad de aislamiento. La reclusión se podrá procesar a partir de distintas motivaciones. En este sentido se ha identificado el espacio del ermitaño, el espacio de retiro y el espacio de la exclusión. Cercado el ámbito del espacio individual surge como necesaria la tarea de oponer el individuo al mundo, pues no existe dentro sin fuera, como no hay día sin noche, ni el ser individual existe sin que pueda plantearse ante otros que confirmen su existencia. En este sentido se plantea el habitante individual ante la inmensidad, ante la exposición y ante la extrañeza. Para que un viaje sea completo hay que regresar al punto de partida lo que en este contexto significó un regreso del individuo a sí mismo, pero en este punto mediado por el artificio, es decir, se planteó el individuo ante el espejo: ante la naturaleza, ante el arte y ante la tecnología. El último capítulo surge como la configuración de un conjunto de espectros que se habían vislumbrado a lo largo del trabajo y que tienen en la última parte la posibilidad de cruzarse y generar nuevas lecturas. La motivación en percibir de que formas el concepto de intimidad se cruza con las problemáticas implícitas en el concebir y experimentar el espacio se va destilando a lo largo del trabajo: se identifican afinidades entre lo que podrá parecer ajeno, se admiten escisiones entre lo que se enseña uno, y se observan temas que por tan vinculados a las experiencias más banales del habitar se encuentran a menudo en el olvido. Este trabajo no es más que un acercamiento a las cuestiones más elementales del proyecto de arquitectura de alguien que más allá de experimentar el espacio como habitante se dispone también a pensarlo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En laboratorios de calibración neutrónica, si las diferencias entre los espectros neutrónicos “en el lugar de trabajo” y los utilizados en la instalación de calibración son muy acusadas, resulta muy complicado obtener factores de normalización adecuados, siendo conveniente tratar de producir campos neutrónicos “realistas”, es decir, cuyo espectro energético sea similar al existente en el lugar de trabajo, lo que permitiría la calibración directa de los instrumentos dosimétricos. Uno de los métodos utilizados, es el método de los “conos de sombra”. En este trabajo se presentan el diseño, caracterización y empleo de los conos de sombra del Laboratorio de medidas neutrónicas del Departamento de Ingeniería Nuclear de la ETSII-UPM LMN-UPM), empleándose una fuente de 241Am-Be.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente estudio tiene por objetivo la estimación, para un puente real, de la probabilidad anual de que dicha estructura sobrepase unos determinados estados límites utilizando el método SAC/FEMA. El estudio incorpora tanto los aspectos sismológicos, que llevan a establecer el movimiento probable que afectará a la estructura, como el modelado detallado de la misma y el estudio de su respuesta a dicho movimiento. El estudio de peligrosidad necesario para el desarrollo de la metodología anterior lleva a obtener los espectros de peligrosidad uniforme asociados a probabilidades de excedencia 2%, 10% y 50% en 50 años, y seleccionar en bases de datos registros coherentes con los correspondientes movimientos. Éstos niveles de solicitación se comparan con los equivalentes según el borrador de la Norma de Construcción Sismorresistente: Parte de Puentes (NCSE Puentes 2006), y se ponen de manifiesto las diferencias encontradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto fin de carrera se ha diseñado y construido un equipo de medida automático que permite realizar la medida de la constante de Planck utilizando los principios de Funcionamiento de los diodos LED. El equipo de medida es totalmente automático gracias a la utilización de una placa controladora Arduino MEGA 2560, que se encarga de realizar la iluminación secuencial de cada LED, medir sus tensiones de funcionamiento, y de realizar los cálculos necesarios para hallar la constante de Planck. Todos los datos se muestran por una pantalla LCD de 16 caracteres por 2 lineas. Para comprender el funcionamiento del sistema de medida automático se ha realizado un estudio detallado de cada uno de los sistemas que componen el equipo de medida. Se ha explicado el funcionamiento teórico de los diodos LED y el funcionamiento de los semiconductores. Se ha explicando los diversos tipos de semiconductores que se utilizan para los LED y las modificaciones que se les aplica para mejorar su eficiencia. Para poder comprender en qué consiste la constante de Planck se ha explicado los principios teóricos en que se basa, y se ha realizado una pequeña demostración de su cálculo. Una vez visto todos los principios teóricos se ha pasado a realizar la explicación de cada uno de los grandes bloques que componen el sistema de medida automático. Estos bloques son la placa controladora Arduino, el sistema de iluminación LED, el sistema de control mecánico de LEDs, la pantalla LCD, el sistema de interrupciones y el sistema de alimentación. Para poder observar el espectro de emisión de cada uno de los LED se ha utilizado un analizador de espectros óptico (OSA), el cual ha sido explicado con detenimiento. El código de programación de Arduino ha sido explicado en forma de diagrama de flujo para una mayor facilidad de comprensión. Se ha desarrollado un manual de usuario para facilitar el uso del sistema a cualquier usuario, en el que se ha introducido un ejemplo completo de funcionamiento. ABSTRACT. In this final Project has designed and built an automatic measuring equipment which is able to measure the Planck`s constant using the operation principles of the LEDs. The measuring equipment is fully automated thanks to the use of an Arduino Mega 2560 controller board, which is responsible for conducting sequential illumination of each LED, measure their operating voltages, and perform the necessary calculations of find the Planck constant. All data is displayed by a LCD screen 16 character by 2 lines. To understand the operation of the automatic measuring system has been made a detailed study of each of the systems that make the measurement equipment. It develops the theoretical performance of the LED and the operation of semiconductors. It explains the different types of semiconductors that are used for LEDs and the changes applied to improve efficiency. In order to understand what is the Planck constant has been explained the theoretical principles in which it is based, and a small demonstration of its calculation has been performed. After seeing all the theoretical principles has been made the explanation of each of the main blocks that compose the automatic measuring system. These blocks are the Arduino controller board, LED lighting system, the mechanical control system LEDs, LCD screen, the interrupt system and feeding system. To observe the emission spectrum of each of the LED has been used optical spectrum analyzer (OSA), which has been explained in detail. The Arduino programming code has been explained in flowchart form for an easy understanding. It has developed a manual to facilitate the use of system to any user, which has introduced a complete example of operation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Proyecto Fin de Carrera está destinado a la ilustración y aprendizaje del uso de varios dispositivos de los laboratorios del Departamento de Ingeniería Audiovisual y Comunicaciones, de la Escuela Universitaria de Ingeniería Técnica de Telecomunicación, de la Universidad Politécnica de Madrid, en forma de vídeos tutoriales basados en mediciones y prácticas habituales de las asignaturas del departamento para que puedan ser utilizados por los alumnos de la escuela como apoyo a las explicaciones del profesor en ocasiones puntuales. En concreto se han realizado hasta seis vídeos tutoriales en los que se explica: el diseño de un circuito impreso y la creación y fabricación de éste. Por otro lado, también se ha explicado el fenómeno del ruido de fase y cómo es el proceso de su medida, como una de las muchas características de un analizador de espectros. A modo de análisis, se ha realizado otro tutorial acerca de la modulación en FM, sus características y sus aplicaciones. Por último se ha hecho un estudio del comportamiento de un analizador de redes, exponiendo su funcionamiento y explicando su proceso de calibración. Para la realización de estos tutoriales se han utilizado diferentes aplicaciones sobre creación de vídeos multimedia, animación, producción de audio y narración. En especial se han usado: Sprint-Layout 5.0, Adobe Flash Professional CS5.5, Camtasia studio 7, Corel VideoStudio Pro X4, Loquendo TTS7 y WinPlot. Para el apartado de las grabaciones de las diferentes escenas se ha necesitado el uso de distintos instrumentos de medida del laboratorio tales como: analizador de espectros, analizador de redes, generador de señal, generador de funciones, osciloscopio y otros equipos adicionales como: cámara de vídeo y trípode del departamento. Para la composición de los diferentes tutoriales se ha comenzado creando un guion, para cada uno de ellos, estableciendo la aparición de las imágenes, vídeos, y locución. A continuación se exponen los diferentes temas en los que se han basado estos tutoriales de laboratorio, uno a uno. ABSTRACT. This Project is destined to learn the use of several devices at the laboratory of “Ingeniería Audiovisual y Comunicaciones” Department at “Escuela Universitaria de Ingeniería técnica de Telecomunicaciones” of “Universidad Politécnica de Madrid”, on the way as tutorial videos base on the subjects from this department to be used by the college students as help of the teacher’s explanations. In this project you will find up to six tutorial videos, showing: printed circuit design, printed circuit board manufacture. You can also find an explanation about the phenomenon of phase noise and how it’s its measurement process, as one of the many features of a spectrum analyzer. Another tutorial video is based on FM modulation, its features and applications. The last tutorial explains the networks analyzer functionalities and its calibration process. To carry out these tutorials different applications have been used to create multimedia videos, animation, audio production and storytelling. Such as Sprint Layout 5.0, Camtasia 7.0, Corel VideoStudio Pro X4, Adobe Flash Professional CS5.5, Loquendo TTS7 y WinPlot. About the recording side of the different scenes, several equipment have been required at the laboratory, such as spectrums analyzer, signal generator, oscilloscope, function generator, network analyzer and other additional devices, such as: a video camera with its tripod. The composition of the different tutorials has begun creating a script, for each of them, setting the times of appearance of images, video, speech and music. After this abstract, the different topics of the tutorials are showed, one by one.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe la necesidad de disponer de sistemas objetivos y rápidos para la determinación de la calidad de los productos agrícolas. Los sistemas ópticos y espectrofotométricos se han presentado como muy válidos para estos fines en muchos productos (Mohsenin, 1984) (tomates, peras, manzanas, patatas, carnes, huevos...) esto justifica el uso de estos métodos sobre nuevos materiales. Las restricciones impuestas a los colorantes artificiales por las nuevas legislaciones favorecen el consumo de colorantes de origen natural, como el pimentón. Es necesario encontrar un sistema rápido y eficaz que determine la calidad de este producto de creciente interés, (Mínguez, 1992; Conrad, 1987; Nagle 1979; Navarro y Costa, 1993 ). Además existen graves problemas en la comercialización de este producto por la poca transparencia del mercado. Se han producido, en los últimos años, importaciones de pimentón de Marruecos de muy baja calidad y precio, que se mezclaban con pequeñas proporciones de pimentón de humo, comercializándose como pimentón de alta calidad y a precios similares al pimentón producido en la Vera por el sistema tradicional, lo que supone un fraude. Es por tanto necesario encontrar un sistema que discrimine producto de alta calidad ( con color atractivo, alto nivel de carotenoides y alta estabilidad ) de pimentones de baja calidad o dañados ( por exceso de calor durante el secado, enranciamiento, etc.). El objetivo de este trabajo ha sido segregar diversas calidades de pimentón, para esto se disponía de pimentones procedentes de Extremadura, de líneas seleccionadas obtenidas por el SIA, secados por el método tradicional (humo) y con estufa, incluyendo muestras que presentan daños por quemado. Sin ningún conocimiento previo se ha trabajado sobre espectros de reflexión en VIS y NIR a los que se han aplicado ciertas transformaciones para la obtención de variables que fueran capaces de discriminar pimentones secados con humo de los secados con estufa y de los quemados. Realizando reiterados estudios estadísticos se ha llegado a establecer algunas variables útiles en la separación de estas tres clases, para ambos rangos del espectro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las tecnologías de la información y las comunicaciones cubren en nuestros días uno de los espectros más amplios de conocimiento tecnológico existente dentro del extenso campo conocido hoy como de las tecnologías emergentes, nuevas tecnologías o tecnologías punta. Su amplio desarrollo se ha debido, como será detallado más adelante, a su capacidad de servir, por una parte, de soporte básico para el desarrollo de casi todo el resto de las otras tecnologías y, por otra, a su propia capacidad de incidir directamente sobre un amplio segmento socioeconómico con amplias repercusiones, no sólo sobre su propia área de trabajo, sino sobre muchas otras como la Economía, la Calidad de Vida de los ciudadanos e, incluso, sobre el Medio Ambiente. Todo ello ha hecho que, en las últimas décadas, una gran parte del esfuerzo de investigación y desarrollo de los países más avanzados se haya centrado en este segmento tecnológico, sin que los periódicos altibajos a que se ha visto sometido el Sistema Ciencia y Tecnología a lo largo de estos años hayan apenas afectado a su ritmo de crecimiento. Sus repercusiones que serán analizadas brevemente en las próximas páginas, han alcanzado un nivel tal que hoy es imposible hablar de una sociedad desarrollada sin detallar su nivel tecnológico en este área. Por ello resulta imprescindible el realizar un estudio lo más detallado posible de cuál es la situación presente de las tecnologías de la información y las comunicaciones y de cuáles son las tendencias para un próximo futuro, si se pretende hacer un planteamiento realista de la evolución global de la tecnología considerada ésta en un sentido amplio y dependiente, como ya se ha dicho antes, de la evolución de éstas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el proceso de vinificación un aspecto de vital importancia es el control periódico de la concentración de azúcares durante la etapa de fermentación del mosto. Los métodos tradicionales de análisis en laboratorio, si bien son suficientemente precisos, conllevan un importante gasto de material y tiempo, y sólo proporcionan medidas discretas a lo largo del proceso de fermentación. En investigaciones recientes se ha aplicado el NIR espectrofotometría en el infrarrojo cercano a la predicción de los azúcares en distintos productos agrícolas (Bellón, V. l993, en manzanas; Barreiro. P. 1996, en tomates. El objetivo de este trabajo fue el desarrollo de un modelo de estimación del contenido de azúcares disueltos en el mosto, y el establecimiento de un sistema de predicción de la evolución de la fermentación. Mediante un espectrofotómetro con detector en el área del infrarrojo cercano (NIR) y un la medida de la transmisión de luz conducida por fibras ópticas, se adquirieron los datos espectrales de los mostos y vinos en fermentación controlada. Análisis matemáticos y estadísticos posteriores (transformación de los espectros, análisis de componentes principales y regresiones multilineales condujeron al establecimiento del modelo de estimación de los azúcares (con precisión de ±2,5 g/1). Los modelos desarrollados permiten la implantación de un sistema de toma de datos continuo en las cubas de fermentación de una bodega, para el control sistemático en tiempo real del proceso de elaboración del vino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La salinización en suelos de cultivos es un fenómeno muy relevante en el Sureste español que se produce por el empleo de aguas de riego salinas o de mala calidad. La lechuga (Lactuca sativa L.) es uno de los cultivos hortícolas de mayor implantación en esta área, destinándose principalmente para consumo en fresco y en productos cuarta gama. La salinidad puede afectar a la productividad y calidad del cultivo, sin embargo, en determinadas concentraciones investigaciones previas muestran que la salinidad puede favorecer la conservación de las hojas tras el corte, disminuyendo los procesos de degradación enzimática y el desarrollo de microorganismos. El objetivo del presente trabajo es evaluar la viabilidad de la imagen hiperespectral (400 a 1000 nm) para identificar la influencia del estrés salino en lechuga ?baby? recién recolectada. Para ello, se han adquirido imágenes de 40 hojas de diferentes lechugas sometidas a tres soluciones salinas diferentes y a una solución control. Dichas imágenes fueron sometidas a preprocesado de espectros (suavizado con el algoritmo Savitsky-Golay + normalización SNV), combinado con Análisis de Componentes Principales. Las imágenes virtuales de scores generadas con el modelo muestran diferencias progresivas en los valores asignados a los píxeles de las imágenes a medida que aumenta la concentración salina de la solución aplicada al cultivo. Se observa cómo la solución salina afecta a la hoja cambiando la coloración de las zonas medias, posiblemente debido a la concentración de solutos. La interpretación de los loadings de estos modelos permite conocer cómo afecta la salinidad al comportamiento espectral de las hojas. La imagen hiperespectral puede tener un gran potencial para identificar los límites de salinidad tolerados y evitar concentraciones tóxicas que afecten negativamente la vida útil de las hortalizas de hoja. Este conocimiento permitirá desarrollar índices multiespectrales capaces de identificar hojas afectadas por salinidad durante su cultivo y procesado postcosecha.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguridad alimentaria de hortalizas de hoja puede verse comprometida por contaminaciones microbianas, lo que ha motivado la promoción mundial de normas de seguridad en la producción, el manejo poscosecha y el procesado. Sin embargo, en los últimos años las hortalizas han estado implicadas en brotes de Escherichia coli, Salmonella spp y Listeria monocytogenes, lo que obliga a plantear investigaciones que posibiliten la detección de contaminación por microorganismos con técnicas rápidas, no destructivas y precisas. La imagen hiperespectral integra espectroscopia e imagen para proporcionar información espectral y espacial de la distribución de los componentes químicos de una muestra. Los objetivos de este estudio fueron optimizar un sistema de visión hiperespectral y establecer los procedimientos de análisis multivariante de imágenes para la detección temprana de contaminación microbiana en espinacas envasadas (Spinacia oleracea). Las muestras de espinacas fueron adquiridas en un mercado local. Se sometieron a la inoculación mediante la inmersión en suspensiones con poblaciones iniciales de 5 ó 7 unidades logarítmicas de ufc de una cepa no patógena de Listeria innocua. Después de 15 minutos de inoculación por inmersión, las hojas fueron envasadas asépticamente. Se consideró un tratamiento Control-1 no inoculado, sumergiendo las espinacas en una solución tampón (agua de peptona) en lugar de en solución inoculante, y un tratamiento Control-2 en el que las hojas no se sometieron a ninguna inmersión. Las muestras se almacenaron a 8ºC y las mediciones se realizaron 0, 1, 3, 6 y 9 días después de inocular. Cada día se determinaron los recuentos microbianos y se adquirieron las imágenes con una cámara VIS-NIR (400-1000 nm). Sobre los gráficos de dispersión de los scores de PC1 y PC2 (análisis de componentes principales computados sobre las imágenes hiperespectrales considerando el rango de 500-940 nm) se reconocieron diferentes patrones que se identificaron con niveles de degradación; así se seleccionaron píxeles que conformaron las clases de no degradados, semi-degradados y degradados. Se consideraron los espectros promedio de cada clase para asignar los píxeles anónimos a una de las tres clases. Se calculó la distancia SAM (Spectral Angle Mapper) entre el espectro promedio de cada categoría y cada espectro anónimo de las imágenes. Cada píxel se asignó a la clase a la que se calcula la distancia mínima. En general, las imágenes con los porcentajes más altos de píxeles levemente degradados y degradados correspondieron a contenidos microbiológicos superiores a 5 unidades logarítmicas de ufc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde el año 2004 el código ARWEN ha sido utilizado con éxito para simular y diseñar experimentos relacionados con blancos para fusión por confinamiento inercial [146], astrofísica de laboratorio [145], plasmas como amplificadores de láseres de rayos X [107] o plasmas creados por láser para la medición de espectros de transmisión. Para la realización de estas simulaciones es necesario, además de métodos de alto orden precisos y que presenten buenas propiedades conservativas, conocer ciertas propiedades de los plasmas. En el caso de la fluidodinámica y la conducción electrónica necesitaremos conocer la ecuación de estado [94, 49, 36], y para el transporte de la radiación será preciso disponer de los datos de absorción y emisión [104, 95, 40]. Hasta el año 2009 ARWEN dependía de códigos externos para la generación de estas tablas de opacidad, careciendo de control sobre los métodos empleados para su generación. Además estos códigos asumían equilibrio local termodinámico (LTE), limitando su validez a rangos de alta densidad y baja temperatura. En el marco de esta tesis se ha desarrollado el código BIGBART para la generación de tablas detalladas de opacidad y emisividad para su uso en el módulo de transporte de radiación. De esta forma el grupo dispondrá de su propia herramienta de generación de propiedades radiativas. El código desarrollado es capaz de tratar plasmas en estado fuera de equilibrio (non-LTE) mediante el modelo colisional-radiativo, extendiendo así el rango de validez de las tablas generadas. El trabajo desarrollado para implementar un código LTE/non-LTE estacionario es el siguiente Cálculo de estructura y datos atómicos. Se ha acoplado en código FAC a BIGBART, incorporando la capacidad para generar potenciales atómicos para una configuración y el cálculo de funciones de onda de electrones en orbitales ligados y libres. Aproximaciones y métodos para la obtención de tasas y secciones eficaces de procesos. Se han incluido y programado los modelos implementados en FAC para el cálculo de secciones eficaces de fotoionización, y tasas de decaimiento de emisión espontánea y autoionización. Además se ha incluido el modelo Plane-Wave Born (PWBA) para el cálculo de las secciones eficaces de ionización y excitación colisional. Modelos para la obtención de la distribución de estados iónicos dentro del plasma. Se ha programado un solver LTE basado en la ecuación de Saha-Boltzmann con efectos de ionización por presión debida a los iones adyacentes. También se ha implementado un modelo non-LTE colisionalradiativo para la resolución del sistema de ecuaciones que nos permite obtener la densidad de estados iónicos fuera de equilibrio. Modelo non-LTE RADIOM. Se ha implementado el modelo RADIOM para aproximar efectos de no-equilibrio mediante cálculos LTE a una temperatura equivalente, menor o igual que la temperatura electrónica real. Cálculo de las propiedades espectrales de absorción y emisión. Se han implementado los modelos para el cálculo de los perfiles espectrales de absorción y emisión para procesos entre niveles ligados, ligado-libre y librelibre. Aprovechando el trabajo realizado en este sentido, durante el transcurso de esta tesis se amplió el código BIGBART para tratar problemas con dependencia temporal. La extensión para tratar este tipo de problemas se orientó a la simulación numérica de la interacción de láseres ultra intensos en el rango XUV/rayos X. Para ello, además de adaptar el modelo non-LTE colisionalradiativo se incluyeron procesos adicionales asociados a la interacción de la materia con fotones altamente energéticos. También se han incluido modelos para el cálculo de las propiedades ópticas, y por ende las propiedades dieléctricas de la materia irradiada, de gran interés en algunas aplicaciones novedosas de estos láseres intensos. Debido a la naturaleza fuertemente fuera de equilibrio en la interacción de fotones de alta energía con la materia, se incluyó el tratamiento de la distribución de electrones libres fuera de equilibrio en la aproximación de Fokker-Planck, tanto para condiciones degeneradas como no degeneradas. El trabajo desarrollado en el código non-LTE con dependencia temporal es el siguiente Procesos asociados a láseres intensos XUV/rayos X. Se ha implementado el cálculo de procesos radiativos estimulados de absorción y emisión por el láser. También se han incluido procesos asociados a la creación de vacantes en capas internas electrónicas (Shake), además de doble autoionización y doble fotoionización. Cálculo de propiedades ópticas y dieléctricas en blancos sólidos. Se ha implementado un modelo para la absorción por bremsstrahlung inverso en blancos en estado sólido. Con el coeficiente de extinción debido a procesos de fotoabsorción resonante, fotoionización y bremsstrahlung inverso se obtiene el ´ındice de refracción mediante la relación de Kronig-Kramers. Electrones fuera de equilibrio. Se ha tratado la evolución de la distribución de electrones, cuando no está justificado asumir que es Maxwelliana o de Fermi-Dirac, mediante la aproximación de Fokker-Planck para la colisión entre electrones libres. En la resolución de la ecuación de Fokker-Planck se han incluido los procesos inelásticos por colisiones con iones y términos fuente por interacción con el láser y otros procesos. ABSTRACT Since 2004 the ARWEN code has been successfully used to simulate and design targets for inertial confinement fusion experiments [146], laboratory astrophysics [145], plasmas as X-ray lasers amplifiers [107] or laser created plasmas for measuring transmission spectra. To perform these simulations it is necessary, in addition to high order precise methods with good conservative properties, to know certain properties of plasmas. For fluid dynamic and electronic conduction we need to know the equation of state [94, 49, 36], and for radiation transport it will be necessary to have the data of the absorption and emission [104, 95, 40]. Until 2009 ARWEN depended on external codes to generate these opacity tables, lacking of control over the methods used for their generation. Besides, these codes assumed local thermodynamic equilibrium (LTE), limiting their validity ranges to high densities and low temperatures. As part of this thesis it has been developed the BIGBART code for generating detailed opacity and emissivity tables for use in the radiation transport module. This group will have its own tool for the generation of radiative properties. The developed code is capable of treating plasmas out of equilibrium (non-LTE) by means of a collisional-radiative model, extending the range of validity of the generated tables. The work to implement an LTE/non-LTE steady-state code is as follows Calculation of structure and atomic data. the FAC code was coupled to BIGBART, incorporating the ability to generate atomic potentials for calculating configuration wave functions for bound and free electrons. Approaches and methods for obtaining cross sections and processes rates. We have included and reprogrammed in Fortran the models implemented in FAC for calculation of photoionization cross sections and decay rates of spontaneous emission and autoionization. We also included the Plane- Wave Born (PWBA) model to calculate the cross sections of ionization and collisional excitation. Models for the obtention of the distribution of ionic states within the plasma. We programmed a LTE solver based on the Saha-Boltzmann equation with pressure ionization effects due to adjacent ions. It has also been implemented a non-LTE collisional-radiative model for solving the system of equations that allows us to obtain the density of ionic states out of equilibrium. Non-LTE RADIOM model. We have implemented the non-LTE RADIOM model to approximate non-equilibrium effects with LTE data at an equivalent temperature, lower or equal to the actual electronic temperature. Calculation of the spectral absorption and emission properties. Models have been implemented for the calculation of the spectral profiles of absorption and emission processes between bound levels, free-bound and free-free. Taking advantage of the work done in this direction throughout the course of this thesis the code BIGBART was extended to treat time-dependent problems. The extension to treat such problems is oriented to the numerical simulation of the interaction of ultra intense lasers in the XUV/X-ray range. For this range, in addition to adapting the non-LTE collisional-radiative model, additional processes associated with the interaction of matter with high energy photons. We also included models for calculation of the optical properties, and therefore the dielectric properties of the irradiated material, of great interest in some novel applications of these intense lasers. Due to the strong non-equilibrium nature of the interaction of high energy photons with matter, we included the treatment of the distribution of free electrons out of equilibrium in the Fokker-Planck approximation for both degenerate and non-degenerate conditions. The work in the non-LTE time-dependent code is as follows Processes associated with intense XUV/X-ray lasers. We have implemented the calculation of stimulated radiative processes in absorption and emission. Also we included processes associated with the creation of electronic vacancies in inner shells (Shake), double autoionization and double photoionization. Calculation of optical and dielectric properties in solid targets. We have implemented a model for inverse bremsstrahlung absorption in solid targets. With the extinction coefficient from resonant photoabsorption, photoionization and inverse bremsstrahlung the refractive index is obtained by the Kramers-Kronig relation. Electrons out of equilibrium. We treat the evolution of the electron distribution, when it is not justified to assume a Maxwellian or Fermi-Dirac distribution, by the Fokker-Planck approximation for collisions between electrons. When solving the Fokker-Planck equation we included inelastic collision processes with ions and source terms by interaction with the laser and other processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el mundo existen ciertos grupos de población que muestran una hipersensibilidad a determinados alimentos, y cuya ingestión accidental desencadena, una respuesta del tipo “shock” anafiláctico. Esto ha obligado a las empresas alimentarias a estudiar de forma exhaustiva la gestión del riesgo de todos sus productos. El cacahuete es uno de los principales alérgenos en la industria. La espectroscopia NIR se ha utilizado recientemente para analizar la cantidad total de aceite y ácido grasos en cacahuete intacto (Sudaram y colaboradores, 2012). El objetivo de este trabajo es estudiar métodos no destructivos basados en espectroscopia para la detección de trazas de cacahuete en alimentos en polvo, como complemento al método genético reacción en cadena de la polimerasa en tiempo real (Real Time -PCR) desarrollado por el grupo de investigación TRADETBIO de la UCM, en el marco de colaboración en el Campus de Excelencia Internacional Moncloa. Los materiales utilizados fueron cacahuetes de cinco variedades de origen geográfico distinto y sometidas a diferentes tratamientos, proporcionadas por el Instituto de Materiales de Referencia CE, así como leche en polvo, cacao, harina de trigo, y cacahuete de diferentes marcas comerciales. Para todos ellos, se adquirieron dos series de espectros: en el infrarrojo cercano NIR (896-1686 nm), y los extraídos de imágenes hiperespectrales HIS (400-1000nm). La espectroscopia VIS se mostró sensible a las diferencias en el cacahuete en cuanto a su origen y/o tratamiento, ya que inducen cambios en el color, siendo inviable la separación entre los cacahuetes blanqueados, la leche y la harina en esta región espectral. Las principales diferencias entre los cacahuetes y el resto de ingredientes alimentarios se han encontrado en el rango NIR, específicamente en las longitudes de onda de (1207-1210 nm), relacionadas con una región de absorción de los lípidos. El infrarrojo permite 100% de segregación de cualquier tipo de cacahuete respecto al resto de los ingredientes alimentarios. La espectroscopia NIR combinada con las técnicas de imagen (hiperespectral o multiespectral) podría por tanto, ser aplicado para detectar trazas de cacahuetes en alimentos en polvo, no influyendo su origen y/o tratamiento, ya que es capaz de separar cualquier cacahuete del resto de los ingredientes alimentarios. Este método podría ser una técnica de cribado previo al método PCR de elevado coste.