1000 resultados para Intérvalo de simulación
Resumo:
El avance de la presión antrópica sobre las márgenes de los cauces, y la creciente dificultad técnica, política y social para ejecutar nuevos proyectos de grandes presas, promueve la necesidad de utilizar más eficientemente los sistemas de control de avenidas existentes. En el presente trabajo se presenta una metodología de análisis para evaluar y comparar las estrategias de gestión de embalses, considerando su operación individual, a fin de establecer la más adecuada. En particular se comparan dos modos de gestión ante situación de avenidas: el Método de Evaluación Volumétrica (MEV) desarrollado por Girón (1988), de amplia difusión en España, y un modelo de optimización de la gestión mediante Programación Lineal Entera Mixta (PLEM). Para ello se ha implementado un entorno de cálculo con estructura modular. El primer módulo permite generar un conjunto representativo de hidrogramas de entrada a los embalses mediante simulación de Monte Carlo. Luego, dos módulos que funcionan en paralelo simulan la gestión del embalse según las dos estrategias mencionadas (MEV y PLEM). Finalmente, se evalúa el comportamiento de ambas estrategias ante el conjunto de solicitaciones hidrológicas generado. Se propone el empleo del Índice de Riesgo Global (I1), que pondera el resultado de la estrategia de gestión frente a un conjunto de hidrogramas de solicitación. Dicho indicador tiene en cuenta el daño esperado debido a los caudales máximos vertidos y el riesgo para la presa debido a los niveles máximos alcanzados en el embalse. Para ello se analiza la función de distribución de probabilidad de las dos variables (máximo caudal vertido y máximo nivel alcanzado) para la población de hidrogramas analizada. El modelo PLEM se calibra empleando el índice I1. Este mismo índice es utilizado para comparar ambas estrategias, entendiendo como la más adecuada aquella que tenga asociado el menor I1. Este sistema de análisis se aplicó a tres embalses de la cuenca del río Segura, con diferentes características en lo referente al tipo y capacidad de aliviadero, volumen de embalse y de resguardo. En los tres casos se han obtenido mejores resultados con el modelo PLEM que con el modelo MEV, tanto en lo concerniente a caudales máximos vertidos como a los niveles máximos alcanzados, para todo el rango de avenidas analizado. Sin embargo, la diferencia entre ambas estrategias no es muy significativa y el MEV presenta características que lo hacen más adecuado para su empleo en tiempo real
Resumo:
Uno de los objetivos del Proyecto europeo NURISP (NUclear Reactor Integrated Platform) del 7º Programa Marco es avanzar en la simulación de reactores de agua ligera mediante el acoplamiento de códigos best-estimate que profundicen en la física de núcleo, termohidráulica bifásica y comportamiento del combustible [1]. Uno de estos códigos es COBAYA3, código de difusión 3D en multigrupos pin-by-pin desarrollado en la UPM, que requiere de librerías de secciones eficaces homogeneizadas a nivel de la barrita de combustible.
Resumo:
Debido a la existencia de recomendaciones europeas que establecen valores por defecto ante la ausencia de datos en el proceso de realización de un mapa de ruido [1], se ha evaluado la influencia de aplicar dichos valores en un caso concreto como es el mapa estratégico de ruido de Palma de Mallorca. Se compararon los resultados de la simulación tras aplicar dichos valores por defecto con niveles de ruido obtenidos mediante medidas experimentales y se analizaron las desviaciones para determinar la calidad del modelo. Después de obtener un primer resultado de calidad inaceptable, se ha cuantificado la mejora de los resultados tras la utilización de datos de entrada de mayor calidad al modelo acústico. Este análisis demuestra que el uso de datos por defecto, en ausencia de datos de entrada de mayor calidad, genera unos resultados con desviaciones superiores a los 9 dB. Consecuentemente, se obtuvieron nuevos datos de entrada al modelo con mayor calidad, analizando su efecto en la reducción de la incertidumbre del resultado final del mapa de ruido. El proceso de obtención de dichos datos consistió en el desarrollo de una actualización de los datos de tráfico con mayor número de datos de flujo; la implementación de una nueva categorización viaria; y la utilización de técnicas novedosas para la adquisición de composición y velocidad de tráfico
Resumo:
El comportamiento de los materiales granulares almacenados en silos se ve afectado por varios parámetros, tanto aquellos característicos del material como de la geometría del silo. La determinación del coeficiente de rozamiento pared-partícula es uno de los parámetros de mayor importancia, siendo habituales en su determinación el uso de ensayos de corte directo. En el presente trabajo se estudia dicho coeficiente para el supuesto de una pared corrugada, el cual, teóricamente, debe representar a un valor efectivo que depende tanto del coeficiente de rozamiento grano-pared (para el caso de una pared lisa) y el ángulo de rozamiento interno del material. La determinación del rozamiento efectivo se ha realizado a través de la simulación por elementos discretos de un ensayo de corte sobre una pared corrugada. Los valores obtenidos han sido comparados con las prescripciones expuestas en la normativa vigente. La potencialidad del método de los elementos discretos permite el estudio de diversas configuraciones geométricas de la pared corrugada de los silos sin necesidad de realizar ensayos de laboratorio. Esto permitirá, en trabajos sucesivos, investigar la influencia de muy diversos factores en el valor del rozamiento efectivo grano-pared en este tipo de paredes. The mechanical behaviour of granular materials stored in silos is affected by numerous parameters, some of them being related to the characteristic of the stored materials and others to the geometry of the silo. The determination of the particle-wall friction coefficient (or wall friction) is of great importance and direct shear tests are usually conducted in order to obtain its value. In this work this variable is analysed for the case of a corrugated wall. This value is expected to be an effective value between the particle-wall friction coefficient (obtained for a flat wall) and the internal friction coefficient of the material under study. The effective wall friction determination has been carried out by using a discrete element model to simulate a direct shear test on a corrugated wall. The values obtained have been compared with prescriptions given in the current standards. The potential of the discrete element method allows different geometries of the silo corrugated wall to be considered without the necessity of developing laboratory tests. In future works it will allow the influence of numerous parameters on the effective wall friction in corrugated walls to be studied.
Resumo:
La presente investigación parte del problema en las zonas de clima cálido - húmedo en las cuales se producen impactos asociados a la incomodidad térmica producto de la intensa radiación solar, altas temperaturas y elevada humedad. Estos factores reducen la calidad de los espacios abiertos y desarrollan en la población una actitud de rechazo hacia el uso del microespacio urbano entre edificaciones en los desarrollos urbanos - conjuntos urbanos - , los mismos frecuentemente admiten soluciones que al parecer no contribuyen a la realización de las actividades comunes de esparcimiento de la población residente. Por lo tanto, el objetivo de la investigación es profundizar en la temática urbano - ambiental - social y el diseño urbano vinculada a la particularidad morfológica local, las condiciones microclimáticas, el uso del microespacio y los requerimientos de los usuarios. La finalidad de desarrollar estrategias de control microclimático del microespacio entre edificios en clima cálido - húmedo en búsqueda de soluciones óptimas que satisfagan las necesidades de los usuarios de los espacios exteriores en estas áreas residenciales. La investigación se centra en el estudio de las particularidades contextuales relacionadas con el microclima y las características urbanas - morfotipológicas, básicamente los factores microclimáticos (soleamiento y ventilación), los morfológicos y edificatorios y las características de las superficies (pavimentos). En coherencia con el objetivo propuesto el trabajo se desarrolla en cuatro fases: la primera aborda la revisión documental, literatura relevante e investigaciones relativas a la calidad ambiental, medio social, medio físico, el microespacio urbano, control y diseño sostenible, modelización proyectual y estrategias sostenibles; la segunda fase se refiere al marco contextual, características urbanas, datos climáticos locales, planes y procesos urbanos, tipologías y conformación urbana. En esta fase se describe el proceso de selección, análisis y evaluación urbano - ambiental de los casos de estudio (conjuntos residenciales). En la tercera fase se aborda el marco evaluativo y estudio de casos, consideraciones físicas, climáticas y valoración térmico - ambiental de los conjuntos residenciales seleccionados. En esta fase se aplican Técnicas Estadísticas y de Simulación Computacional y se analizan los resultados obtenidos. Finalmente, la cuarta fase propositiva incluye el establecimiento de Estrategias, Principios y Lineamientos de optimación térmica y se exponen las Conclusiones parciales de la tesis, alcances y perspectivas futuras. Finalmente, los resultados obtenidos en la investigación demuestran que el análisis en las experiencias de la realidad permiten comprobar que las situaciones y alteraciones ambientales sustanciales, los niveles de afectación térmica y las condiciones de confortabilidad e impacto derivan de las características urbanas, los componentes del microespacio y de las condiciones climáticas las cuales afectan el desarrollo de las actividades y el uso efectivo del microespacio entre edificios. El análisis de los factores morfo - climáticos incidentes y el estudio de los efectos de interacción contribuyen al establecimiento de Principios y Lineamientos para la evaluación y diseño sostenible del microespacio entre edificios y el uso correcto de los elementos del clima en estas áreas urbanas destinadas a la actividad social y al esparcimiento de la población residente. ABSTRACT This research starts from the problem of hot - humid climate zones where impacts related to thermal discomfort are produced as a result from the intense solar radiation and high temperatures and humidity. These factors reduce the quality of open spaces and people develop an attitude of rejection towards the use of urban microspace among buildings within urban developments - urban complexes - . Usually, these complexes admit solutions that apparently do not contribute to the achievement of common leisure activities in the resident dwellers. Therefore, the main purpose of this research is to deepen in the urban - environmental - social issue and urban design linked to the local morphological particularity, microclimate conditions, use of microspace and users’ requirements. In order to develop microclimate control strategies of microspace among buildings in hot - humid climate to look for optimal solutions that satisfy users’ needs of outdoors spaces in these residential areas. The research focuses in the study of contextual particularities related to microclimate and urban - morphotypological characteristics. Basically, microclimate (sunlight and ventilation), morphological and building factors as well as road surface characteristics. According to the proposed objective, this research is developed in four phases: the first one considers documentary review, relevant literature and researches related to environmental quality, social environment, physical environment, urban microspace, control and sustainable design, project modelling and sustainable strategies; while the second phase refers to contextual framework, urban characteristics, local climate data, plans and urban processes, typologies and urban structure. In this phase, the process of selection, analysis and urban - environmental evaluation of case studies (residential complexes) is described. The third phase approaches the assessment framework and case studies, physical and climate considerations as well as environmental - thermal evaluation of selected residential complexes. In this phase, statistical techniques and computational simulations are applied. Likewise, results obtained are analysed. Similarly, fourth and proposing phase includes the establishment of strategies, principles and guidelines of thermal optimization and partial conclusions of the thesis, scopes and future perspectives are exposed. Finally, from the results obtained, it is demonstrated that the analysis on reality experiences allow proving that situations and substantial environmental changes, levels of thermal affectations, comfort conditions and impact derive from urban characteristics, microspace components and from climate conditions which affect the development of activities and the effective use of microspace among buildings. The analysis of incidental morpho - climate factors and the study of interaction effects contribute to the establishment of principles and guidelines for the assessment and sustainable design of microspace among buildings as well as the correct use of climate elements in these urban areas oriented to social and leisure activities of resident population.
Resumo:
En el año 2002 durante una inspección se localizó una importante corrosión en la cabeza de la vasija de Davis Besse NPP. Si no se hubiera producido esa detección temprana, la corrosión hubiera provocado una pequeña rotura en la cabeza de la vasija. La OECD/NEA consideró la importancia de simular esta secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Los resultados de este test experimental fueron muy analizados internacionalmente por la gran influencia que dos factores tenía sobre el resultado: las acciones del operador relativas a la despresurización y la detección del descubrimiento del núcleo por los termopares que se encuentran a su salida. El comienzo del inicio de la despresurización del secundario estaba basado en la determinación del descubrimiento del núcleo por la lectura de los temopares de salida del núcleo. En el experimento se registró un retraso importante en la determinación de ese descubrimiento, comenzando la despresurización excesivamente tarde y haciendo necesaria la desactivación de los calentadores que simulan el núcleo del reactor para evitar su daño. Dada las condiciones excesivamente conservadoras del test experimentale, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”
Resumo:
La simulación de accidentes de rotura pequeña en el fondo de la vasija se aparta del convencional análisis de LOCA de rama fría, el más limitante en los análisis deterministas La rotura de una de las penetraciones de instrumentación de la vasija ha sido desestimada históricamente en los análisis de licencia y en los Análisis Probabilistas de Seguridad y por ello, hay una falta evidente de literatura para dicho análisis. En el año 2003 durante una inspección, se detectó una considerable corrosión en el fondo de la vasija de South Texas Project Unit I NPP. La evolución en el tiempo de dicha corrosión habría derivado en una pequeña rotura en el fondo de la vasija si su detección no se hubiera producido a tiempo. La OECD/NEA consideró la importancia de simular dicha secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Tanto en el experimento como en la simulación se observaron las dificultades de reinundar la vasija al tener la rotura en el fondo de la misma, haciendo clave la gestión del accidente por parte del operador. Dadas las condiciones excesivamente conservadoras del test experimental, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”
Resumo:
La catenaria rígida presenta algunas características que la hacen especialmente apropiada para su montaje en líneas de metro, si bien el aumento del límite de velocidad de los vehículos destinados a las líneas modernas exige un diseño más eficiente para estos sistemas. En este trabajo se ha analizado el comportamiento dinámico de este tipo de sistemas de captación, a fin de diseñar un nuevo carril conductor con un comportamiento dinámico superior al de los ya existentes. Esto implica la posibilidad de aumentar la velocidad de circulación o la distancia entre soportes, con el consiguiente ahorro del coste de instalación. A tal fin, se ha modelizado un sistema pantógrafo-catenaria real, empleando técnicas avanzadas de modelado y simulación. Se ha realizado un estudio de sensibilidad, para analizar la influencia de cada variable de diseño sobre el comportamiento dinámico del conjunto, y se ha diseñado un carril conductor con mejores prestaciones que el actual.
Resumo:
En este artículo se describe el proceso de diseño e implementación de la base de datos RVDynDB (Rail Vehicle Dynamic parameters DataBase), que pretende ser un extenso repositorio de los modelos de dominio público empleados en la simulación dinámica de vehículos ferroviarios en todo el mundo. Atendiendo a sus características de flexibilidad, extensibilidad e independencia de la plataforma, se ha escogido un modelo de datos XML, que facilita el almacenamiento de datos de procedencia muy heterogénea, al tiempo que permite compartir el contenido de la base de datos con otros usuarios a través de internet. Se ha presentado también el lenguaje RVDynML (Rail Vehicle Dynamic parameters Markup Language), que define la estructura de la información almacenada en la base de datos. Al ser un lenguaje basado en XML, con el tiempo podría llegar a convertirse en un estándar para el intercambio de datos sobre los principales parámetros constructivos que definen el comportamiento dinámico de los vehículos.Se han seleccionado 173 referencias bibliográficas, cuyos datos se han utilizado para construir la base de datos, constituida por un total de 957 registros. Finalmente, se ha desarrollado una aplicación específica con MATLAB para gestionar las búsquedas en la base de datos. Para ello se ha empleando una API de Java que proporciona una interfaz para el DOM, que permite permiten acceder, modificar, insertar o eliminar los elementos y atributos que componen un documento XML.
Resumo:
Resumen El diseño clásico de circuitos de microondas se basa fundamentalmente en el uso de los parámetros s, debido a su capacidad para caracterizar de forma exitosa el comportamiento de cualquier circuito lineal. La relación existente entre los parámetros s con los sistemas de medida actuales y con las herramientas de simulación lineal han facilitado su éxito y su uso extensivo tanto en el diseño como en la caracterización de circuitos y subsistemas de microondas. Sin embargo, a pesar de la gran aceptación de los parámetros s en la comunidad de microondas, el principal inconveniente de esta formulación reside en su limitación para predecir el comportamiento de sistemas no lineales reales. En la actualidad, uno de los principales retos de los diseñadores de microondas es el desarrollo de un contexto análogo que permita integrar tanto el modelado no lineal, como los sistemas de medidas de gran señal y los entornos de simulación no lineal, con el objetivo de extender las capacidades de los parámetros s a regímenes de operación en gran señal y por tanto, obtener una infraestructura que permita tanto la caracterización como el diseño de circuitos no lineales de forma fiable y eficiente. De acuerdo a esta filosofía, en los últimos años se han desarrollado diferentes propuestas como los parámetros X, de Agilent Technologies, o el modelo de Cardiff que tratan de proporcionar esta plataforma común en el ámbito de gran señal. Dentro de este contexto, uno de los objetivos de la presente Tesis es el análisis de la viabilidad del uso de los parámetros X en el diseño y simulación de osciladores para transceptores de microondas. Otro aspecto relevante en el análisis y diseño de circuitos lineales de microondas es la disposición de métodos analíticos sencillos, basados en los parámetros s del transistor, que permitan la obtención directa y rápida de las impedancias de carga y fuente necesarias para cumplir las especificaciones de diseño requeridas en cuanto a ganancia, potencia de salida, eficiencia o adaptación de entrada y salida, así como la determinación analítica de parámetros de diseño clave como el factor de estabilidad o los contornos de ganancia de potencia. Por lo tanto, el desarrollo de una formulación de diseño analítico, basada en los parámetros X y similar a la existente en pequeña señal, permitiría su uso en aplicaciones no lineales y supone un nuevo reto que se va a afrontar en este trabajo. Por tanto, el principal objetivo de la presente Tesis consistiría en la elaboración de una metodología analítica basada en el uso de los parámetros X para el diseño de circuitos no lineales que jugaría un papel similar al que juegan los parámetros s en el diseño de circuitos lineales de microondas. Dichos métodos de diseño analíticos permitirían una mejora significativa en los actuales procedimientos de diseño disponibles en gran señal, así como una reducción considerable en el tiempo de diseño, lo que permitiría la obtención de técnicas mucho más eficientes. Abstract In linear world, classical microwave circuit design relies on the s-parameters due to its capability to successfully characterize the behavior of any linear circuit. Thus the direct use of s-parameters in measurement systems and in linear simulation analysis tools, has facilitated its extensive use and success in the design and characterization of microwave circuits and subsystems. Nevertheless, despite the great success of s-parameters in the microwave community, the main drawback of this formulation is its limitation in the behavior prediction of real non-linear systems. Nowadays, the challenge of microwave designers is the development of an analogue framework that allows to integrate non-linear modeling, large-signal measurement hardware and non-linear simulation environment in order to extend s-parameters capabilities to non-linear regimen and thus, provide the infrastructure for non-linear design and test in a reliable and efficient way. Recently, different attempts with the aim to provide this common platform have been introduced, as the Cardiff approach and the Agilent X-parameters. Hence, this Thesis aims to demonstrate the X-parameter capability to provide this non-linear design and test framework in CAD-based oscillator context. Furthermore, the classical analysis and design of linear microwave transistorbased circuits is based on the development of simple analytical approaches, involving the transistor s-parameters, that are able to quickly provide an analytical solution for the input/output transistor loading conditions as well as analytically determine fundamental parameters as the stability factor, the power gain contours or the input/ output match. Hence, the development of similar analytical design tools that are able to extend s-parameters capabilities in small-signal design to non-linear ap- v plications means a new challenge that is going to be faced in the present work. Therefore, the development of an analytical design framework, based on loadindependent X-parameters, constitutes the core of this Thesis. These analytical nonlinear design approaches would enable to significantly improve current large-signal design processes as well as dramatically decrease the required design time and thus, obtain more efficient approaches.
Resumo:
El proyecto se encuadra en el ámbito de la generación automática de interfaces de usuario, orientados a entornos web y con contenido multimedia, por otro lado dicha generación de interfaces, encaja en la disciplina de simulación del periodismo de datos, concretamente en el área de presentación y difusión. Sobre la generación automática de interfaces de usuario, en este proyecto se considera un tipo de interfaz de usuario a modo de periódico virtual, que permita al usuario visualizar de forma clara la información de diferentes noticias y permita la interacción entre los diferentes elementos de dicha presentación. Dicho interfaz de usuario se diseña usando la metáfora periodística, es decir, con un esquema de organización similar al del periódico clásico, para así facilitar la comprensión de las noticias, gracias a un interfaz sencillo y claro. OBJETIVOS El objetivo principal de este proyecto consiste en dar solución a la problemática de generar presentaciones multimedia de manera automática. Dichas presentaciones deben mostrar de una manera clara y sencilla la información a partir de planes de presentación de noticias y un sistema de base de datos. Para dicho fin se pretende desarrollar una herramienta, que genere presentaciones, a modo de periódico virtual. Las presentaciones de las noticias permiten al usuario interactuar de manera directa con los diferentes elementos de la presentación, ya sean texto, imágenes, animaciones, gráficos, mapas, etc. lo que facilita la comprensión de la información que se quiere ofrecer al usuario. De manera más detallada se presentan los objetivos concretos para el desarrollo del presente proyecto fin de carrera: • Análisis del problema. Se realiza un estudio de la problemática que se pretende solucionar con el sistema. Se revisan las técnicas y estado de la técnica en el campo Generador de interfaces de usuario como periódicos gráficos interactivos 4 de la generación automática de interfaces de usuario y su adaptación para ofrecer la difusión de la información a través de internet mediante aplicaciones web. Se identifica y estudia el contexto del sistema, el cual se orienta a la simulación del periodismo de datos. • Diseño del sistema. Se pretende diseñar un sistema informático completo, desde la capa de datos hasta la capa de presentación, que cumpla con los objetivos o requisitos propuestos. El diseño es general dado que un objetivo es permitir que el sistema pueda operar en dominios de naturaleza variada. • Implementación. Se aborda la fase de implementación con el objetivo de realizar un código modular, que sea fácil de mantener y aumentar, ya que esta herramienta pretende ofrecer servicio a diferentes sistemas de dominios variados y por lo tanto pueden surgir nuevas necesidades según el ámbito donde opere. Otro objetivo en esta parte del desarrollo, es que el sistema sea eficiente y capaz de manejar grandes volúmenes de datos así como realizar una adecuada generación automática de la presentación multimedia con texto y gráficos. • Validación. Para verificar el buen funcionamiento del sistema se desarrollan pruebas específicas que prueban las funcionalidades del sistema de manera unitaria. Para probar la generalidad del sistema se plantean diversos ejemplos de noticias en diferentes escenarios o dominios de datos, lo que nos permite comprobar la versatilidad del sistema. Para probar la robustez y solidez del sistema se pretende introducir este generador de interfaces de usuario dentro de un sistema generador automático de noticias de información hidrológica en tiempo real. El sistema generador de interfaces de usuario debe recoger cada plan de noticia, realizar automáticamente la presentación de cada noticia y organizar toda la colección de dichas noticias en un periódico virtual adaptado a las noticias que va a presentar. ORGANIZACIÓN DE LA MEMORIA La memoria se estructura de la siguiente manera; en primer lugar se presenta el estado de la técnica, con los avances y últimos desarrollos en la temática de la generación automática de interfaces de usuario, las aplicaciones web como solución de interfaz de usuario y de difusión a través de internet y los avances en simulación de periodismo dirigido por datos. Seguidamente se presenta la descripción del software, con una explicación de las diferentes fases del proceso de desarrollo software, como análisis, diseño e implementación, así como la ubicación que ocupa este sistema en un sistema de simulación de periodismo de datos. En esta parte se muestran los detalles concretos a tecnologías, lenguajes y bibliotecas utilizadas. En el siguiente capítulo se trata la validación del producto, se detallan las características del sistema automático de información hidrológica (SAIH), con el cual se ha podido probar completamente el sistema de generación automática de interfaces de usuario. Seguidamente se detallan las conclusiones a las que se ha llegado después de la realización de este proyecto, haciendo un repaso de los objetivos planteados así como las líneas futuras sobre estas técnicas. Por último se adjunta el manual de usuario de la herramienta y una colección de ejemplos mostrando las entradas y salidas procesadas por el software.
Resumo:
El modelo de Ising es un problema de física estadística que tiene solución exacta en dos dimensiones, para el caso de tres dimensiones es preciso utilizar procedimientos de simulación. En este trabajo se ha utilizado un método de Monte Carlo para estudiar el comportamiento del sistema en distintas situaciones, siendo de especial interés el estudio del paso por la transición de fase a la temperatura crítica (Temperatura de Curie, Tc). Se ha estudiado la cinética de los dominios magnéticos, considerando la estructura de los dominios desde el punto de vista de la energía, y en consecuencia, hemos tenido en cuenta la energía de canje que tiende a mantener alineados los espines de los electrones en los materiales ferromagnéticos. Este término contribuye a hacer mayor el espesor de la pared, por la tendencia a que los espines de los átomos vecinos se mantengan alineados. Se ha considerado el ferromagnetismo desde el punto de vista cuántico y basado en las propiedades de simetría de las funciones de onda de los electrones, que se manifiestan en variaciones de la energía electrostática de un sistema en función de la orientación de sus espines. Se han estudiado los efectos de histéresis que resultan al aplicar un campo magnético externo a la red y la orientación de los espines de la misma a lo largo de su evolución. Para la determinación de las propiedades de los materiales ferromagnéticos se utiliza el ciclo de histéresis aunque algunas de las propiedades magnéticas, como la dirección de anisotropía, no pueden ser deducidas directamente de esta manera. Se utilizan distintos métodos para la determinación de la anisotropía de las muestras. El acoplamiento entre la magnetización en zonas próximas a la superficie y la magnetización en zonas internas de la muestra puede ser utilizado para obtener un ciclo de histéresis, que permita obtener sensores magnéticos adaptados a las medidas que se quieran realizar. Mediante el control del campo coercitivo y la susceptibilidad se abre una línea de investigación para el desarrollo de sensores magnéticos
Resumo:
En este trabajo se presentan las líneas de investigación, y resultados, de Materiales Amorfos, Tratamiento y Caracterización de materiales y Simulación de Procesos del Grupo de Sensores y Actuadores. Estas líneas de investigación están orientadas al desarrollo y aplicación de tecnologías, dentro del ámbito de la edificación, enfocadas a la mejora de la eficiencia energética. Se llevan a cabo, principalmente, en la Escuela Universitaria de Arquitectura técnica, y para ello se dispone de los medios asociados al Grupo de Sensores y Actuadores y situados en el laboratorio de Automatismos de la Escuela Universitaria de Arquitectura técnica.
Resumo:
Se presenta en este trabajo una nueva caracterización del movimiento del suelo en la presa de Itoiz, consistente con la peligrosidad sísmica del emplazamiento. En primer lugar, proponemos una metodología con tres niveles de aproximación al movimiento esperado, que es después aplicada considerando las características particulares de la presa y su emplazamiento. Los cálculos de peligrosidad se realizan siguiendo la línea metodológica conocida como PSHA, con un método probabilista zonificado y formulando un árbol lógico que combina diferentes zonificaciones sísmicas y modelos de movimiento fuerte. La peligrosidad se representa en términos de la aceleración pico PGA y de las aceleraciones espectrales para periodos coincidentes con los de vibración de la presa, considerando dos estados de la misma correspondientes a presa vacía (T=0.1s) y presa con capacidad máxima de llenado (T=0.22 s). Se caracterizan los correspondientes movimientos para dos periodos de retorno, 975 años y 4975 años, asociados al sismo de proyecto y al sismo extremo, respectivamente. El efecto de sitio en el emplazamiento de la presa también fue tenido en cuenta. La metodología propuesta conduce a caracterizar el movimiento con tres niveles de detalle. En una primera etapa se obtienen los espectros de respuesta uniforme (UHS) para los dos niveles de movimiento referidos. Seguidamente se desarrolla un análisis de desagregación para obtener los sismos de control que previsiblemente pueden afectar mas a la presa. Estos se identifican como los que más contribuyen a los movimientos objeto dados por las aceleraciones espectrales de los dos periodos característicos, SA (0,1 s) y SA (0.22 s) y para los dos periodos de retorno de 975 y 4975 años asociados a lo sismos de proyecto y extremo. De ahí se obtienen los espectros de respuesta específicos para las cuatro combinaciones resultantes. Finalmente, se realiza una simulación del movimiento en el dominio del tiempo, obteniendo acelerogramas sintéticos mediante el método de número de onda discreto. Las simulaciones se realizaron considerando fuentes finitas en diferentes posiciones y evaluando el efecto de la directividad en las posibles fuentes consideradas. Se concluye destacando la importancia del efecto de directividad, en la caracterización del emplazamiento de la presa.
Resumo:
Este trabajo presenta ciertos resultados recientes que están relacionados con el equilibrio dinámico de puentes líquidos mantenidos entre discos solidos paralelos y coaxiales. Estos estudios tienen por objeto analizar los experimentos realizados a bordo del spacelab en diciembre de 1983. Se ha desarrollado un programa muy activo en tierra para simular, tanto numérica como experimentalmente, los efectos de la gravedad reducida en configuraciones capilares. La simulación con la técnica de plateau permite obtener en muchos casos resultados extremadamente precisos, siempre que se ponga un gran cuidado en gobernar la densidad del liquido soporte. Aunque las aplicaciones comerciales de estas investigaciones están lejos, su contenido científico justifica trabajar mas todavía. En el caso particular que consideramos, el puente liquido es la configuración mas sencilla, voluminosa y gobernable limitada por una superficie libre no plana, y esto es en sí mismo científicamente interesante. La competencia comercial con desarrollos paralelos en tierra será desfavorable para los procesos espaciales mientras no aumenten las oportunidades de vuelo.