14 resultados para Núcleos da rafe
em Universidad Politécnica de Madrid
Resumo:
Uno de los objetivos del Proyecto europeo NURISP (NUclear Reactor Integrated Platform) del 7º Programa Marco es avanzar en la simulación de reactores de agua ligera mediante el acoplamiento de códigos best-estimate que profundicen en la física de núcleo, termohidráulica bifásica y comportamiento del combustible [1]. Uno de estos códigos es COBAYA3, código de difusión 3D en multigrupos pin-by-pin desarrollado en la UPM, que requiere de librerías de secciones eficaces homogeneizadas a nivel de la barrita de combustible.
Resumo:
La tendencia más extendida actualmente para el análisis tridimensional de núcleos PWR se basa en la utilización de códigos de difusión en multigrupos. Uno de ellos es el código COBAYA3, desarrollado en el Departamento de Ingeniería Nuclear de la Universidad Politécnica de Madrid. Estos códigos emplean como datos de entrada librerías de parámetros equivalentes homogeneizados (secciones eficaces y factores de discontinuidad), que dependen, entre otros, de las variables locales en el reactor (temperatura del combustible, temperatura del moderador, densidad del moderador y concentración de boro). Típicamente, esos parámetros se pre-generan para cada tipo de elemento con un código de transporte determinista..
Resumo:
Mostraremos los resultados obtenidos en la búsqueda de las condiciones de crecimiento óptimas para que las propiedades magnéticas de aleaciones de CoP sean las adecuadas para utilizarlas como núcleos de sensores. Demostraremos que utilizando una densidad de corriente adecuada en el proceso de electrodeposición, es posible obtener aleaciones formadas por capas ferromagnéticas de distinta composición que presentan anisotropía en el plano y un campo coercitivo comparable al de las aleaciones producidas por enfriamiento ultrarrápido. Como ánodos empleamos láminas de cobalto de 1 mm de espesor y una pureza del 99.95%. Como sustratos utilizamos tanto láminas de Cu como sustratos fabricados por sputtering. Durante la electrodeposición se ha utilizado la agitación del electrolito y la vibración del cátodo para facilitar el desprendimiento de las burbujas de H2 que se generan durante el proceso. De esta forma se han obtenido las monocapas controlando los dos parámetros siguientes: la densidad de corriente y el tiempo de aplicación de la misma. Por otro lado, para las multicapas se han aplicado pulsos de corriente donde se han tenido que controlar la duración de los pulsos y la intensidad de los mismos.
Resumo:
El objetivo del proyecto ha sido desarrollar una funcionalización de las secciones eficaces nodales en multigrupos para códigos tridimensionales de núcleos de agua a presión. Se ha estudiado la dependencia de las secciones eficaces con las condiciones locales de operación: temperatura del combustible, temperatura del moderador, densidad del moderador y concentración de boro. Y se ha desarrollado un modelo que permite determinar las secciones eficaces en función de dichas variables operacionales. De esta forma, pueden reproducirse en el cálculo nodal 3D valores precisos de las secciones eficaces para la resolución de la ecuación de difusión en multigrupos. Se consigue así evitar el uso de ingentes librerías de secciones eficaces pregeneradas para todas las posibles combinaciones de condiciones de operación. Este estudio se ha realizado a nivel de elemento combustible, analizando las diferencias y similitudes con la funcionalización requerida a nivel de celda, estudiándose igualmente condensaciones en distintos números de grupos de energía para obtener una librería de tamaño óptimo. Las actividades desarrolladas han sido: i) utilización de un código de transporte determinista para obtener secciones eficaces homogeneizadas a nivel de elemento; ii) desarrollo de un procedimiento para la generación de todos los parámetros al cambiar las condiciones de operación y análisis de la variación de las secciones eficaces al cambiar dichas condiciones, estudiando los posibles efectos cruzados; iii) una vez finalizado el estudio de la funcionalización de los parámetros con las variables locales, se ha valorado esta librería mediante cálculos con el código de difusión 3D COBAYA3.
Resumo:
El presente Trabajo Fin de Master (TFM) está inserto dentro del Programa Sepahua-Agua que Energía Sin Fronteras (ESF) desarrolla a petición de la Municipalidad peruana de Sepahua, Ucayali. El TFM es el proyecto de instalación domiciliaria y saneamiento de la primera fase de dicho programa. El Programa Sepahua-Agua surge por la preocupación de los habitantes rurales y de la municipalidad de Sepahua por la calidad del agua que tienen, tanto por el acceso al agua potable como del tratamiento de sus residuos, y que es la causante de los problemas de desnutrición infantil que la población está padeciendo. Ante la falta de capacitación técnica para resolver el problema la municipalidad de Sepahua solicitó ayuda a la ONG española ESF, que ya había trabajado en esta localidad ayudando a la Misión Dominica de El Rosario de Sepahua y que actúa de contraparte en el programa. El programa se divide en dos fases: la primera se centra en aportar una solución de agua y saneamiento para cuatro barrios ribereños de la Villa de Sepahua: San Fernando, Santa Elena, San Felipe y Santa Rosa. La segunda fase buscará la posibilidad de ofrecer a otras comunidades de la ribera del Río Urubamba el proyecto realizado en la primera fase como una solución ejecutable. La primera fase del programa empezó hace año y medio. Tras unos meses de estudio de la situación desde Madrid, se entendió como imprescindible mandar a dos técnicos para que realizaran la toma de datos necesaria para poder seguir adelante. Los dos voluntarios de ESF que fuimos a trabajar en terreno somos también alumnos del Master en Tecnología para el Desarrollo Humano y la Cooperación. Durante la estancia de seis meses se alcanzaron los siguientes resultados: una descripción topográfica de la zona del proyecto, ubicando cada vivienda de los Barrios Ribereños, sus instalaciones de agua y saneamiento actuales, las quebradas o manantes de la zona y los pozos existentes; un análisis del agua y obtención del caudal de las quebradas que se vieron como posibles captaciones; un diagnóstico de la situación actual respecto al agua y saneamiento en los Barrios Ribereños; una identificación social para conocer las peculiaridades sobre su organización social, el manejo del agua que tienen en cada barrio, su cultura del agua, sus prácticas higiénicas y el nivel de salud en el que viven; un taller de diseño con la población para conocer su opinión sobre las futuras instalaciones que se construirán en las viviendas. Con estos datos se ha podido elaborar el diseño de la solución técnica para los cuatro barrios ribereños que consiste en: una captación de agua; su acumulación y reserva en depósitos; la distribución de agua ya tratada y clorada en cada domicilio; un Núcleo Húmedo de Higiene en cada vivienda como instalación domiciliaria; el saneamiento de cada uno de esos Núcleos Húmedos de Higiene. A su vez durante la primera fase también se realizarán los siguientes trabajos: la ejecución de la solución técnica; formación de la población para que adquieran los conocimientos que les ayuden a tener conciencia de la importancia de las buenas prácticas de higiene y cuiden y obtengan el mejor uso posible de su nueva instalación; una estrategia de sostenibilidad como propuesta de administración, operación y mantenimiento teniendo en cuenta a los pobladores de los barrios; una estrategia de implementación del sistema; el monitoreo y la evaluación del proyecto ejecutado por parte de ESF. En resumen, el presente TFM se centra en el proyecto de la primera fase que consiste en: los Núcleos Húmedos de Higiene como instalación domiciliaria; el saneamiento de estos núcleos; los demás aspectos relativos a los Núcleos Húmedos de Higiene como su mantenimiento, control, buen uso por parte de la población… El proyecto de captación, reserva, cloración y distribución del agua, también presentes en la primera fase del programa, son tratados en el TFM de Alba Gómez Calvo, alumna también del Master en Tecnología para el Desarrollo Humano y la Cooperación. Ambos TFM se complementan entre si y conjuntamente forman la primera fase del Programa Sepahua-Agua.
Resumo:
Se presenta este artículo con el ánimo de enumerar y estudiar diferentes algoritmos que tratan la generalización de datos cartográficos vectoriales de zonas urbanas, debido a que en ellas se concentran la mayoría de los conflictos que se pueden encontrar en los procesos de generalización cartográfica. A pesar de que la generalización es uno de los procedimientos más difíciles de automatizar, existen herramientas que implementan estos algoritmos y ofrecen resultados satisfactorios, aunque ninguna de ellas es capaz de automatizar por completo el proceso de generalización. A continuación, se incluyen las pruebas realizadas al respecto, describiendo y analizando los resultados obtenidos, estableciendo una comparativa con trabajos realizados por diferentes autores. Se concluye el documento valorando los posibles trabajos futuros para solventar la problemática de la generalización cartográfica. Este estudio se encuentra en el marco del proyecto CENIT España Virtual. Abstract: This article is focused in studying different algorithms about generalization of vector map data from urban areas, because most of the conflicts in the processes of cartographic generalization are concentrated in these areas. Although generalization is one of the most difficult processes to automate, there are tools that implement these algorithms and provide satisfactory results. However,none of them can automate the process of generalization completely. Then tests in describing and analyzing the results are included, establishing a comparison with works of various authors. The document concludes by assessing the possible future works to solve the problem of cartographic generalization. This study is within the CENIT project España Virtual.
Resumo:
El esquema actual que existe en el ámbito de la normalización y el diseño de nuevos estándares de codificación de vídeo se está convirtiendo en una tarea difícil de satisfacer la evolución y dinamismo de la comunidad de codificación de vídeo. El problema estaba centrado principalmente en poder explotar todas las características y similitudes entre los diferentes códecs y estándares de codificación. Esto ha obligado a tener que rediseñar algunas partes comunes a varios estándares de codificación. Este problema originó la aparición de una nueva iniciativa de normalización dentro del comité ISO/IEC MPEG, llamado Reconfigurable Video Coding (RVC). Su principal idea era desarrollar un estándar de codificación de vídeo que actualizase e incrementase progresivamente una biblioteca de los componentes, aportando flexibilidad y la capacidad de tener un código reconfigurable mediante el uso de un nuevo lenguaje orientado a flujo de Actores/datos denominado CAL. Este lenguaje se usa para la especificación de la biblioteca estándar y para la creación de instancias del modelo del decodificador. Más tarde, se desarrolló un nuevo estándar de codificación de vídeo denominado High Efficiency Video Coding (HEVC), que actualmente se encuentra en continuo proceso de actualización y desarrollo, que mejorase la eficiencia y compresión de la codificación de vídeo. Obviamente se ha desarrollado una visión de HEVC empleando la metodología de RVC. En este PFC, se emplean diferentes implementaciones de estándares empleando RVC. Por ejemplo mediante los decodificadores Mpeg 4 Part 2 SP y Mpeg 4 Part 10 CBP y PHP así como del nuevo estándar de codificación HEVC, resaltando las características y utilidad de cada uno de ellos. En RVC los algoritmos se describen mediante una clase de actores que intercambian flujos de datos (tokens) para realizar diferentes acciones. El objetivo de este proyecto es desarrollar un programa que, partiendo de los decodificadores anteriormente mencionados, una serie de secuencia de vídeo en diferentes formatos de compresión y una distribución estándar de los actores (para cada uno de los decodificadores), sea capaz de generar diferentes distribuciones de los actores del decodificador sobre uno o varios procesadores del sistema sobre el que se ejecuta, para conseguir la mayor eficiencia en la codificación del vídeo. La finalidad del programa desarrollado en este proyecto es la de facilitar la realización de las distribuciones de los actores sobre los núcleos del sistema, y obtener las mejores configuraciones posibles de una manera automática y eficiente. ABSTRACT. The current scheme that exists in the field of standardization and the design of new video coding standards is becoming a difficult task to meet the evolving and dynamic community of video encoding. The problem was centered mainly in order to exploit all the features and similarities between different codecs and encoding standards. This has forced redesigning some parts common to several coding standards. This problem led to the emergence of a new initiative for standardization within the ISO / IEC MPEG committee, called Reconfigurable Video Coding (RVC). His main idea was to develop a video coding standard and gradually incrementase to update a library of components, providing flexibility and the ability to have a reconfigurable code using a new flow -oriented language Actors / data called CAL. This language is used for the specification of the standard library and to the instantiation model decoder. Later, a new video coding standard called High Efficiency Video Coding (HEVC), which currently is in continuous process of updating and development, which would improve the compression efficiency and video coding is developed. Obviously has developed a vision of using the methodology HEVC RVC. In this PFC, different implementations using RVC standard are used. For example, using decoders MPEG 4 Part 2 SP and MPEG 4 Part 10 CBP and PHP and the new coding standard HEVC, highlighting the features and usefulness of each. In RVC, the algorithms are described by a class of actors that exchange streams of data (tokens) to perform different actions. The objective of this project is to develop a program that, based on the aforementioned decoders, a series of video stream in different compression formats and a standard distribution of actors (for each of the decoders), is capable of generating different distributions decoder actors on one or more processors of the system on which it runs, to achieve greater efficiency in video coding. The purpose of the program developed in this project is to facilitate the realization of the distributions of the actors on the cores of the system, and get the best possible settings automatically and efficiently.
Resumo:
La prospectiva, es un conjunto de análisis con el fin de explorar o predecir el futuro; “se puede concebir como una realización múltiple” (Jouvenel, 1968) y “depende de la acción del hombre” (Godet, 2004); por esa razón, el hombre puede construir el futuro mejor, para lo cual debe tomar las decisiones correctas en el momento apropiado. En ordenamiento territorial, la prospectiva, constituye una fase intermedia, entre el diagnóstico y la propuesta, y se refiere a la predicción del futuro, mediante dos vías: la proyección de la tendencia y la construcción de escenarios o imágenes futuras; se denomina escenario, a la descripción de una situación territorial futura y el encadenamiento coherente de sucesos que, partiendo de la situación actual, llega a la futura (Gómez Orea, 2008); pueden identificarse múltiples escenarios por la combinación de variables; no obstante, esta tesis se centra en el diseño de tres: el tendencial, el óptimo por analogías con otros territorios a los que se desee aspirar, y uno intermedio entre los anteriores, que parte del consenso de la mayoría de voluntades políticas y ciudadanas. Existen escasas experiencias metodológicas, y en especial, aplicables a los planes de ordenamiento territorial de Centroamérica. En la mayoría de casos estudiados, se identifica la participación como herramienta básica en el diseño de los escenarios; un modelo exclusivamente técnico está abocado al fracaso. En la tesis se diseña una metodología para elaborar la fase de prospectiva en los planes de ordenamiento territorial de Centroamérica; se entiende como un metamodelo, es decir, un "modelo general formado por submodelos específicos"; además del modelo general, se diseñan los submodelos: demográfico, ambiental, poblamiento y económico; para la elaboración de los mismos se usan herramientas; algunas han sido definidas por investigadores y otras se diseñan en este trabajo. Se establece un orden de prelación para el desarrollo de los submodelos; no se recomienda la alteración del mismo, pues el resultado será distinto y erróneo. Se inicia con el submodelo demográfico; se analizan cuatro variables: población total, población distribuida en municipios, población urbana y rural, y población por edades y sexos. Se propone que el cálculo de la población total se determine por métodos clásicos, tasas de crecimiento o cohortes. Posteriormente se realiza la distribución en municipios, urbana‐rural y en los asentamientos; en el escenario tendencial se proyecta por cohortes o tasas de crecimiento, y en el óptimo e intermedio, se considera un análisis de los limitantes al desarrollo urbano, priorizando la distribución de unos municipios y núcleos con respecto a otros. Con la proyección demográfica se desarrolla el submodelo ambiental; se consideran las variables: usos del suelo, unidades ambientales con los usos del suelo predominantes, áreas naturales protegidas, y áreas de amenazas naturales; estas últimas son sumamente importantes en el territorio centroamericano, dada la vulnerabilidad existente; para la proyección de los usos del suelo predominantes se diseña una herramienta donde se establecen los usos del suelo según unidades ambientales en diferentes escenarios, aplicando imágenes multitemporales y la capacidad de acogida del territorio. Una vez definidos los anteriores, se proyecta el submodelo de poblamiento; se proponen: el tamaño, la clasificación, la superficie, la diferenciación y agrupación de los asentamientos; se define el sistema de asentamientos a partir de las variables demográficas y ambientales; para ello se aplica un análisis multivariable‐multicriterio donde se establece la jerarquía de los núcleos de población, y posteriormente se establece la superficie que ocuparan y su forma. A continuación, se propone la prospectiva del submodelo económico, en cuanto a las variables: población económicamente activa (PEA), producción, empleo, desglose por sectores económicos, y la zonificación de suelos de desarrollo económico; luego se añade la prospectiva del submodelo de infraestructuras. Finalmente, se procede a la representación cartográfica, mediante el uso de herramientas SIG (Sistemas de Información Geográfica); para la representación de los escenarios se diseñan mapas, que sean fácilmente comprensibles por los líderes políticos, actores socioeconómicos y por la ciudadanía ("clientes" finales del plan). La metodología de investigación se ha basado en ciclos repetitivos de observación de la realidad en trabajos profesionales, elaboración del modelo y submodelos y verificación posterior mediante su aplicación a casos reales. En consecuencia los submodelos anteriores se han ido desarrollando y verificando en la elaboración de numerosos planes en Centroamérica, de los cuales en la tesis se exponen los dos más expresivos: El Plan de Desarrollo Territorial de la Región de San Miguel, en El Salvador y El Plan de Ordenamiento Territorial de la Región del Valle del Lean, Honduras. El modelo no es aplicable íntegramente a otros territorios; se ha diseñado considerando las características centroamericanas: fuerte crecimiento poblacional, tenencia de la tierra, crecimiento lineal en las principales carreteras, cultivos de autoconsumo (granos básicos) en laderas y montañas, vulnerabilidad ante las amenazas naturales, bajo nivel de tecnificación, entre otras. El modelo posibilita realizar análisis de sensibilidad y el diseño de múltiples escenarios por combinación de variables, dado que se plantean ecuaciones y algoritmos que usan diferentes hipótesis; las limitantes son el tiempo y la disponibilidad de recursos, algo escaso en la redacción de los planes de ordenamiento territorial. Finalmente, la tesis constituye una aportación a los planificadores; espero que ello contribuya a profundizar en este interesante campo de actividad.
Resumo:
Frente a un esquema compacto, con necesidad de uno o varios patios interiores, y numerosos núcleos de comunicación vertical, la configuración del edificio se adapta a la dirección de los vientos dominantes (levante-poniente), favoreciendo una ventilación óptima y el buen soleamiento de todas las viviendas. Se trata de un volumen prismático horadado, más bajo en su cuadrante sur, para evitar sombras arrojadas y adaptarse a las alturas adyacentes. Se compone de tres niveles, el más bajo un zócalo permeable con los accesos y aparcamientos, el intermedio, un anillo perimetral de viviendas abiertas al patio común, y, el último, una banda plegada que deja libre el cuadrante sur, antes mencionado. En el interior del anillo perimetral, se sitúa el patio comunitario, a través del que se accede al edificio, elevado y protegido, que actúa como lugar de convocatoria para la interacción de los usuarios
Resumo:
El proyecto se plantea en el contexto de un pueblo joven en el entorno desértico de la ciudad de Arequipa. En el Perú, los pueblos jóvenes son figuras urbanísticas que corresponden a absorciones de migraciones rurales en las periferias de las ciudades, generadas por sucesivas ocupaciones masivas, y por lo tanto carentes de planeamiento y servicios básicos. Es aquí donde proliferan las ONGs locales y asociaciones sociales que tratan de compensar estas carencias, cuyos centros institucionales se perciben y funcionan como núcleos estructurantes en la vida social de cada barrio. En uno de estos núcleos, una escuela de la asociación CIRCA, se proyecta una reformulación programática y arquitectónica para reforzar la función social del centro como plataforma regeneradora que parte de de la participación propositiva hacia la producción de sistemas replicables para la mejora del hábitat precario. El proyecto parte de la experiencia en el terreno y deriva en un proyecto de cooperación real: se basa en las propuestas de los alumnos del workshop realizado en la universidad local dentro de la beca PFC de cooperación, así como sienta las bases del proyecto de cooperación de la UPM que se desarrolla posteriormente: Transferencia de Arquitectura Textil en el desierto del Sur del Perú.
Resumo:
Se tiene una red eléctrica compuesta por tres centrales térmicas convencionales y dos núcleos de consumo diferenciados, uno industrial y otro residencial, a la que se le va a conectar un parque eólico. El objetivo es dimensionar la línea de conexión y conocer el comportamiento de la red ante este cambio. Se han calculado las características de la línea eléctrica de conexión para satisfacer la potencia instalada del parque. También se ha estimado la demanda horaria de electricidad en las zonas residencial e industrial y se han tomado los valores horarios significativos de la potencia generada por el parque eólico, ambos, para las distintas estaciones del año. Como programa para la simulación de la red eléctrica se utilizó el PSS/E (Power System Simulator for Engineering) en el que, ayudándose del lenguaje de programación Python, se creó un código que cambiaba los datos horarios del consumo y la generación del parque, resolvía el flujo de cargas y exportaba los resultados que mostraban el comportamiento de la red para las distintas casuísticas. Finalmente, se analizaron los resultados de las potencias activa y reactiva generadas por las centrales convencionales, la tensión en los buses y las posibles sobrecargas.