276 resultados para Malla de sombreado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La propulsión eléctrica constituye hoy una tecnología muy competitiva y de gran proyección de futuro. Dentro de los diversos motores de plasma existentes, el motor de efecto Hall ha adquirido una gran madurez y constituye un medio de propulsión idóneo para un rango amplio de misiones. En la presente Tesis se estudian los motores Hall con geometría convencional y paredes dieléctricas. La compleja interacción entre los múltiples fenómenos físicos presentes hace que sea difícil la simulación del plasma en estos motores. Los modelos híbridos son los que representan un mejor compromiso entre precisión y tiempo de cálculo. Se basan en utilizar un modelo fluido para los electrones y algoritmos de dinámica de partículas PIC (Particle-In- Cell) para los iones y los neutros. Permiten hacer uso de la hipótesis de cuasineutralidad del plasma, a cambio de resolver separadamente las capas límite (o vainas) que se forman en torno a las paredes de la cámara. Partiendo de un código híbrido existente, llamado HPHall-2, el objetivo de la Tesis doctoral ha sido el desarrollo de un código híbrido avanzado que mejorara la simulación de la descarga de plasma en un motor de efecto Hall. Las actualizaciones y mejoras realizadas en las diferentes partes que componen el código comprenden tanto aspectos teóricos como numéricos. Fruto de la extensa revisión de la algoritmia del código HPHall-2 se han conseguido reducir los errores de precisión un orden de magnitud, y se ha incrementado notablemente su consistencia y robustez, permitiendo la simulación del motor en un amplio rango de condiciones. Algunos aspectos relevantes a destacar en el subcódigo de partículas son: la implementación de un nuevo algoritmo de pesado que permite determinar de forma más precisa el flujo de las magnitudes del plasma; la implementación de un nuevo algoritmo de control de población, que permite tener suficiente número de partículas cerca de las paredes de la cámara, donde los gradientes son mayores y las condiciones de cálculo son más críticas; las mejoras en los balances de masa y energía; y un mejor cálculo del campo eléctrico en una malla no uniforme. Merece especial atención el cumplimiento de la condición de Bohm en el borde de vaina, que en los códigos híbridos representa una condición de contorno necesaria para obtener una solución consistente con el modelo de interacción plasma-pared, y que en HPHall-2 aún no se había resuelto satisfactoriamente. En esta Tesis se ha implementado el criterio cinético de Bohm para una población de iones con diferentes cargas eléctricas y una gran dispersión de velocidades. En el código, el cumplimiento de la condición cinética de Bohm se consigue por medio de un algoritmo que introduce una fina capa de aceleración nocolisional adyacente a la vaina y mide adecuadamente el flujo de partículas en el espacio y en el tiempo. Las mejoras realizadas en el subcódigo de electrones incrementan la capacidad de simulación del código, especialmente en la región aguas abajo del motor, donde se simula la neutralización del chorro del plasma por medio de un modelo de cátodo volumétrico. Sin abordar el estudio detallado de la turbulencia del plasma, se implementan modelos sencillos de ajuste de la difusión anómala de Bohm, que permiten reproducir los valores experimentales del potencial y la temperatura del plasma, así como la corriente de descarga del motor. En cuanto a los aspectos teóricos, se hace especial énfasis en la interacción plasma-pared y en la dinámica de los electrones secundarios libres en el interior del plasma, cuestiones que representan hoy en día problemas abiertos en la simulación de los motores Hall. Los nuevos modelos desarrollados buscan una imagen más fiel a la realidad. Así, se implementa el modelo de vaina de termalización parcial, que considera una función de distribución no-Maxwelliana para los electrones primarios y contabiliza unas pérdidas energéticas más cercanas a la realidad. Respecto a los electrones secundarios, se realiza un estudio cinético simplificado para evaluar su grado de confinamiento en el plasma, y mediante un modelo fluido en el límite no-colisional, se determinan las densidades y energías de los electrones secundarios libres, así como su posible efecto en la ionización. El resultado obtenido muestra que los electrones secundarios se pierden en las paredes rápidamente, por lo que su efecto en el plasma es despreciable, no así en las vainas, donde determinan el salto de potencial. Por último, el trabajo teórico y de simulación numérica se complementa con el trabajo experimental realizado en el Pnnceton Plasma Physics Laboratory, en el que se analiza el interesante transitorio inicial que experimenta el motor en el proceso de arranque. Del estudio se extrae que la presencia de gases residuales adheridos a las paredes juegan un papel relevante, y se recomienda, en general, la purga completa del motor antes del modo normal de operación. El resultado final de la investigación muestra que el código híbrido desarrollado representa una buena herramienta de simulación de un motor Hall. Reproduce adecuadamente la física del motor, proporcionando resultados similares a los experimentales, y demuestra ser un buen laboratorio numérico para estudiar el plasma en el interior del motor. Abstract Electric propulsion is today a very competitive technology and has a great projection into the future. Among the various existing plasma thrusters, the Hall effect thruster has acquired a considerable maturity and constitutes an ideal means of propulsion for a wide range of missions. In the present Thesis only Hall thrusters with conventional geometry and dielectric walls are studied. The complex interaction between multiple physical phenomena makes difficult the plasma simulation in these engines. Hybrid models are those representing a better compromise between precision and computational cost. They use a fluid model for electrons and Particle-In-Cell (PIC) algorithms for ions and neutrals. The hypothesis of plasma quasineutrality is invoked, which requires to solve separately the sheaths formed around the chamber walls. On the basis of an existing hybrid code, called HPHall-2, the aim of this doctoral Thesis is to develop an advanced hybrid code that better simulates the plasma discharge in a Hall effect thruster. Updates and improvements of the code include both theoretical and numerical issues. The extensive revision of the algorithms has succeeded in reducing the accuracy errors in one order of magnitude, and the consistency and robustness of the code have been notably increased, allowing the simulation of the thruster in a wide range of conditions. The most relevant achievements related to the particle subcode are: the implementation of a new weighing algorithm that determines more accurately the plasma flux magnitudes; the implementation of a new algorithm to control the particle population, assuring enough number of particles near the chamber walls, where there are strong gradients and the conditions to perform good computations are more critical; improvements in the mass and energy balances; and a new algorithm to compute the electric field in a non-uniform mesh. It deserves special attention the fulfilment of the Bohm condition at the edge of the sheath, which represents a boundary condition necessary to match consistently the hybrid code solution with the plasma-wall interaction, and remained as a question unsatisfactory solved in the HPHall-2 code. In this Thesis, the kinetic Bohm criterion has been implemented for an ion particle population with different electric charges and a large dispersion in their velocities. In the code, the fulfilment of the kinetic Bohm condition is accomplished by an algorithm that introduces a thin non-collisional layer next to the sheaths, producing the ion acceleration, and measures properly the flux of particles in time and space. The improvements made in the electron subcode increase the code simulation capabilities, specially in the region downstream of the thruster, where the neutralization of the plasma jet is simulated using a volumetric cathode model. Without addressing the detailed study of the plasma turbulence, simple models for a parametric adjustment of the anomalous Bohm difussion are implemented in the code. They allow to reproduce the experimental values of the plasma potential and the electron temperature, as well as the discharge current of the thruster. Regarding the theoretical issues, special emphasis has been made in the plasma-wall interaction of the thruster and in the dynamics of free secondary electrons within the plasma, questions that still remain unsolved in the simulation of Hall thrusters. The new developed models look for results closer to reality, such as the partial thermalization sheath model, that assumes a non-Maxwellian distribution functions for primary electrons, and better computes the energy losses at the walls. The evaluation of secondary electrons confinement within the chamber is addressed by a simplified kinetic study; and using a collisionless fluid model, the densities and energies of free secondary electrons are computed, as well as their effect on the plasma ionization. Simulations show that secondary electrons are quickly lost at walls, with a negligible effect in the bulk of the plasma, but they determine the potential fall at sheaths. Finally, numerical simulation and theoretical work is complemented by the experimental work carried out at the Princeton Plasma Physics Laboratory, devoted to analyze the interesting transitional regime experienced by the thruster in the startup process. It is concluded that the gas impurities adhered to the thruster walls play a relevant role in the transitional regime and, as a general recomendation, a complete purge of the thruster before starting its normal mode of operation it is suggested. The final result of the research conducted in this Thesis shows that the developed code represents a good tool for the simulation of Hall thrusters. The code reproduces properly the physics of the thruster, with results similar to the experimental ones, and represents a good numerical laboratory to study the plasma inside the thruster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este artículo es el análisis lineal de estructuras laminares sometidas a excitaciones dinámicas con alto contenido en frecuencia. El método numérico propuesto utiliza para el modelado elementos continuos monodimensionales. La respuesta exacta de este tipo de elementos es conocida, y por lo tanto el método es más conveniente para este tipo de problemas que otros métodos convencionales basados en discretización espacial, por ejemplo el método de los elementos finitos (MEF), que precisarían de una malla muy fina para recoger adecuadamente los fenómenos de interés. El estudio aquí descrito se limita a estructuras axisimétricas con formas cilíndricas o cónicas. Se presentan criterios para modelar dichas estructuras mediante vigas sobre apoyo elástico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analysis of river flow using hydraulic modelling and its implications in derived environ-mental applications are inextricably connected with the way in which the river boundary shape is represented. This relationship is scale-dependent upon the modelling resolution which in turn determines the importance of a subscale performance of the model and the way subscale (surface and flow) processes are parameterised. Commonly, the subscale behaviour of the model relies upon a roughness parameterisation whose meaning depends on the dimensionality of the hydraulic model and the resolution of the topographic represen¬tation scale. This latter is, in turn, dependent on the resolution of the computational mesh as well as on the detail of measured topographic data. Flow results are affected by this interactions between scale and subscale parameterisation according to the dimensionality approach. The aim of this dissertation is the evaluation of these interactions upon hy¬draulic modelling results. Current high resolution topographic source availability induce this research which is tackled using a suitable roughness approach according to each di¬mensionality with the purpose of the interaction assessment. A 1D HEC-RAS model, a 2D raster-based diffusion-wave model with a scale-dependent distributed roughness parame-terisation and a 3D finite volume scheme with a porosity algorithm approach to incorporate complex topography have been used. Different topographic sources are assessed using a 1D scheme. LiDAR data are used to isolate the mesh resolution from the topographic content of the DEM effects upon 2D and 3D flow results. A distributed roughness parameterisation, using a roughness height approach dependent upon both mesh resolution and topographic content is developed and evaluated for the 2D scheme. Grain-size data and fractal methods are used for the reconstruction of topography with microscale information, required for some applications but not easily available. Sensitivity of hydraulic parameters to this topographic parameterisation is evaluated in a 3D scheme at different mesh resolu¬tions. Finally, the structural variability of simulated flow is analysed and related to scale interactions. Model simulations demonstrate (i) the importance of the topographic source in a 1D models; (ii) the mesh resolution approach is dominant in 2D and 3D simulations whereas in a 1D model the topographic source and even the roughness parameterisation impacts are more critical; (iii) the increment of the sensitivity to roughness parameterisa-tion in 1D and 2D schemes with detailed topographic sources and finer mesh resolutions; and (iv) the topographic content and microtopography impact throughout the vertical profile of computed 3D velocity in a depth-dependent way, whereas 2D results are not affected by topographic content variations. Finally, the spatial analysis shows that the mesh resolution controls high resolution model scale results, roughness parameterisation control 2D simulation results for a constant mesh resolution; and topographic content and micro-topography variations impacts upon the organisation of flow results depth-dependently in a 3D scheme. Resumen La topografía juega un papel fundamental en la distribución del agua y la energía en los paisajes naturales (Beven and Kirkby 1979; Wood et al. 1997). La simulación hidráulica combinada con métodos de medición del terreno por teledetección constituyen una poderosa herramienta de investigación en la comprensión del comportamiento de los flujos de agua debido a la variabilidad de la superficie sobre la que fluye. La representación e incorporación de la topografía en el esquema hidráulico tiene una importancia crucial en los resultados y determinan el desarrollo de sus aplicaciones al campo medioambiental. Cualquier simulación es una simplificación de un proceso del mundo real, y por tanto el grado de simplificación determinará el significado de los resultados simulados. Este razonamiento es particularmente difícil de trasladar a la simulación hidráulica donde aspectos de la escala tan diferentes como la escala de los procesos de flujo y de representación del contorno son considerados conjuntamente incluso en fases de parametrización (e.g. parametrización de la rugosidad). Por una parte, esto es debido a que las decisiones de escala vienen condicionadas entre ellas (e.g. la dimensionalidad del modelo condiciona la escala de representación del contorno) y por tanto interaccionan en sus resultados estrechamente. Y por otra parte, debido a los altos requerimientos numéricos y computacionales de una representación explícita de alta resolución de los procesos de flujo y discretización de la malla. Además, previo a la modelización hidráulica, la superficie del terreno sobre la que el agua fluye debe ser modelizada y por tanto presenta su propia escala de representación, que a su vez dependede la escala de los datos topográficos medidos con que se elabora el modelo. En última instancia, esta topografía es la que determina el comportamiento espacial del flujo. Por tanto, la escala de la topografía en sus fases de medición y modelización (resolución de los datos y representación topográfica) previas a su incorporación en el modelo hidráulico producirá a su vez un impacto que se acumulará al impacto global resultante debido a la escala computacional del modelo hidráulico y su dimensión. La comprensión de las interacciones entre las complejas geometrías del contorno y la estructura del flujo utilizando la modelización hidráulica depende de las escalas consideradas en la simplificación de los procesos hidráulicos y del terreno (dimensión del modelo, tamaño de escala computacional y escala de los datos topográficos). La naturaleza de la aplicación del modelo hidráulico (e.g. habitat físico, análisis de riesgo de inundaciones, transporte de sedimentos) determina en primer lugar la escala del estudio y por tanto el detalle de los procesos a simular en el modelo (i.e. la dimensionalidad) y, en consecuencia, la escala computacional a la que se realizarán los cálculos (i.e. resolución computacional). Esta última a su vez determina, el detalle geográfico con que deberá representarse el contorno acorde con la resolución de la malla computacional. La parametrización persigue incorporar en el modelo hidráulico la cuantificación de los procesos y condiciones físicas del sistema natural y por tanto debe incluir no solo aquellos procesos que tienen lugar a la escala de modelización, sino también aquellos que tienen lugar a un nivel subescalar y que deben ser definidos mediante relaciones de escalado con las variables modeladas explícitamente. Dicha parametrización se implementa en la práctica mediante la provisión de datos al modelo, por tanto la escala de los datos geográficos utilizados para parametrizar el modelo no sólo influirá en los resultados, sino también determinará la importancia del comportamiento subescalar del modelo y el modo en que estos procesos deban ser parametrizados (e.g. la variabilidad natural del terreno dentro de la celda de discretización o el flujo en las direcciones laterales y verticales en un modelo unidimensional). En esta tesis, se han utilizado el modelo unidimensional HEC-RAS, (HEC 1998b), un modelo ráster bidimensional de propagación de onda, (Yu 2005) y un esquema tridimensional de volúmenes finitos con un algoritmo de porosidad para incorporar la topografía, (Lane et al. 2004; Hardy et al. 2005). La geometría del contorno viene definida por la escala de representación topográfica (resolución de malla y contenido topográfico), la cual a su vez depende de la escala de la fuente cartográfica. Todos estos factores de escala interaccionan en la respuesta del modelo hidráulico a la topografía. En los últimos años, métodos como el análisis fractal y las técnicas geoestadísticas utilizadas para representar y analizar elementos geográficos (e.g. en la caracterización de superficies (Herzfeld and Overbeck 1999; Butler et al. 2001)), están promoviendo nuevos enfoques en la cuantificación de los efectos de escala (Lam et al. 2004; Atkinson and Tate 2000; Lam et al. 2006) por medio del análisis de la estructura espacial de la variable (e.g. Bishop et al. 2006; Ju et al. 2005; Myint et al. 2004; Weng 2002; Bian and Xie 2004; Southworth et al. 2006; Pozd-nyakova et al. 2005; Kyriakidis and Goodchild 2006). Estos métodos cuantifican tanto el rango de valores de la variable presentes a diferentes escalas como la homogeneidad o heterogeneidad de la variable espacialmente distribuida (Lam et al. 2004). En esta tesis, estas técnicas se han utilizado para analizar el impacto de la topografía sobre la estructura de los resultados hidráulicos simulados. Los datos de teledetección de alta resolución y técnicas GIS también están siendo utilizados para la mejor compresión de los efectos de escala en modelos medioambientales (Marceau 1999; Skidmore 2002; Goodchild 2003) y se utilizan en esta tesis. Esta tesis como corpus de investigación aborda las interacciones de esas escalas en la modelización hidráulica desde un punto de vista global e interrelacionado. Sin embargo, la estructura y el foco principal de los experimentos están relacionados con las nociones espaciales de la escala de representación en relación con una visión global de las interacciones entre escalas. En teoría, la representación topográfica debe caracterizar la superficie sobre la que corre el agua a una adecuada (conforme a la finalidad y dimensión del modelo) escala de discretización, de modo que refleje los procesos de interés. La parametrización de la rugosidad debe de reflejar los efectos de la variabilidad de la superficie a escalas de más detalle que aquellas representadas explícitamente en la malla topográfica (i.e. escala de discretización). Claramente, ambos conceptos están físicamente relacionados por un

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se han cubierto diferentes asuntos del diseño neutrónico de los aspectos radiológicos de las dos instalaciones del proyecto HiPER. El proyecto HiPER es un proyecto europeo concebido en el marco del programa ESFRI (European Scientific Facilities Research Infrastructure). Está destinado al desarrollo de la energía de fusión nuclear inercial mediante el uso de láseres y el esquema iluminación directa. Consecuentemente, se trata de una instalación con fines exclusivamente civiles. Se divide en dos fases, correspondientes con dos instalaciones: HiPER Engineering y HiPER Reactor. La instalación HiPER Engineering desarrollará las tecnologías implicadas en la ignición de alta repetición de cápsulas de DT por iluminación directa. El HiPER Reactor será una planta demostradora que produzca electricidad haciendo uso de las tecnologías desarrolladas durante la fase HiPER Engineering. El HiPER Engineering se centrará en las tecnologías relevantes para las igniciones a alta repetición de cápsulas de DT usando la iluminación directa. El principal esfuerzo de desarrollo tecnológico se hará en todos los asuntos directamente relacionados con la ignición: láseres, óptica, inyector, y fabricación masiva de cápsulas entre otros. Se espera una producción de entre 5200 MJ/año y 120000 MJ/año dependiendo del éxito de la instalación. Comparado con la energía esperada en NIF, 1200 MJ/año, se trata de un reto y un paso más allá en la protección radiológica. En este trabajo se ha concebido una instalación preliminar. Se ha evaluado desde el punto de vista de la protección radiológica, siendo las personas y la óptica el objeto de protección de este estudio. Se ha establecido una zonificación durante la operación y durante el mantenimiento de la instalación. Además, se ha llevado a cabo una evaluación de la selección de materiales para la cámara de reacción desde el punto de vista de gestión de residuos radiactivos. El acero T91 se ha seleccionado por, siendo un acero comercial, presentar el mismo comportamiento que el acero de baja activación EUROFER97 al evaluarse como residuo con el nivel de irradiación de HiPER Engineering. Teniendo en cuenta los resultados obtenidos para la instalación preliminar y las modificaciones de la instalación motivadas en otros campos, se ha propuesto una instalación avanzada también en este trabajo. Un análisis más profundo de los aspectos radiológicos, así como una evaluación completa de la gestión de todos los residuos radiactivos generados en la instalación se ha llevado a cabo. La protección radiológica se ha incrementado respecto de la instalación preliminar, y todos los residuos pueden gestionarse en un plazo de 30 sin recurrir al enterramiento de residuos. El HiPER Reactor sera una planta demostradora que produzca electricidad basada en las tecnologías de ignición desarrolladas durante la fase HiPER Engineering. El esfuerzo de desarrollo tecnológico se llevará a cabo en los sistemas relacionados con la generación de electricidad en condiciones económicas: manto reproductor de tritio, ciclos de potencia, vida y mantenimiento de componentes, o sistemas de recuperación de tritio entre otros. En este trabajo la principal contribución a HiPER Reactor está relacionada con el diseño de la cámara de reacción y sus extensiones en la planta. La cámara de reacción es la isla nuclear más importante de la planta, donde la mayoría de las reacciones nucleares tienen lugar. Alberga la primera pared, el manto reproductor de tritio y la vasija de vacío. Todo el trabajo realizado aquí ha pivotado en torno al manto reproductor de tritio y sus interacciones con el resto de componentes de la planta. Tras una revisión profunda de la bibliografía de los diseños recientes de cámaras de reacción con características similares a HiPER Reactor, se ha propuesto y justificado un esquema tecnológico innovador para el manto reproductor de tritio. El material fértil selecconado es el eutéctico 15.7 at.% Litio – 84.3 at.% Plomo, LiPb, evitando el uso de berilio como multiplicador neutrónico mientras se garantiza el ajuste online de la tasa de reproducción de tritio mediante el ajuste en el enriquecimiento en 6Li. Aunque se podría haber elegido Litio purom el LiPb evita problemas relacionados con la reactividad química. El precio a pagar es un reto materializado como inventario radiactivo de Z alto en el lazo de LiPb que debe controlarse. El material estructural seleccionado es el acero de baja activación EUROFER97, que estará en contacto directo con le LiPb fluyendo a alta velocidad. En este esquema tecnológico, el LiPb asegurará la autosuficiente de tritio de la planta mientras el propio LiPb extrae del manto el calor sobre él depositado por los neutrones. Este esquema recibe el nombre de manto de Litio-Plomo auto-refrigerado (SCLL por sus siglas en inglés). Respecto de los conceptos SCLL previos, es destacable que nos e requieren componentes del SiC, puesto que no hay campos magnéticos en la cámara de reacción. Consecuentemente, el manto SCLL propuesto para HiPER presenta riesgo tecnológicos moderados, similares a otros dispositivos de fusión magnética, como el HCLL, e incluso inferiores a los del DCLL, puesto que no se require SiC. Los retos que se deben afrontar son el control del inventario de Z alto así como las tasas de corrosión derivadas de la interacción del LiPb con el EUROFE97. En este trabajo se abordan ambos aspectos, y se presentan los respectivos análisis, junto con otros aspectos neutrónicos y de activación, tales como la protección de la vasija de vacío por parte del material fértil para garantizar la resoldabilidad de por vida en la cara externa de la vasija. También se propone y se estudio un ciclo de potencia de Brayton de Helio para dos configuraciones diferentes de refrigeración del sistema primera pared-manto reproductor. Las principales conclusiones de estos estudios son: i) el inventario de Z alto puede controlarse y es comparable al que se encuentra en dispositivos de fusión similares, ii)la vasija de vacío requiere una mayor protección frente a la radiación neutrónica y iii) las tasas de corrosión son demasiado altas y la temperatura media de salida del LiPb es demasiado baja. Tiendo en cuenta estos resultados juntos con otras consideraciones relacionadas con el mantenimiento de componentes y la viabilidad constructiva, se ha propuesto una evolución de la cámara de reacción. Las evoluciones más destacables son la introducción de un reflector neutrónico de grafito, la modificación de la configuración de la óptica final, la forma y el tamaño de la cámara de vacío y una nueva subdivisión modular del manto. Se ha evaluado desde el punto de vista neutrónico, y su análisis y posterior evolución queda fuera del objeto de este trabajo. Los códigos utilizados en este trabajo son: CATIA para la generación de geometrías 3D complejas MCAM para la traducción de archivos de CATIA a formato de input de MCNP MCNP para el transporte de la radiación (neutrones y gammas) y sus respuestas asociadas ACAB para la evolución del inventario isotópico y sus respuestas asociadas MC2ACAB para acoplar MCNP y ACAB para el cómputo de dosis en parada usando la metodología R2S basada en celda. Moritz para visualizar los reultados de MCNP FLUENT para llevar a cabo cálculos de fluido-dinámica Para llevar a cabo este trabajo, han sido necesarias unas destrezas computacionales. Las más relevantes utilizadas son: generación de geometrás 3D complejas y transmisión a MCNP, diferentes tñecnica de reducción de varianza como importancia por celdas y weight windows basado en malla, metodología Rigorous-two-Steps basada en celdas para el cálculo de dosis en parada y la modificación del código ACAB para el cálculos con múltiples espectros en la misma simulación. Como resumen, la contribución de este trabajo al proyecto HiPER son dos diseños conceptuales de instalación: una para HiPER Engineering y otra para HiPER Reactor. La primera se ha estudio en profundidad desde el punto de vista de protección radiológica y gestión de residuos, mientras que la segunda se ha estudiado desde el punto de vista de operación: seguridad, comportamiento, vida y mantenimiento de componentes y eficiencia del ciclo de potencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los códigos de difusión en multigrupos para an álisis tridimensional de núcleos PWR emplean como datos de entrada librerías de parámetros equivalentes homogeneizados y condensados (secciones eficaces y factores de discontinuidad), que dependen de las variables de estado como temperaturas o densidades. Típicamente, esos pará metros se pre-generan para cada tipo de celda o elemento combustible con un código de transporte determinista, dependiendo en gran medida la precisión de los cálculos neutrónicos acoplados con la termohidráulica de la calidad de la librería generada. Las librerías tabuladas son la forma más extendida de compilar las secciones eficaces pre-generadas. Durante el cálculo de núcleo, el código de difusión simplemente obtiene las secciones eficaces por interpolación de los valores en los puntos de la malla. Como los errores de interpolación dependen de la distancia entre esos puntos, se requiere un considerable refinamiento de la malla –con todas las posibles combinaciones de las variables de estado– para conseguir una precisión adecuada, lo que conduce a requisitos elevados de almacenamiento y un gran número de cálculos de transporte para su generación. Para evitar este inconveniente, se ha desarrollado un procedimiento de optimización de librerías tabuladas que permite seleccionar el menor número de puntos de malla para cada variable de estado independiente, manteniendo un error objetivo en la constante de multiplicación k-efectiva. El procedimiento consiste en determinar, aplicando teoría de perturbaciones, los coeficientes de sensibilidad de la k-efectiva con las secciones eficaces. Ello permite evaluar la influencia de los errores de interpolación de cada sección eficaz en la constante de multiplicación para cualquier combinación de las variables de estado. La medida de esta influencia o sensibilidad permite establecer una distancia óptima entre puntos de interpolación dado un error objetivo sobre la constante de multiplicación. Distintos números de grupos de energía, composiciones del elemento combustible y escalas de homogeneización, han sido estudia dos para conocer su efecto sobre la optimización. Asimismo se ha comprobado la influencia de variar el error objetivo o el grado del polinomio de interpolación entre puntos. Finalmente, se realiza un cálculo con la librería optimizada, y se verifica que el error en la k-efectiva está limitado. Se reduce así el tamaño de la librería sin comprometer su grado de precisión en todo el rango de interés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto del presente trabajo es la determinación de la distribución de tensiones en la unión carpintera de empalme de llave mediante el método de los elementos finitos y su comparación con los valores obtenidos mediante la teoría de Resistencia de Materiales. Se analizan las zonas donde se produce concentración de tensiones y se estudia la influencia del refino de la malla sobre los resultados con el fin de determinar el tamaño que proporciona los valores de tensión más ajustados a la teoría. En las zonas donde la concentración de tensiones es menor, distintos tamaños de la malla muestran valores de tensión similares. Los resultados muestran una simetría central de la distribución de isotensiones donde el centro de simetría se corresponde con el centro geométrico de la unión. En las zonas donde se produce concentración de tensiones, los valores de las mismas aumentan considerablemente con el refino de la malla. La comparación de los niveles de tensiones normales obtenidos por el MEF y la teoría clásica muestran diferencias reducidas, excepto en los puntos de concentración de tensiones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construcción de una obra subterránea con las características de un túnel o condución de cualquier tipo afecta las propiedades del medio en el que se realiza, poniendo de manifiesto un problema que sólo en épocas relativamente recientes ha recibido antención: la interacción terreno-estructura. Si en las construcciones exteriores (edificios, presas etc.) la importancia de la interacción sólo existe en los casos de grandes obras, aquí la cuestión se plantea como algo intrínseco a la naturaleza del problema. La inclusión de las características del terreno en el análisis dinámico no es un problema sencillo, debido tanto a las irregularidades geométricas posibles, como a la incertidumbre respecto a las propiedades mecánicas. Por si fuera poco la aleatoriedad de las solicitaciones que estudiamos; terremotos, explosiones etc. exige un tratamiento estadístico de los resultados que se obtengan. Aunque se han realizado intentos analíticos para la resolución del problema, tropiezan siempre con la dificultad de las drásticas simplificaciones que es preciso suponer para hacer tratable el problema; estas simplificaciones pueden falsear los resultados deseados. De hecho, el único medio de introducir las numerosas variantes que aparecen es recurrir a los métodos numéricos de discretización. En este estudio hemos tanteado dos posibilidades. Finalmente, el método de los elementos finitos (F.E.M.)aparece como el más adecuado por su versatilidad y rápidez. El análisis dinámico mediante elementos finitos presenta algunos problemas, relativos fundamentalmente al modelado del medio. En efecto, la discretización introduce problemas al pretender simular la propagacíón de las ondas, y la presencia de contornos a distancia finita hace que se presenten problemas a menos que se dispongan medios como contornos absorbentes o cualquier otro procedimiento que elimine las reflexiones en los bordes. El problema es grave, pues se precisa disponer de un número muy grande de elementos lo que, limitado por la capacidad de la máquina, puede provocar una malla inadecuada para la representación de la estructura, siendo así que esta es nuestra preocupación básica. Por otro lado, si se utiliza la técnica modal, los dos o tres primeros modos del sistema global pueden no dar una representación apropiada del comportamiento de la estructura. El objetivo de este trabajo es la puesta a punto de un método que permita solventar estas dificultades y obtener la respuesta estructural con la precisión que se desee. Dado el carácter aleatorio de la solicitacion se ha dado un paso más y lo que se ha finalizado es con un estudio estadístico de la respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis aborda el estudio sobre los llamados mat buildings, que surgen entre los años cincuenta y sesenta del pasado siglo. Los mat buildings, también llamados “edificios esteras” o “edificios alfombras”, nacen en gran parte como consecuencia de los desacuerdos e insatisfacciones de los CIAM con el reduccionismo funcionalista y los principios de compartimentación funcional. Estos nuevos modelos remplazan el modelo de ciudad entendido como una colección de edificios individuales por una concepción de un patrón urbano. No es la suma de la longitud, la altura y el ancho sino más bien una densa alfombra bi-dimensional, con una configuración de formas que ofrece al mismo tiempo un orden repetitivo y una infinita diversidad de secuencias con infinitas posibilidades de adaptación donde el hombre vive y se desplaza. Estas características que irán apareciendo en la obras de muchos de los arquitectos que forman parte del grupo Team X son los que Alison Smithson empieza a revelar en su artículo, con la ambición de manifestar una nueva sensibilidad y una nueva forma de entender y ver la arquitectura. Los mat buildings y los cluster serán los códigos utilizados por diferentes miembros del Team X para pensar una arquitectura y un urbanismo alternativo al propuesto por los CIAM. Mediante ellos encuentran el camino para una nueva estética de la conexión con un desplazamiento desde una concepción determinista de la forma arquitectónica (una forma cerrada y en general definida a priori) hacia una actitud más libre, más abierta, fundamentada no tanto en la entereza de la forma global sino en cuanto a la intensidad de sus redes internas y de sus diferentes niveles de asociación. La tesis tiene como propósito final cuestionar si esta tipología de edificios, cuyo principio de base es siempre una matriz geométrica abierta (trama, retícula, malla), con crecimiento ilimitado, puede redefinir la frontera entre ciudad y edificio y, por tanto, entre público y privado, individual y colectivo, estructural e infraestructural, permanente y variable. Por ello, se presenta un estudio histórico y crítico en profundidad sobre los mat buildings, analizando detenidamente y por orden cronológico cinco de sus obras más paradigmáticas: el Orfanato en Ámsterdam de Aldo Van Eyck, la Universidad Libre en Berlín de Candilis, Josic y Woods, el Hospital de Venecia de Le Corbusier y Guillermo Jullián de la Fuente, el edificio administrativo de la Centraal Beheer en Apeldoorn de Herman Hertzberger, y por último el MUSAC en León, realizado por Mansilla y Tuñon. Las cuatro primeras obras pertenecen al periodo Team X y son precursoras de muchos otros proyectos que aparecerán a posteriori. La última obra analizada, el MUSAC, es estudiada conjuntamente con algunas obras del arquitecto japonés Sou Fujimoto y otros casos contemporáneos con la intención de manifestar cómo arquitectos de horizontes muy diferentes vuelven a recurrir a estos modelos de crecimientos ilimitados. Mediante el estudio de varios ejemplos contemporáneos se examinan las repercusiones, transformaciones y evoluciones que estos modelos han tenido. La exploración contrastada permite apreciar adecuadamente la pertinencia de estos modelos y los cambios de modalidades y de procesos que advienen con la aparición en el panorama contemporáneo de la noción de campo y los cambios de paradigma que conlleva. Estos nuevos modelos abren nuevos procesos y forma de abordar la arquitectura basada en las relaciones, flujos, movimientos y asociaciones que son caracterizados por diferentes patrones que vienen a alimentar todo el proceso del proyecto arquitectónico. El estudio de estos nuevos modelos nos indica las cualidades que puede ofrecer la revisión de estos métodos para empezar a tratar nuevas cuestiones que hoy en día parecen ser, permanentemente, parte de la condición urbana. XII ABSTRACT This thesis deals with the study of the so-called mat buildings which emerged between the fifties and sixties of the last century. Mat, or carpet, buildings appeared largely as a result of the CIAM’s disagreement and dissatisfaction with functionalist reductionism and the principles of functional compartmentalisation. These new models replaced the model of the city, seen as a collection of individual buildings, with the concept of an urban pattern. It is not the sum of the length, height and width but rather a dense, two- dimensional mat with a configuration of forms offering both a repetitive order and an infinite diversity of sequences with endless possibilities for adaptation, where man lives and circulates. These characteristics, which appeared in the works of many of the architects who formed part of Team X, are those that Alison Smithson started to reveal in her article with the aim of manifesting a new sensibility and a new way of understanding and seeing architecture. Mat buildings and clusters were the codes used by different members of Team X to plan an alternative architecture and urbanism to that proposed by the CIAM. With them, they found the path for a new aesthetic of connection, with a shift from a deterministic concept of the architectural form (closed and generally defined a priori) towards a more free, more open attitude based not so much on the integrity of the overall form but on the intensity of its internal networks and different levels of association. The end purpose of this thesis is to question whether this type of building, the basic principle of which is always an open geometric matrix (grid, recticle, network) with unlimited growth, can redefine the boundary between city and building and, thus, between public and private, individual and collective, structural and infrastructural, and permanent and variable. To this end, an in-depth historical and critical study of mat buildings is presented, analysing carefully and in chronological order five of the most paradigmatic works of this style: the Orphanage in Amsterdam, by Aldo Van Eyck; the Free University of Berlin, by Candilis, Josic and Woods; Venice Hospital, by Le Corbusier and Guillermo Jullián de la Fuente; the Centraal Beheer administration building in Apeldoorn, by Herman Hertzberger; and lastly, the MUSAC (Contemporary Art Museum) in León, designed by Mansilla and Tuñon. The first four works are from the Team X period and were the precursors to many other projects that would appear later. The last work analysed, the MUSAC, is studied together with some works by Japanese architect Sou Fujimoto and other contemporary cases to show how architects with very different perspectives revert to these models of limitless growth. Through the study of several contemporary examples we examine the repercussions, transformations and evolutions these models have had. The contrasted research XIII allows us to properly appreciate the importance of these models and the changes in forms and processes that came with the emergence of the idea of field in the contemporary arena and the paradigm shifts it entailed. These new models opened up new processes and a way of approaching architecture based on relationships, flows, movements and associations characterised by different patterns that feed the entire process of the architectural project. The study of these new models shows us the benefits that a review of these methods can contribute to addressing new issues that today appear to be a permanent part of the urban condition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto engloba el estudio del potencial fotovoltaico del Campus Sur de la Universidad Politécnica de Madrid. Este estudio se divide en tres partes. En primer lugar, se calcula la productividad del campus. En segundo lugar, se diseña la disposición de los generadores fotovoltaicos en los terrenos disponibles. Como paso final, se realiza un estudio económico de distintos supuestos. Para realizar los cálculos de productividad, se utiliza IESPRO, un programa desarrollado en Matlab©, junto con una aplicación complementaria desarrollada en el mismo lenguaje. Gracias a estos dos software es posible obtener una estimación muy realista de la energía anual generada. El aprovechamiento del terreno se estudia con la ayuda del software libre Sketchup©. Gracias a esta aplicación, es posible la reconstrucción del Campus Sur en 3D. Dicha reconstrucción incluye edificaciones y vegetación, facilitando la distribución de los generadores fotovoltaicos en todas las zonas, pudiendo evitar zonas con sombreado o no aptas para la instalación, y maximizando la utilización del terreno. El conjunto de los análisis anteriores permiten determinar el rendimiento energético del Campus Sur en sus distintas configuraciones, es decir, únicamente instalando generadores fotovoltaicos en las azoteas de los edificios, o la instalación en todo el terreno disponible, el cual incluye las azoteas y los descampados. Este rendimiento energético, comparado con el consumo anual de todo el campus, permite estimar el coste financiero de llevar a cabo la instalación y su rentabilidad, todo ello detallado en el estudio económico. El estudio económico se basa en dos supuestos, el primero de ellos, únicamente tiene en cuenta la instalación en las azoteas de los edificios. El segundo estudio, incluye los descampados y las azoteas. Con estos dos estudios se puede verificar la viabilidad del proyecto, facilitando datos concretos sobre las ventajas de cada uno de ellos. ABSTRACT. The aim of this work is to study the photovoltaic potential in the South Campus of the Polytechnic University of Madrid. The work has been divided into three parts. The first one is focused on the calculus of the solar harvesting productivity of the South Campus. The second part is centered in the development of the complete photovoltaic system layout design, taking into account the available placement. In the third part, an economic study considering several different scenarios is carried out. In order to calculate the solar productivity, the MATLAB based software tool IESPRO together with a complementary application developed in MATLAB as well, have been used. These programs allow to obtain an accurate estimation of the generated annual energy. The land use is studied with the help of free software SketchUp. With this application, it is possible to rebuild the South Campus in 3D. This reconstruction includes: buildings and vegetation, facilitating the distribution of photovoltaic generators in all areas, to avoid shaded or unsuitable areas for the installation, and maximizing land use. All the above analysis allow determining the energy efficiency of the South Campus for two different configurations, i.e., installing solar photovoltaic arrays only on the roofs of the buildings, or installing solar photovoltaic arrays throughout the land available, including vacant lots and rooftops. The facilities final cost and the cost effectiveness are estimated by comparing the energy efficiency with the South Campus total consumption. This study is based on two different scenarios: the first one considers the solar arrays installation in the buildings roofs, and the second one includes in the layout the vacant lots and rooftops. These studies allow verifying the feasibility of the project, and provide specific information related to the advantages and drawbacks of each scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La consola portátil Nintendo DS es una plataforma de desarrollo muy presente entre la comunidad de desarrolladores independientes, con una extensa y nutrida escena homebrew. Si bien las capacidades 2D de la consola están muy aprovechadas, dado que la mayor parte de los esfuerzos de los creadores amateur están enfocados en este aspecto, el motor 3D de ésta (el que se encarga de representar en pantalla modelos tridimensionales) no lo está de igual manera. Por lo tanto, en este proyecto se tiene en vista determinar las capacidades gráficas de la Nintendo DS. Para ello se ha realizado una biblioteca de funciones en C que permite aprovechar las posibilidades que ofrece la consola en el terreno 3D y que sirve como herramienta para la comunidad homebrew para crear aplicaciones 3D de forma sencilla, dado que se ha diseñado como un sistema modular y accesible. En cuanto al proceso de renderizado se han sacado varias conclusiones. En primer lugar se ha determinado la posibilidad de asignar varias componentes de color a un mismo vértice (color material reactivo a la iluminación, color por vértice directo y color de textura), tanto de forma independiente como simultáneamente, pudiéndose utilizar para aplicar diversos efectos al modelo, como iluminación pre-calculada o simulación de una textura mediante color por vértice, ahorrando en memoria de video. Por otro lado se ha implementado un sistema de renderizado multi-capa, que permite realizar varias pasadas de render, pudiendo, de esta forma, aplicar al modelo una segunda textura mezclada con la principal o realizar un efecto de reflexión esférica. Uno de los principales avances de esta herramienta con respecto a otras existentes se encuentra en el apartado de animación. El renderizador desarrollado permite por un lado animación por transformación, consistente en la animación de mallas o grupos de vértices del modelo mediante el movimiento de una articulación asociada que determina su posición y rotación en cada frame de animación. Por otro lado se ha implementado un sistema de animación por muestreo de vértices mediante el cual se determina la posición de éstos en cada instante de la animación, generando frame a frame las poses que componen el movimiento (siendo este último método necesario cuando no se puede animar una malla por transformación). Un mismo modelo puede contener diferentes esqueletos, animados independientemente entre sí, y cada uno de ellos tener definidas varias costumbres de animación que correspondan a movimientos contextuales diferentes (andar, correr, saltar, etc). Además, el sistema permite extraer cualquier articulación para asociar su transformación a un objeto estático externo y que éste siga el movimiento de la animación, pudiendo así, por ejemplo, equipar un objeto en la mano de un personaje. Finalmente se han implementado varios efectos útiles en la creación de escenas tridimensionales, como el billboarding (tanto esférico como cilíndrico), que restringe la rotación de un modelo para que éste siempre mire a cámara y así poder emular la apariencia de un objeto tridimensional mediante una imagen plana, ahorrando geometría, o emplearlo para realizar efectos de partículas. Por otra parte se ha implementado un sistema de animación de texturas por subimágenes que permite generar efectos de movimiento mediante imágenes, sin necesidad de transformar geometría. ABSTRACT. The Nintendo DS portable console has received great interest within the independent developers’ community, with a huge homebrew scene. The 2D capabilities of this console are well known and used since most efforts of the amateur creators has been focused on this point. However its 3D engine (which handles with the representation of three-dimensional models) is not equally used. Therefore, in this project the main objective is to assess the Nintendo DS graphic capabilities. For this purpose, a library of functions in C programming language has been coded. This library allows the programmer to take advantage of the possibilities that the 3D area brings. This way the library can be used by the homebrew community as a tool to create 3D applications in an easy way, since it has been designed as a modular and accessible system. Regarding the render process, some conclusions have been drawn. First, it is possible to assign several colour components to the same vertex (material colour, reactive to the illumination, colour per vertex and texture colour), independently and simultaneously. This feature can be useful to apply certain effects on the model, such as pre-calculated illumination or the simulation of a texture using colour per vertex, providing video memory saving. Moreover, a multi-layer render system has been implemented. This system allows the programmer to issue several render passes on the same model. This new feature brings the possibility to apply to the model a second texture blended with the main one or simulate a spherical reflection effect. One of the main advances of this tool over existing ones consists of its animation system. The developed renderer includes, on the one hand, transform animation, which consists on animating a mesh or groups of vertices of the model by the movement of an associated joint. This joint determines position and rotation of the mesh at each frame of the animation. On the other hand, this tool also implements an animation system by vertex sampling, where the position of vertices is determined at every instant of the animation, generating the poses that build up the movement (the latter method is mandatory when a mesh cannot be animated by transform). A model can contain multiple skeletons, animated independently, each of them being defined with several animation customs, corresponding to different contextual movements (walk, run, jump, etc). Besides, the system allows extraction of information from any joint in order to associate its transform to a static external object, which will follow the movement of the animation. This way, any object could be equipped, for example, on the hand of a character. Finally, some useful effects for the creation of three-dimensional scenes have been implemented. These effects include billboarding (both spherical and cylindrical), which constraints the rotation of a model so it always looks on the camera's direction. This feature can provide the ability to emulate the appearance of a three-dimensional model through a flat image (saving geometry). It can also be helpful in the implementation of particle effects. Moreover, a texture animation system using sub-images has also been implemented. This system allows the generation of movement by using images as textures, without having to transform geometry.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto propone la creación de un procedimiento y metodología para el diseño de salas y sistemas electroacústicos basados en el software EASE. La sala tipo elegida para el diseño será una sala de cine bajo las premisas de DOLBY Digital. Los sistemas electroacústicos modelo serán: • Sistema distribuido tanto en malla cuadrada como hexagonal • Sistemas centralizados basados en agrupaciones, tanto lineales como circulares. Se establecerán los pasos básicos imprescindibles para el diseño de los sistemas descritos de forma que, con la ayuda de este tutorial y los medios didácticos adjuntos al mismo, se puedan acometer paso a paso las distintas fases de diseño, cálculo y análisis de los mismos. Como metodología de trabajo se acometerá el proceso de diseño de un ejemplo de cada tipo sobre el que se describirán todos los pasos, posibilidades de diseño y cálculo de los mismos. Los puntos de estudio serán: • Diseño de una sala de Cine ◦Importación de los Ficheros Autocad del cine a EASE ◦Dibujo del recinto en EASE ◦Inserción de materiales ◦Cálculo del tiempo de reverberación en función del volumen de la sala ◦Ajuste del tiempo de reverberación ◦Elección de altavoces para la sonorización ◦Comprobación de la uniformidad de campo sonoro en todos los canales ◦Comprobación de los niveles de pico y total por canal ◦Ecualización de la sala según la curva X (ISO-2969) ◦Inclusión de la Pantalla en la curva de ecualización ◦Estudios psicoacústico de la sala. Retardos ◦Inteligibilidad ◦Diagrama de bloques • Diseño de un sistema distribuido ◦Estudio de los diferentes tipos de solapamientos ▪Borde con Borde ▪Solapamiento mínimo ▪Centro con Centro ◦Estudio de los diferente tipos de mallas ▪Cuadrada ▪Hexagonal • Diseño de un sistema Centralizado ◦Sistemas centralizados tipo Linear Array ◦Sistemas centralizados tipo Circular Array Así mismo se estudiarán las diferentes posibilidades dentro de la suite EASE, incluyendo las versiones gratuitas del mismo EASE ADDRESS (sistemas distribuidos) y FOCUS II (sistemas centralizados), comparando sus posibilidades con los módulos comerciales equivalentes de EASE y las herramientas añadidas del mismo EARS (software para la auralización biaural) y AURA (utilidad de análisis extendido). ABSTRACT This project proposes the creation of a procedure and methodology for the design of rooms and electroacoustic systems based on EASE software. The room chosen as example design is a cinema under DOLBY Digital premises. Electroacoustic systems chosen as example are: • Distributed both square and hexagonal mesh • Centralized systems based on clusters, both linear and circular. It will be established the basic essential steps for the design of the systems described so, with this tutorial and attached teaching aids, could be undertaken the various stages of design, calculation and analysis. As a working methodology, the process design of an example will be described of each system on which all the steps described, design possibilities and calculation will be shown. The main points are: • Design of a cinema • Importing Autocad Files in EASE • Drawing with EASE • Materials insertion • Reverberation time based on the room volume • Adjusting reverberation time • Choosing speakers • Checking sound field uniformity in all channels • Checking peak levels and total level per each channel • Room equalization using X curve (ISO-2969) • Adding screen in the EQ • Psychoacoustic. Delays • Intelligibility • Block diagram • Design of a distributed system • Study of the different types of overlap o Edge to Edge o Minimum Overlap o Center to Center • Study of different types of mesh • Square • Hex • Centralized System Design • Centralized systems. Linear Array • Centralized systems. Circular Array It also will explore the different possibilities within the EASE suite, including the free versions of the same EASE ADDRESS (distributed systems) and FOCUS II (centralized), comparing its potential with commercial equivalents EASE modules and added tools EARS (software for biaural auralization) and AURA (utility extended analysis).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este articulo se resumen las principales ideas relacionadas con la resolución de problemas elípticos mediante fórmulas de representación. El uso de una familia de funciones interpolantes jerarquizadas permite el establecimiento de un sistema de resolución autoadaptable a un nivel de exactitud prefijado. Se incluye también una comparación descriptiva con el método de los elementos finitos. La extracción de una mejor solución sin refinar la malla se obtiene en el Método de los Elementos de Contorno, gracias a la aplicación de la fórmula de representación para puntos de contorno. Ello permite diseñar una estrategia de indicadores y estimadores que mejora la eficacia de intentos anteriores y permite controlar el desarrollo de la solución tanto en las versiones p como en la h o mixtos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.