885 resultados para Malla sintética


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este artículo es el análisis lineal de estructuras laminares sometidas a excitaciones dinámicas con alto contenido en frecuencia. El método numérico propuesto utiliza para el modelado elementos continuos monodimensionales. La respuesta exacta de este tipo de elementos es conocida, y por lo tanto el método es más conveniente para este tipo de problemas que otros métodos convencionales basados en discretización espacial, por ejemplo el método de los elementos finitos (MEF), que precisarían de una malla muy fina para recoger adecuadamente los fenómenos de interés. El estudio aquí descrito se limita a estructuras axisimétricas con formas cilíndricas o cónicas. Se presentan criterios para modelar dichas estructuras mediante vigas sobre apoyo elástico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analysis of river flow using hydraulic modelling and its implications in derived environ-mental applications are inextricably connected with the way in which the river boundary shape is represented. This relationship is scale-dependent upon the modelling resolution which in turn determines the importance of a subscale performance of the model and the way subscale (surface and flow) processes are parameterised. Commonly, the subscale behaviour of the model relies upon a roughness parameterisation whose meaning depends on the dimensionality of the hydraulic model and the resolution of the topographic represen¬tation scale. This latter is, in turn, dependent on the resolution of the computational mesh as well as on the detail of measured topographic data. Flow results are affected by this interactions between scale and subscale parameterisation according to the dimensionality approach. The aim of this dissertation is the evaluation of these interactions upon hy¬draulic modelling results. Current high resolution topographic source availability induce this research which is tackled using a suitable roughness approach according to each di¬mensionality with the purpose of the interaction assessment. A 1D HEC-RAS model, a 2D raster-based diffusion-wave model with a scale-dependent distributed roughness parame-terisation and a 3D finite volume scheme with a porosity algorithm approach to incorporate complex topography have been used. Different topographic sources are assessed using a 1D scheme. LiDAR data are used to isolate the mesh resolution from the topographic content of the DEM effects upon 2D and 3D flow results. A distributed roughness parameterisation, using a roughness height approach dependent upon both mesh resolution and topographic content is developed and evaluated for the 2D scheme. Grain-size data and fractal methods are used for the reconstruction of topography with microscale information, required for some applications but not easily available. Sensitivity of hydraulic parameters to this topographic parameterisation is evaluated in a 3D scheme at different mesh resolu¬tions. Finally, the structural variability of simulated flow is analysed and related to scale interactions. Model simulations demonstrate (i) the importance of the topographic source in a 1D models; (ii) the mesh resolution approach is dominant in 2D and 3D simulations whereas in a 1D model the topographic source and even the roughness parameterisation impacts are more critical; (iii) the increment of the sensitivity to roughness parameterisa-tion in 1D and 2D schemes with detailed topographic sources and finer mesh resolutions; and (iv) the topographic content and microtopography impact throughout the vertical profile of computed 3D velocity in a depth-dependent way, whereas 2D results are not affected by topographic content variations. Finally, the spatial analysis shows that the mesh resolution controls high resolution model scale results, roughness parameterisation control 2D simulation results for a constant mesh resolution; and topographic content and micro-topography variations impacts upon the organisation of flow results depth-dependently in a 3D scheme. Resumen La topografía juega un papel fundamental en la distribución del agua y la energía en los paisajes naturales (Beven and Kirkby 1979; Wood et al. 1997). La simulación hidráulica combinada con métodos de medición del terreno por teledetección constituyen una poderosa herramienta de investigación en la comprensión del comportamiento de los flujos de agua debido a la variabilidad de la superficie sobre la que fluye. La representación e incorporación de la topografía en el esquema hidráulico tiene una importancia crucial en los resultados y determinan el desarrollo de sus aplicaciones al campo medioambiental. Cualquier simulación es una simplificación de un proceso del mundo real, y por tanto el grado de simplificación determinará el significado de los resultados simulados. Este razonamiento es particularmente difícil de trasladar a la simulación hidráulica donde aspectos de la escala tan diferentes como la escala de los procesos de flujo y de representación del contorno son considerados conjuntamente incluso en fases de parametrización (e.g. parametrización de la rugosidad). Por una parte, esto es debido a que las decisiones de escala vienen condicionadas entre ellas (e.g. la dimensionalidad del modelo condiciona la escala de representación del contorno) y por tanto interaccionan en sus resultados estrechamente. Y por otra parte, debido a los altos requerimientos numéricos y computacionales de una representación explícita de alta resolución de los procesos de flujo y discretización de la malla. Además, previo a la modelización hidráulica, la superficie del terreno sobre la que el agua fluye debe ser modelizada y por tanto presenta su propia escala de representación, que a su vez dependerá de la escala de los datos topográficos medidos con que se elabora el modelo. En última instancia, esta topografía es la que determina el comportamiento espacial del flujo. Por tanto, la escala de la topografía en sus fases de medición y modelización (resolución de los datos y representación topográfica) previas a su incorporación en el modelo hidráulico producirá a su vez un impacto que se acumulará al impacto global resultante debido a la escala computacional del modelo hidráulico y su dimensión. La comprensión de las interacciones entre las complejas geometrías del contorno y la estructura del flujo utilizando la modelización hidráulica depende de las escalas consideradas en la simplificación de los procesos hidráulicos y del terreno (dimensión del modelo, tamaño de escala computacional y escala de los datos topográficos). La naturaleza de la aplicación del modelo hidráulico (e.g. habitat físico, análisis de riesgo de inundaciones, transporte de sedimentos) determina en primer lugar la escala del estudio y por tanto el detalle de los procesos a simular en el modelo (i.e. la dimensionalidad) y, en consecuencia, la escala computacional a la que se realizarán los cálculos (i.e. resolución computacional). Esta última a su vez determina, el detalle geográfico con que deberá representarse el contorno acorde con la resolución de la malla computacional. La parametrización persigue incorporar en el modelo hidráulico la cuantificación de los procesos y condiciones físicas del sistema natural y por tanto debe incluir no solo aquellos procesos que tienen lugar a la escala de modelización, sino también aquellos que tienen lugar a un nivel subescalar y que deben ser definidos mediante relaciones de escalado con las variables modeladas explícitamente. Dicha parametrización se implementa en la práctica mediante la provisión de datos al modelo, por tanto la escala de los datos geográficos utilizados para parametrizar el modelo no sólo influirá en los resultados, sino también determinará la importancia del comportamiento subescalar del modelo y el modo en que estos procesos deban ser parametrizados (e.g. la variabilidad natural del terreno dentro de la celda de discretización o el flujo en las direcciones laterales y verticales en un modelo unidimensional). En esta tesis, se han utilizado el modelo unidimensional HEC-RAS, (HEC 1998b), un modelo ráster bidimensional de propagación de onda, (Yu 2005) y un esquema tridimensional de volúmenes finitos con un algoritmo de porosidad para incorporar la topografía, (Lane et al. 2004; Hardy et al. 2005). La geometría del contorno viene definida por la escala de representación topográfica (resolución de malla y contenido topográfico), la cual a su vez depende de la escala de la fuente cartográfica. Todos estos factores de escala interaccionan en la respuesta del modelo hidráulico a la topografía. En los últimos años, métodos como el análisis fractal y las técnicas geoestadísticas utilizadas para representar y analizar elementos geográficos (e.g. en la caracterización de superficies (Herzfeld and Overbeck 1999; Butler et al. 2001)), están promoviendo nuevos enfoques en la cuantificación de los efectos de escala (Lam et al. 2004; Atkinson and Tate 2000; Lam et al. 2006) por medio del análisis de la estructura espacial de la variable (e.g. Bishop et al. 2006; Ju et al. 2005; Myint et al. 2004; Weng 2002; Bian and Xie 2004; Southworth et al. 2006; Pozd-nyakova et al. 2005; Kyriakidis and Goodchild 2006). Estos métodos cuantifican tanto el rango de valores de la variable presentes a diferentes escalas como la homogeneidad o heterogeneidad de la variable espacialmente distribuida (Lam et al. 2004). En esta tesis, estas técnicas se han utilizado para analizar el impacto de la topografía sobre la estructura de los resultados hidráulicos simulados. Los datos de teledetección de alta resolución y técnicas GIS también están siendo utilizados para la mejor compresión de los efectos de escala en modelos medioambientales (Marceau 1999; Skidmore 2002; Goodchild 2003) y se utilizan en esta tesis. Esta tesis como corpus de investigación aborda las interacciones de esas escalas en la modelización hidráulica desde un punto de vista global e interrelacionado. Sin embargo, la estructura y el foco principal de los experimentos están relacionados con las nociones espaciales de la escala de representación en relación con una visión global de las interacciones entre escalas. En teoría, la representación topográfica debe caracterizar la superficie sobre la que corre el agua a una adecuada (conforme a la finalidad y dimensión del modelo) escala de discretización, de modo que refleje los procesos de interés. La parametrización de la rugosidad debe de reflejar los efectos de la variabilidad de la superficie a escalas de más detalle que aquellas representadas explícitamente en la malla topográfica (i.e. escala de discretización). Claramente, ambos conceptos están físicamente relacionados por un

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se han cubierto diferentes asuntos del diseño neutrónico de los aspectos radiológicos de las dos instalaciones del proyecto HiPER. El proyecto HiPER es un proyecto europeo concebido en el marco del programa ESFRI (European Scientific Facilities Research Infrastructure). Está destinado al desarrollo de la energía de fusión nuclear inercial mediante el uso de láseres y el esquema iluminación directa. Consecuentemente, se trata de una instalación con fines exclusivamente civiles. Se divide en dos fases, correspondientes con dos instalaciones: HiPER Engineering y HiPER Reactor. La instalación HiPER Engineering desarrollará las tecnologías implicadas en la ignición de alta repetición de cápsulas de DT por iluminación directa. El HiPER Reactor será una planta demostradora que produzca electricidad haciendo uso de las tecnologías desarrolladas durante la fase HiPER Engineering. El HiPER Engineering se centrará en las tecnologías relevantes para las igniciones a alta repetición de cápsulas de DT usando la iluminación directa. El principal esfuerzo de desarrollo tecnológico se hará en todos los asuntos directamente relacionados con la ignición: láseres, óptica, inyector, y fabricación masiva de cápsulas entre otros. Se espera una producción de entre 5200 MJ/año y 120000 MJ/año dependiendo del éxito de la instalación. Comparado con la energía esperada en NIF, 1200 MJ/año, se trata de un reto y un paso más allá en la protección radiológica. En este trabajo se ha concebido una instalación preliminar. Se ha evaluado desde el punto de vista de la protección radiológica, siendo las personas y la óptica el objeto de protección de este estudio. Se ha establecido una zonificación durante la operación y durante el mantenimiento de la instalación. Además, se ha llevado a cabo una evaluación de la selección de materiales para la cámara de reacción desde el punto de vista de gestión de residuos radiactivos. El acero T91 se ha seleccionado por, siendo un acero comercial, presentar el mismo comportamiento que el acero de baja activación EUROFER97 al evaluarse como residuo con el nivel de irradiación de HiPER Engineering. Teniendo en cuenta los resultados obtenidos para la instalación preliminar y las modificaciones de la instalación motivadas en otros campos, se ha propuesto una instalación avanzada también en este trabajo. Un análisis más profundo de los aspectos radiológicos, así como una evaluación completa de la gestión de todos los residuos radiactivos generados en la instalación se ha llevado a cabo. La protección radiológica se ha incrementado respecto de la instalación preliminar, y todos los residuos pueden gestionarse en un plazo de 30 sin recurrir al enterramiento de residuos. El HiPER Reactor sera una planta demostradora que produzca electricidad basada en las tecnologías de ignición desarrolladas durante la fase HiPER Engineering. El esfuerzo de desarrollo tecnológico se llevará a cabo en los sistemas relacionados con la generación de electricidad en condiciones económicas: manto reproductor de tritio, ciclos de potencia, vida y mantenimiento de componentes, o sistemas de recuperación de tritio entre otros. En este trabajo la principal contribución a HiPER Reactor está relacionada con el diseño de la cámara de reacción y sus extensiones en la planta. La cámara de reacción es la isla nuclear más importante de la planta, donde la mayoría de las reacciones nucleares tienen lugar. Alberga la primera pared, el manto reproductor de tritio y la vasija de vacío. Todo el trabajo realizado aquí ha pivotado en torno al manto reproductor de tritio y sus interacciones con el resto de componentes de la planta. Tras una revisión profunda de la bibliografía de los diseños recientes de cámaras de reacción con características similares a HiPER Reactor, se ha propuesto y justificado un esquema tecnológico innovador para el manto reproductor de tritio. El material fértil selecconado es el eutéctico 15.7 at.% Litio – 84.3 at.% Plomo, LiPb, evitando el uso de berilio como multiplicador neutrónico mientras se garantiza el ajuste online de la tasa de reproducción de tritio mediante el ajuste en el enriquecimiento en 6Li. Aunque se podría haber elegido Litio purom el LiPb evita problemas relacionados con la reactividad química. El precio a pagar es un reto materializado como inventario radiactivo de Z alto en el lazo de LiPb que debe controlarse. El material estructural seleccionado es el acero de baja activación EUROFER97, que estará en contacto directo con le LiPb fluyendo a alta velocidad. En este esquema tecnológico, el LiPb asegurará la autosuficiente de tritio de la planta mientras el propio LiPb extrae del manto el calor sobre él depositado por los neutrones. Este esquema recibe el nombre de manto de Litio-Plomo auto-refrigerado (SCLL por sus siglas en inglés). Respecto de los conceptos SCLL previos, es destacable que nos e requieren componentes del SiC, puesto que no hay campos magnéticos en la cámara de reacción. Consecuentemente, el manto SCLL propuesto para HiPER presenta riesgo tecnológicos moderados, similares a otros dispositivos de fusión magnética, como el HCLL, e incluso inferiores a los del DCLL, puesto que no se require SiC. Los retos que se deben afrontar son el control del inventario de Z alto así como las tasas de corrosión derivadas de la interacción del LiPb con el EUROFE97. En este trabajo se abordan ambos aspectos, y se presentan los respectivos análisis, junto con otros aspectos neutrónicos y de activación, tales como la protección de la vasija de vacío por parte del material fértil para garantizar la resoldabilidad de por vida en la cara externa de la vasija. También se propone y se estudio un ciclo de potencia de Brayton de Helio para dos configuraciones diferentes de refrigeración del sistema primera pared-manto reproductor. Las principales conclusiones de estos estudios son: i) el inventario de Z alto puede controlarse y es comparable al que se encuentra en dispositivos de fusión similares, ii)la vasija de vacío requiere una mayor protección frente a la radiación neutrónica y iii) las tasas de corrosión son demasiado altas y la temperatura media de salida del LiPb es demasiado baja. Tiendo en cuenta estos resultados juntos con otras consideraciones relacionadas con el mantenimiento de componentes y la viabilidad constructiva, se ha propuesto una evolución de la cámara de reacción. Las evoluciones más destacables son la introducción de un reflector neutrónico de grafito, la modificación de la configuración de la óptica final, la forma y el tamaño de la cámara de vacío y una nueva subdivisión modular del manto. Se ha evaluado desde el punto de vista neutrónico, y su análisis y posterior evolución queda fuera del objeto de este trabajo. Los códigos utilizados en este trabajo son: CATIA para la generación de geometrías 3D complejas MCAM para la traducción de archivos de CATIA a formato de input de MCNP MCNP para el transporte de la radiación (neutrones y gammas) y sus respuestas asociadas ACAB para la evolución del inventario isotópico y sus respuestas asociadas MC2ACAB para acoplar MCNP y ACAB para el cómputo de dosis en parada usando la metodología R2S basada en celda. Moritz para visualizar los reultados de MCNP FLUENT para llevar a cabo cálculos de fluido-dinámica Para llevar a cabo este trabajo, han sido necesarias unas destrezas computacionales. Las más relevantes utilizadas son: generación de geometrás 3D complejas y transmisión a MCNP, diferentes tñecnica de reducción de varianza como importancia por celdas y weight windows basado en malla, metodología Rigorous-two-Steps basada en celdas para el cálculo de dosis en parada y la modificación del código ACAB para el cálculos con múltiples espectros en la misma simulación. Como resumen, la contribución de este trabajo al proyecto HiPER son dos diseños conceptuales de instalación: una para HiPER Engineering y otra para HiPER Reactor. La primera se ha estudio en profundidad desde el punto de vista de protección radiológica y gestión de residuos, mientras que la segunda se ha estudiado desde el punto de vista de operación: seguridad, comportamiento, vida y mantenimiento de componentes y eficiencia del ciclo de potencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los códigos de difusión en multigrupos para an álisis tridimensional de núcleos PWR emplean como datos de entrada librerías de parámetros equivalentes homogeneizados y condensados (secciones eficaces y factores de discontinuidad), que dependen de las variables de estado como temperaturas o densidades. Típicamente, esos pará metros se pre-generan para cada tipo de celda o elemento combustible con un código de transporte determinista, dependiendo en gran medida la precisión de los cálculos neutrónicos acoplados con la termohidráulica de la calidad de la librería generada. Las librerías tabuladas son la forma más extendida de compilar las secciones eficaces pre-generadas. Durante el cálculo de núcleo, el código de difusión simplemente obtiene las secciones eficaces por interpolación de los valores en los puntos de la malla. Como los errores de interpolación dependen de la distancia entre esos puntos, se requiere un considerable refinamiento de la malla –con todas las posibles combinaciones de las variables de estado– para conseguir una precisión adecuada, lo que conduce a requisitos elevados de almacenamiento y un gran número de cálculos de transporte para su generación. Para evitar este inconveniente, se ha desarrollado un procedimiento de optimización de librerías tabuladas que permite seleccionar el menor número de puntos de malla para cada variable de estado independiente, manteniendo un error objetivo en la constante de multiplicación k-efectiva. El procedimiento consiste en determinar, aplicando teoría de perturbaciones, los coeficientes de sensibilidad de la k-efectiva con las secciones eficaces. Ello permite evaluar la influencia de los errores de interpolación de cada sección eficaz en la constante de multiplicación para cualquier combinación de las variables de estado. La medida de esta influencia o sensibilidad permite establecer una distancia óptima entre puntos de interpolación dado un error objetivo sobre la constante de multiplicación. Distintos números de grupos de energía, composiciones del elemento combustible y escalas de homogeneización, han sido estudia dos para conocer su efecto sobre la optimización. Asimismo se ha comprobado la influencia de variar el error objetivo o el grado del polinomio de interpolación entre puntos. Finalmente, se realiza un cálculo con la librería optimizada, y se verifica que el error en la k-efectiva está limitado. Se reduce así el tamaño de la librería sin comprometer su grado de precisión en todo el rango de interés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto del presente trabajo es la determinación de la distribución de tensiones en la unión carpintera de empalme de llave mediante el método de los elementos finitos y su comparación con los valores obtenidos mediante la teoría de Resistencia de Materiales. Se analizan las zonas donde se produce concentración de tensiones y se estudia la influencia del refino de la malla sobre los resultados con el fin de determinar el tamaño que proporciona los valores de tensión más ajustados a la teoría. En las zonas donde la concentración de tensiones es menor, distintos tamaños de la malla muestran valores de tensión similares. Los resultados muestran una simetría central de la distribución de isotensiones donde el centro de simetría se corresponde con el centro geométrico de la unión. En las zonas donde se produce concentración de tensiones, los valores de las mismas aumentan considerablemente con el refino de la malla. La comparación de los niveles de tensiones normales obtenidos por el MEF y la teoría clásica muestran diferencias reducidas, excepto en los puntos de concentración de tensiones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construcción de una obra subterránea con las características de un túnel o condución de cualquier tipo afecta las propiedades del medio en el que se realiza, poniendo de manifiesto un problema que sólo en épocas relativamente recientes ha recibido antención: la interacción terreno-estructura. Si en las construcciones exteriores (edificios, presas etc.) la importancia de la interacción sólo existe en los casos de grandes obras, aquí la cuestión se plantea como algo intrínseco a la naturaleza del problema. La inclusión de las características del terreno en el análisis dinámico no es un problema sencillo, debido tanto a las irregularidades geométricas posibles, como a la incertidumbre respecto a las propiedades mecánicas. Por si fuera poco la aleatoriedad de las solicitaciones que estudiamos; terremotos, explosiones etc. exige un tratamiento estadístico de los resultados que se obtengan. Aunque se han realizado intentos analíticos para la resolución del problema, tropiezan siempre con la dificultad de las drásticas simplificaciones que es preciso suponer para hacer tratable el problema; estas simplificaciones pueden falsear los resultados deseados. De hecho, el único medio de introducir las numerosas variantes que aparecen es recurrir a los métodos numéricos de discretización. En este estudio hemos tanteado dos posibilidades. Finalmente, el método de los elementos finitos (F.E.M.)aparece como el más adecuado por su versatilidad y rápidez. El análisis dinámico mediante elementos finitos presenta algunos problemas, relativos fundamentalmente al modelado del medio. En efecto, la discretización introduce problemas al pretender simular la propagacíón de las ondas, y la presencia de contornos a distancia finita hace que se presenten problemas a menos que se dispongan medios como contornos absorbentes o cualquier otro procedimiento que elimine las reflexiones en los bordes. El problema es grave, pues se precisa disponer de un número muy grande de elementos lo que, limitado por la capacidad de la máquina, puede provocar una malla inadecuada para la representación de la estructura, siendo así que esta es nuestra preocupación básica. Por otro lado, si se utiliza la técnica modal, los dos o tres primeros modos del sistema global pueden no dar una representación apropiada del comportamiento de la estructura. El objetivo de este trabajo es la puesta a punto de un método que permita solventar estas dificultades y obtener la respuesta estructural con la precisión que se desee. Dado el carácter aleatorio de la solicitacion se ha dado un paso más y lo que se ha finalizado es con un estudio estadístico de la respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis aborda el estudio sobre los llamados mat buildings, que surgen entre los años cincuenta y sesenta del pasado siglo. Los mat buildings, también llamados “edificios esteras” o “edificios alfombras”, nacen en gran parte como consecuencia de los desacuerdos e insatisfacciones de los CIAM con el reduccionismo funcionalista y los principios de compartimentación funcional. Estos nuevos modelos remplazan el modelo de ciudad entendido como una colección de edificios individuales por una concepción de un patrón urbano. No es la suma de la longitud, la altura y el ancho sino más bien una densa alfombra bi-dimensional, con una configuración de formas que ofrece al mismo tiempo un orden repetitivo y una infinita diversidad de secuencias con infinitas posibilidades de adaptación donde el hombre vive y se desplaza. Estas características que irán apareciendo en la obras de muchos de los arquitectos que forman parte del grupo Team X son los que Alison Smithson empieza a revelar en su artículo, con la ambición de manifestar una nueva sensibilidad y una nueva forma de entender y ver la arquitectura. Los mat buildings y los cluster serán los códigos utilizados por diferentes miembros del Team X para pensar una arquitectura y un urbanismo alternativo al propuesto por los CIAM. Mediante ellos encuentran el camino para una nueva estética de la conexión con un desplazamiento desde una concepción determinista de la forma arquitectónica (una forma cerrada y en general definida a priori) hacia una actitud más libre, más abierta, fundamentada no tanto en la entereza de la forma global sino en cuanto a la intensidad de sus redes internas y de sus diferentes niveles de asociación. La tesis tiene como propósito final cuestionar si esta tipología de edificios, cuyo principio de base es siempre una matriz geométrica abierta (trama, retícula, malla), con crecimiento ilimitado, puede redefinir la frontera entre ciudad y edificio y, por tanto, entre público y privado, individual y colectivo, estructural e infraestructural, permanente y variable. Por ello, se presenta un estudio histórico y crítico en profundidad sobre los mat buildings, analizando detenidamente y por orden cronológico cinco de sus obras más paradigmáticas: el Orfanato en Ámsterdam de Aldo Van Eyck, la Universidad Libre en Berlín de Candilis, Josic y Woods, el Hospital de Venecia de Le Corbusier y Guillermo Jullián de la Fuente, el edificio administrativo de la Centraal Beheer en Apeldoorn de Herman Hertzberger, y por último el MUSAC en León, realizado por Mansilla y Tuñon. Las cuatro primeras obras pertenecen al periodo Team X y son precursoras de muchos otros proyectos que aparecerán a posteriori. La última obra analizada, el MUSAC, es estudiada conjuntamente con algunas obras del arquitecto japonés Sou Fujimoto y otros casos contemporáneos con la intención de manifestar cómo arquitectos de horizontes muy diferentes vuelven a recurrir a estos modelos de crecimientos ilimitados. Mediante el estudio de varios ejemplos contemporáneos se examinan las repercusiones, transformaciones y evoluciones que estos modelos han tenido. La exploración contrastada permite apreciar adecuadamente la pertinencia de estos modelos y los cambios de modalidades y de procesos que advienen con la aparición en el panorama contemporáneo de la noción de campo y los cambios de paradigma que conlleva. Estos nuevos modelos abren nuevos procesos y forma de abordar la arquitectura basada en las relaciones, flujos, movimientos y asociaciones que son caracterizados por diferentes patrones que vienen a alimentar todo el proceso del proyecto arquitectónico. El estudio de estos nuevos modelos nos indica las cualidades que puede ofrecer la revisión de estos métodos para empezar a tratar nuevas cuestiones que hoy en día parecen ser, permanentemente, parte de la condición urbana. XII ABSTRACT This thesis deals with the study of the so-called mat buildings which emerged between the fifties and sixties of the last century. Mat, or carpet, buildings appeared largely as a result of the CIAM’s disagreement and dissatisfaction with functionalist reductionism and the principles of functional compartmentalisation. These new models replaced the model of the city, seen as a collection of individual buildings, with the concept of an urban pattern. It is not the sum of the length, height and width but rather a dense, two- dimensional mat with a configuration of forms offering both a repetitive order and an infinite diversity of sequences with endless possibilities for adaptation, where man lives and circulates. These characteristics, which appeared in the works of many of the architects who formed part of Team X, are those that Alison Smithson started to reveal in her article with the aim of manifesting a new sensibility and a new way of understanding and seeing architecture. Mat buildings and clusters were the codes used by different members of Team X to plan an alternative architecture and urbanism to that proposed by the CIAM. With them, they found the path for a new aesthetic of connection, with a shift from a deterministic concept of the architectural form (closed and generally defined a priori) towards a more free, more open attitude based not so much on the integrity of the overall form but on the intensity of its internal networks and different levels of association. The end purpose of this thesis is to question whether this type of building, the basic principle of which is always an open geometric matrix (grid, recticle, network) with unlimited growth, can redefine the boundary between city and building and, thus, between public and private, individual and collective, structural and infrastructural, and permanent and variable. To this end, an in-depth historical and critical study of mat buildings is presented, analysing carefully and in chronological order five of the most paradigmatic works of this style: the Orphanage in Amsterdam, by Aldo Van Eyck; the Free University of Berlin, by Candilis, Josic and Woods; Venice Hospital, by Le Corbusier and Guillermo Jullián de la Fuente; the Centraal Beheer administration building in Apeldoorn, by Herman Hertzberger; and lastly, the MUSAC (Contemporary Art Museum) in León, designed by Mansilla and Tuñon. The first four works are from the Team X period and were the precursors to many other projects that would appear later. The last work analysed, the MUSAC, is studied together with some works by Japanese architect Sou Fujimoto and other contemporary cases to show how architects with very different perspectives revert to these models of limitless growth. Through the study of several contemporary examples we examine the repercussions, transformations and evolutions these models have had. The contrasted research XIII allows us to properly appreciate the importance of these models and the changes in forms and processes that came with the emergence of the idea of field in the contemporary arena and the paradigm shifts it entailed. These new models opened up new processes and a way of approaching architecture based on relationships, flows, movements and associations characterised by different patterns that feed the entire process of the architectural project. The study of these new models shows us the benefits that a review of these methods can contribute to addressing new issues that today appear to be a permanent part of the urban condition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La consola portátil Nintendo DS es una plataforma de desarrollo muy presente entre la comunidad de desarrolladores independientes, con una extensa y nutrida escena homebrew. Si bien las capacidades 2D de la consola están muy aprovechadas, dado que la mayor parte de los esfuerzos de los creadores amateur están enfocados en este aspecto, el motor 3D de ésta (el que se encarga de representar en pantalla modelos tridimensionales) no lo está de igual manera. Por lo tanto, en este proyecto se tiene en vista determinar las capacidades gráficas de la Nintendo DS. Para ello se ha realizado una biblioteca de funciones en C que permite aprovechar las posibilidades que ofrece la consola en el terreno 3D y que sirve como herramienta para la comunidad homebrew para crear aplicaciones 3D de forma sencilla, dado que se ha diseñado como un sistema modular y accesible. En cuanto al proceso de renderizado se han sacado varias conclusiones. En primer lugar se ha determinado la posibilidad de asignar varias componentes de color a un mismo vértice (color material reactivo a la iluminación, color por vértice directo y color de textura), tanto de forma independiente como simultáneamente, pudiéndose utilizar para aplicar diversos efectos al modelo, como iluminación pre-calculada o simulación de una textura mediante color por vértice, ahorrando en memoria de video. Por otro lado se ha implementado un sistema de renderizado multi-capa, que permite realizar varias pasadas de render, pudiendo, de esta forma, aplicar al modelo una segunda textura mezclada con la principal o realizar un efecto de reflexión esférica. Uno de los principales avances de esta herramienta con respecto a otras existentes se encuentra en el apartado de animación. El renderizador desarrollado permite por un lado animación por transformación, consistente en la animación de mallas o grupos de vértices del modelo mediante el movimiento de una articulación asociada que determina su posición y rotación en cada frame de animación. Por otro lado se ha implementado un sistema de animación por muestreo de vértices mediante el cual se determina la posición de éstos en cada instante de la animación, generando frame a frame las poses que componen el movimiento (siendo este último método necesario cuando no se puede animar una malla por transformación). Un mismo modelo puede contener diferentes esqueletos, animados independientemente entre sí, y cada uno de ellos tener definidas varias costumbres de animación que correspondan a movimientos contextuales diferentes (andar, correr, saltar, etc). Además, el sistema permite extraer cualquier articulación para asociar su transformación a un objeto estático externo y que éste siga el movimiento de la animación, pudiendo así, por ejemplo, equipar un objeto en la mano de un personaje. Finalmente se han implementado varios efectos útiles en la creación de escenas tridimensionales, como el billboarding (tanto esférico como cilíndrico), que restringe la rotación de un modelo para que éste siempre mire a cámara y así poder emular la apariencia de un objeto tridimensional mediante una imagen plana, ahorrando geometría, o emplearlo para realizar efectos de partículas. Por otra parte se ha implementado un sistema de animación de texturas por subimágenes que permite generar efectos de movimiento mediante imágenes, sin necesidad de transformar geometría. ABSTRACT. The Nintendo DS portable console has received great interest within the independent developers’ community, with a huge homebrew scene. The 2D capabilities of this console are well known and used since most efforts of the amateur creators has been focused on this point. However its 3D engine (which handles with the representation of three-dimensional models) is not equally used. Therefore, in this project the main objective is to assess the Nintendo DS graphic capabilities. For this purpose, a library of functions in C programming language has been coded. This library allows the programmer to take advantage of the possibilities that the 3D area brings. This way the library can be used by the homebrew community as a tool to create 3D applications in an easy way, since it has been designed as a modular and accessible system. Regarding the render process, some conclusions have been drawn. First, it is possible to assign several colour components to the same vertex (material colour, reactive to the illumination, colour per vertex and texture colour), independently and simultaneously. This feature can be useful to apply certain effects on the model, such as pre-calculated illumination or the simulation of a texture using colour per vertex, providing video memory saving. Moreover, a multi-layer render system has been implemented. This system allows the programmer to issue several render passes on the same model. This new feature brings the possibility to apply to the model a second texture blended with the main one or simulate a spherical reflection effect. One of the main advances of this tool over existing ones consists of its animation system. The developed renderer includes, on the one hand, transform animation, which consists on animating a mesh or groups of vertices of the model by the movement of an associated joint. This joint determines position and rotation of the mesh at each frame of the animation. On the other hand, this tool also implements an animation system by vertex sampling, where the position of vertices is determined at every instant of the animation, generating the poses that build up the movement (the latter method is mandatory when a mesh cannot be animated by transform). A model can contain multiple skeletons, animated independently, each of them being defined with several animation customs, corresponding to different contextual movements (walk, run, jump, etc). Besides, the system allows extraction of information from any joint in order to associate its transform to a static external object, which will follow the movement of the animation. This way, any object could be equipped, for example, on the hand of a character. Finally, some useful effects for the creation of three-dimensional scenes have been implemented. These effects include billboarding (both spherical and cylindrical), which constraints the rotation of a model so it always looks on the camera's direction. This feature can provide the ability to emulate the appearance of a three-dimensional model through a flat image (saving geometry). It can also be helpful in the implementation of particle effects. Moreover, a texture animation system using sub-images has also been implemented. This system allows the generation of movement by using images as textures, without having to transform geometry.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto propone la creación de un procedimiento y metodología para el diseño de salas y sistemas electroacústicos basados en el software EASE. La sala tipo elegida para el diseño será una sala de cine bajo las premisas de DOLBY Digital. Los sistemas electroacústicos modelo serán: • Sistema distribuido tanto en malla cuadrada como hexagonal • Sistemas centralizados basados en agrupaciones, tanto lineales como circulares. Se establecerán los pasos básicos imprescindibles para el diseño de los sistemas descritos de forma que, con la ayuda de este tutorial y los medios didácticos adjuntos al mismo, se puedan acometer paso a paso las distintas fases de diseño, cálculo y análisis de los mismos. Como metodología de trabajo se acometerá el proceso de diseño de un ejemplo de cada tipo sobre el que se describirán todos los pasos, posibilidades de diseño y cálculo de los mismos. Los puntos de estudio serán: • Diseño de una sala de Cine ◦Importación de los Ficheros Autocad del cine a EASE ◦Dibujo del recinto en EASE ◦Inserción de materiales ◦Cálculo del tiempo de reverberación en función del volumen de la sala ◦Ajuste del tiempo de reverberación ◦Elección de altavoces para la sonorización ◦Comprobación de la uniformidad de campo sonoro en todos los canales ◦Comprobación de los niveles de pico y total por canal ◦Ecualización de la sala según la curva X (ISO-2969) ◦Inclusión de la Pantalla en la curva de ecualización ◦Estudios psicoacústico de la sala. Retardos ◦Inteligibilidad ◦Diagrama de bloques • Diseño de un sistema distribuido ◦Estudio de los diferentes tipos de solapamientos ▪Borde con Borde ▪Solapamiento mínimo ▪Centro con Centro ◦Estudio de los diferente tipos de mallas ▪Cuadrada ▪Hexagonal • Diseño de un sistema Centralizado ◦Sistemas centralizados tipo Linear Array ◦Sistemas centralizados tipo Circular Array Así mismo se estudiarán las diferentes posibilidades dentro de la suite EASE, incluyendo las versiones gratuitas del mismo EASE ADDRESS (sistemas distribuidos) y FOCUS II (sistemas centralizados), comparando sus posibilidades con los módulos comerciales equivalentes de EASE y las herramientas añadidas del mismo EARS (software para la auralización biaural) y AURA (utilidad de análisis extendido). ABSTRACT This project proposes the creation of a procedure and methodology for the design of rooms and electroacoustic systems based on EASE software. The room chosen as example design is a cinema under DOLBY Digital premises. Electroacoustic systems chosen as example are: • Distributed both square and hexagonal mesh • Centralized systems based on clusters, both linear and circular. It will be established the basic essential steps for the design of the systems described so, with this tutorial and attached teaching aids, could be undertaken the various stages of design, calculation and analysis. As a working methodology, the process design of an example will be described of each system on which all the steps described, design possibilities and calculation will be shown. The main points are: • Design of a cinema • Importing Autocad Files in EASE • Drawing with EASE • Materials insertion • Reverberation time based on the room volume • Adjusting reverberation time • Choosing speakers • Checking sound field uniformity in all channels • Checking peak levels and total level per each channel • Room equalization using X curve (ISO-2969) • Adding screen in the EQ • Psychoacoustic. Delays • Intelligibility • Block diagram • Design of a distributed system • Study of the different types of overlap o Edge to Edge o Minimum Overlap o Center to Center • Study of different types of mesh • Square • Hex • Centralized System Design • Centralized systems. Linear Array • Centralized systems. Circular Array It also will explore the different possibilities within the EASE suite, including the free versions of the same EASE ADDRESS (distributed systems) and FOCUS II (centralized), comparing its potential with commercial equivalents EASE modules and added tools EARS (software for biaural auralization) and AURA (utility extended analysis).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este articulo se resumen las principales ideas relacionadas con la resolución de problemas elípticos mediante fórmulas de representación. El uso de una familia de funciones interpolantes jerarquizadas permite el establecimiento de un sistema de resolución autoadaptable a un nivel de exactitud prefijado. Se incluye también una comparación descriptiva con el método de los elementos finitos. La extracción de una mejor solución sin refinar la malla se obtiene en el Método de los Elementos de Contorno, gracias a la aplicación de la fórmula de representación para puntos de contorno. Ello permite diseñar una estrategia de indicadores y estimadores que mejora la eficacia de intentos anteriores y permite controlar el desarrollo de la solución tanto en las versiones p como en la h o mixtos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los avances en el hardware permiten disponer de grandes volúmenes de datos, surgiendo aplicaciones que deben suministrar información en tiempo cuasi-real, la monitorización de pacientes, ej., el seguimiento sanitario de las conducciones de agua, etc. Las necesidades de estas aplicaciones hacen emerger el modelo de flujo de datos (data streaming) frente al modelo almacenar-para-despuésprocesar (store-then-process). Mientras que en el modelo store-then-process, los datos son almacenados para ser posteriormente consultados; en los sistemas de streaming, los datos son procesados a su llegada al sistema, produciendo respuestas continuas sin llegar a almacenarse. Esta nueva visión impone desafíos para el procesamiento de datos al vuelo: 1) las respuestas deben producirse de manera continua cada vez que nuevos datos llegan al sistema; 2) los datos son accedidos solo una vez y, generalmente, no son almacenados en su totalidad; y 3) el tiempo de procesamiento por dato para producir una respuesta debe ser bajo. Aunque existen dos modelos para el cómputo de respuestas continuas, el modelo evolutivo y el de ventana deslizante; éste segundo se ajusta mejor en ciertas aplicaciones al considerar únicamente los datos recibidos más recientemente, en lugar de todo el histórico de datos. En los últimos años, la minería de datos en streaming se ha centrado en el modelo evolutivo. Mientras que, en el modelo de ventana deslizante, el trabajo presentado es más reducido ya que estos algoritmos no sólo deben de ser incrementales si no que deben borrar la información que caduca por el deslizamiento de la ventana manteniendo los anteriores tres desafíos. Una de las tareas fundamentales en minería de datos es la búsqueda de agrupaciones donde, dado un conjunto de datos, el objetivo es encontrar grupos representativos, de manera que se tenga una descripción sintética del conjunto. Estas agrupaciones son fundamentales en aplicaciones como la detección de intrusos en la red o la segmentación de clientes en el marketing y la publicidad. Debido a las cantidades masivas de datos que deben procesarse en este tipo de aplicaciones (millones de eventos por segundo), las soluciones centralizadas puede ser incapaz de hacer frente a las restricciones de tiempo de procesamiento, por lo que deben recurrir a descartar datos durante los picos de carga. Para evitar esta perdida de datos, se impone el procesamiento distribuido de streams, en concreto, los algoritmos de agrupamiento deben ser adaptados para este tipo de entornos, en los que los datos están distribuidos. En streaming, la investigación no solo se centra en el diseño para tareas generales, como la agrupación, sino también en la búsqueda de nuevos enfoques que se adapten mejor a escenarios particulares. Como ejemplo, un mecanismo de agrupación ad-hoc resulta ser más adecuado para la defensa contra la denegación de servicio distribuida (Distributed Denial of Services, DDoS) que el problema tradicional de k-medias. En esta tesis se pretende contribuir en el problema agrupamiento en streaming tanto en entornos centralizados y distribuidos. Hemos diseñado un algoritmo centralizado de clustering mostrando las capacidades para descubrir agrupaciones de alta calidad en bajo tiempo frente a otras soluciones del estado del arte, en una amplia evaluación. Además, se ha trabajado sobre una estructura que reduce notablemente el espacio de memoria necesario, controlando, en todo momento, el error de los cómputos. Nuestro trabajo también proporciona dos protocolos de distribución del cómputo de agrupaciones. Se han analizado dos características fundamentales: el impacto sobre la calidad del clustering al realizar el cómputo distribuido y las condiciones necesarias para la reducción del tiempo de procesamiento frente a la solución centralizada. Finalmente, hemos desarrollado un entorno para la detección de ataques DDoS basado en agrupaciones. En este último caso, se ha caracterizado el tipo de ataques detectados y se ha desarrollado una evaluación sobre la eficiencia y eficacia de la mitigación del impacto del ataque. ABSTRACT Advances in hardware allow to collect huge volumes of data emerging applications that must provide information in near-real time, e.g., patient monitoring, health monitoring of water pipes, etc. The data streaming model emerges to comply with these applications overcoming the traditional store-then-process model. With the store-then-process model, data is stored before being consulted; while, in streaming, data are processed on the fly producing continuous responses. The challenges of streaming for processing data on the fly are the following: 1) responses must be produced continuously whenever new data arrives in the system; 2) data is accessed only once and is generally not maintained in its entirety, and 3) data processing time to produce a response should be low. Two models exist to compute continuous responses: the evolving model and the sliding window model; the latter fits best with applications must be computed over the most recently data rather than all the previous data. In recent years, research in the context of data stream mining has focused mainly on the evolving model. In the sliding window model, the work presented is smaller since these algorithms must be incremental and they must delete the information which expires when the window slides. Clustering is one of the fundamental techniques of data mining and is used to analyze data sets in order to find representative groups that provide a concise description of the data being processed. Clustering is critical in applications such as network intrusion detection or customer segmentation in marketing and advertising. Due to the huge amount of data that must be processed by such applications (up to millions of events per second), centralized solutions are usually unable to cope with timing restrictions and recur to shedding techniques where data is discarded during load peaks. To avoid discarding of data, processing of streams (such as clustering) must be distributed and adapted to environments where information is distributed. In streaming, research does not only focus on designing for general tasks, such as clustering, but also in finding new approaches that fit bests with particular scenarios. As an example, an ad-hoc grouping mechanism turns out to be more adequate than k-means for defense against Distributed Denial of Service (DDoS). This thesis contributes to the data stream mining clustering technique both for centralized and distributed environments. We present a centralized clustering algorithm showing capabilities to discover clusters of high quality in low time and we provide a comparison with existing state of the art solutions. We have worked on a data structure that significantly reduces memory requirements while controlling the error of the clusters statistics. We also provide two distributed clustering protocols. We focus on the analysis of two key features: the impact on the clustering quality when computation is distributed and the requirements for reducing the processing time compared to the centralized solution. Finally, with respect to ad-hoc grouping techniques, we have developed a DDoS detection framework based on clustering.We have characterized the attacks detected and we have evaluated the efficiency and effectiveness of mitigating the attack impact.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nueva legislación en materia fitosanitaria se dirige hacia una Gestión Integrada de Plagas (GIP). Estos programas dan preferencia a aquellos métodos más respetuosos y sostenibles con el medio ambiente, siendo piezas claves en ellos el control biológico, el físico y otros de carácter no químico. Sin embargo, el uso de insecticidas selectivos es a veces necesario para el adecuado manejo de plagas en cultivos hortícolas. Por ello, el objetivo general de este estudio es aportar conocimientos para mejorar el control de plagas en cultivos hortícolas, mediante la integración de tres estrategias de lucha: biológica, física y química. Una parte de este trabajo ha consistido en el estudio de los posibles efectos que mallas tratadas con insecticida (bifentrin) pudieran provocar mediante diferentes ensayos de laboratorio, invernadero y campo, en los enemigos naturales Orius laevigatus (Fieber) (Hemiptera: Anthocoridae) (depredador de trips), Nesidiocoris tenuis (Reuter) (Hemiptera: Miridae) (depredador de mosca blanca y Tuta absoluta (Meirick) (Lepidoptera: Gelechiidae)), y otros agentes de biocontrol comúnmente usados en cultivos hortícolas protegidos. Este tipo de mallas se han empleado con éxito en entomología médica para controlar mosquitos vectores de la malaria, y actualmente se está trabajando en su desarrollo para uso agrícola como método de exclusión, y método directo de control de plagas. En los ensayos realizados en laboratorio, O. laevigatus y N. tenuis no fueron capaces de detectar la presencia de bifentrin en el ensayo de preferencia. Además, no se produjo mortalidad a corto plazo (72 horas) en ambos chinches depredadores. Por el contrario, se registró una elevada mortalidad cuando se expusieron por contacto a la malla tratada durante 72 horas en cajas de dimensiones reducidas (10 cm de diámetro X 3 cm de altura). En ensayos llevados a cabo bajo condiciones más reales de exposición, en un invernadero experimental con jaulas de 25 X 25 X 60 cm de altura, no se produjo ningún efecto en la mortalidad a corto plazo (72 horas) o en los parámetros reproductivos de O. laevigatus y N. tenuis. Finalmente, en ensayos de campo realizados en túneles semi-comerciales (8 m de largo X 6,5 m de ancho X 2,6 m de altura), ni las condiciones ambientales [temperatura, humedad relativa, radiación ultravioleta (UV) y fotosintéticamente activa (PAR)], ni los enemigos naturales, se vieron afectados por la presencia de la malla tratada con bifentrin en el cultivo. Sin embargo, los resultados no fueron concluyentes, debido al bajo establecimiento de los agentes de biocontrol liberados. Por lo tanto, más estudios son necesarios en invernaderos comerciales para confirmar los resultados preliminares de compatibilidad. Además, en este trabajo se han evaluado los efectos letales (mortalidad) y subletales (parámetros reproductivos) de seis modernos insecticidas sobre los chinches depredadores O. laevigatus y N. tenuis, mediante ensayos de laboratorio y persistencia. Los ensayos se realizaron por contacto residual, aplicando los insecticidas a la dosis máxima de campo sobre placas de cristal (laboratorio) o plantas (persistencia). Los productos fitosanitarios se seleccionaron por representar a un grupo de modernos plaguicidas con modos de acción en principio más selectivos para los enemigos naturales que antiguos plaguicidas como organoclorados, oroganofosforados o carbamatos, y por su uso frecuente en cultivos hortícolas donde O. laevigatus y N. tenuis están presentes. Todos ellos están incluidos o en proceso de inclusión en la lista comunitaria de sustancias activas para uso agrícola, Anexo I de la Directiva 91/414/CEE: abamectina y emamectina (avermectinas neurotóxicas, activadoras del canal del cloro), deltametrina (piretroide neurotóxico, modulador del canal del sodio, control positivo), flubendiamida (neurotóxico, modulador del receptor de rianodina), spinosad (naturalito neurotóxico, agonistas/antagonistas del receptor de nicotínico acetilcolina) y spiromesifen (inhibidor de la acetil CoA carboxilasa). El estudio mostró que O. laevigatus fue más susceptible a los insecticidas que N. tenuis. Además, los resultados revelaron que flubendiamida y spiromesifen fueron compatibles con los dos enemigos naturales estudiados, y por tanto se podrían usar en programas de GIP. Por el contrario, los insecticidas abamectina, deltametrina, emamectina y spinosad no fueron selectivos para ninguno de los chinches depredadores. Sin embargo, los estudios de persistencia demostraron que a pesar de que estos insecticidas no proporcionaron selectividad fisiológica, pueden proporcionar selectividad ecológica en algunos casos. Abamectina, deltametrina, emamectina y spinosad podrían ser compatibles con N. tenuis si el enemigo natural es introducido en el cultivo 4 días después de su aplicación. En el caso de O. laevigatus, abamectina, deltametrina y spinosad se clasificaron como persistentes, por lo tanto es necesario completar el estudio con experimentos de semi-campo y campo que determinen si es posible su uso conjunto en programas de GIP. Por otro lado, emamectina podría ser compatible con O. laevigatus si el enemigo natural es introducido en el cultivo 7 días después de su aplicación. Por último, se ha comprobado la selectividad de tres insecticidas aceleradores de la muda (MACs) (metoxifenocida, tebufenocida y RH-5849) sobre O. laevigatus y N. tenuis. Además de realizar estudios para evaluar la toxicidad en laboratorio de los insecticidas por contacto residual e ingestión (principal modo de acción de los MAC´s), se extrajo RNA de los insectos y con el cDNA obtenido se secuenció y clonó el dominio de unión al ligando (LBD) del receptor de ecdisona correspondiente a O. laevigatus (OlEcR-LBD) y N. tenuis (NtEcR-LBD). Posteriormente, se obtuvo la configuración en tres dimensiones del LBD y se estudió el acoplamiento de las moléculas de los tres insecticidas en la cavidad que forman las 12 α-hélices que constituyen el EcR-LBD. En el caso de N. tenuis se debe mencionar que no fue posible la obtención de la secuencia completa del LBD. Sin embargo, se obtuvo una secuencia parcial (hélice 6-hélice 11), que mostró una alta conservación de aminoácidos con respecto a la obtenida en O. laevigatus. Los ensayos de toxicidad mostraron que metoxifenocida, tebufenocida y RH-5849 no produjeron ningún efecto nocivo en ambos depredadores. Además, los estudios de modelado por homología y acoplamiento molecular llevados a cabo con O. laevigatus, también indicaron que los MACs no produjeron ningún efecto deletéreo en este enemigo natural. Por lo tanto, estos compuestos pueden ser aplicados de manera segura en programas de GIP en los cuales O. laevigatus y N. tenuis estén presentes. ABSTRACT The new pesticide legislation on pest control is aimed at integrated pest management (IPM). These programs are based on the most environmentally sustainable approaches, where biological, physical control and other non-chemical methods are the cornerstone. However, selective pesticides are often required for pest management on horticultural crops. Therefore, the main goal of this study is to provide knowledge to improve pest control on horticultural crops through the integration of three strategies: biological, physical and chemical. Firstly, the effects of insecticide treated nets (bifenthrin) were evaluated in different laboratory, greenhouse and field experiments on the natural enemies Orius laevigatus (Fieber) (Hemiptera: Anthocoridae) (predator of thrips), Nesidiocoris tenuis (Reuter) (Hemiptera: Miridae) (predator of whiteflies and Tuta absoluta (Meirick) (Lepidoptera: Gelechiidae)), and other biocontrol agents commonly used on protected horticultural crops. These types of nets have been successfully used in medical entomology to control mosquito malaria vectors, and work is currently being done on their use as exclusion barriers and as a direct method of pest control in agriculture. In experiments made under laboratory conditions, O. laevigatus and N. tenuis were not able to detect the presence of bifenthrin in a dual-choice test. Furthermore, no shortterm mortality (72 hours) was recorded on both predatory bugs. In contrast, a high mortality rate was found when they were exposed by contact to the bifenthrin-treated net for 72 hours in small cages (10 cm diameter X 3 cm high). In assays carried out under more realistic conditions of exposure, in an experimental greenhouse with cages of 25 X 25 X 60 cm high, short-term mortality (72 hours) and reproductive parameters were not affected. Lastly, in field experiments carried out in semi-commercial tunnels (8 m long X 6.5 m width X 2.6 m high), neither environmental conditions [temperature, relative humidity, ultraviolet (UV) and photosynthetically active radiation (PAR)] nor natural enemies were affected by the presence of the bifenthrin-treated net on the crop. However, results were not conclusive, mainly due to a low settlement of the released biocontrol agents, and further studies are needed in commercial greenhouses to confirm our preliminary results of compatibility. Secondly, the lethal (mortality) and sublethal effects (reproductive parameters) of six modern pesticides on the predatory bugs O. laevigatus and N. tenuis has been evaluated through laboratory and persistence experiments. Trials were carried out by residual contact, applying the insecticides to the maximum field recommended concentration on glass plates (laboratory) or plants (persistence). Insecticides were chosen as representatives of modern pesticides with a more selective mode of action on natural enemies than organochlorine, organophosphorus and carbamate insecticides. Moreover, they were also chosen because of their frequent use on horticultural crops where O. laevigatus and N. tenuis are present. All of them have been included or have been requested for inclusion in the community list of active substances on the agricultural market, Annex I of the European Directive 91/414/EEC: abamectin and emamectin (neurotoxic avermectins, chloride channel activators), deltamethrin (neutotoxic pyrethroid, sodium channel modulator, positive commercial standard), flubendiamide (neurotoxic, rianodine receptor modulator), spinosad (neurotoxic naturalyte, nicotinic acetylcholine receptor allosteric activator) and spiromesifen (inhibitors of acetyl CoA carboxylase). The study showed that O. laevigatus was more susceptible to all the studied pesticides than N. tenuis. In addition, the research results indicated no impact of flubendiamide and spiromesifen on the two natural enemies studied under laboratory conditions. Consequently, both pesticides are candidates to be included in IPM programmes where these biocontrol agents are present. On the other hand, abamectin, deltamethrin, emamectin and spinosad were not selective for both predatory bugs in laboratory experiments. However, persistence test demonstrated that in spite of the lack of physiological selectivity, these pesticides can provide ecological selectivity in some cases. Abamectin, deltamethrin, emamectin and spinosad could be compatible with N. tenuis if the mirid bug is released 4 days after the insecticide treatment on the crop. With regard to O. laevigatus, abamectin, deltamethrin and spinosad were classified as persistent in our assays, thus the study should be completed with semi-field and field experiments in order to ascertain their possible joint use in IPM programs. In contrast, emamectin could be compatible with O. laevigatus if the pirate bug is released 7 days after the insecticide treatment on the crop. Finally, the selectivity of three moulting accelerating compounds (MACs) (methoxyfenozide, tebufenozide and RH-5849) has also been evaluated on O. laevigatus and N. tenuis. In addition to laboratory experiments to evaluate the toxicity of the insecticides by residual contact and ingestion, molecular approaches were used as well. RNA of both insects was isolated, cDNA was subsequently synthesized and the complete sequence of the ligand binding domain (LBD) of the ecdysone receptor of O. laevigatus (OlEcR-LBD) and N. tenuis (NtEcR-LBD) were determined. Afterwards, the three dimensional structure of LBD was constructed. Finally, the docking of the insecticide molecules in the cavity delineated by the 12 α-helix that composed the EcRLBD was performed. In the case of N. tenuis, it should be noted that in spite of intensive efforts, we did not manage to complete the sequence for the LBD.However, a partial sequence of the LBD was obtained (helix 6-helix 11), and a strong conservation between the amino acids of N. tenuis and O. laevigatus was observed. Results showed no biological activity of methoxyfenozide, tebufenozide and RH-5849, on both predatory bugs. Moreover, modeling of the OlEcR-LBD and docking experiments also suggested that MACs were devoid of any deleterious effect on O. laevigatus. Therefore, our results indicate that these compounds could be safely applied in IPM programs in which O. laevigatus and N. tenuis are present.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente estudio es obtener los campos de presión, velocidad y patrones de líneas de corriente, caída de presión a través de un codo, mediante simulación computacional utilizando un programa comercial de CFD. Para ello se emplea como fluido de trabajo agua como líquido saturado a 25ºC y Número de Reynolds (Re) igual a 2x10 5, la cual fluye a través de un codo liso de 90º con relación radio de curvatura/radio de la tubería (R/r) igual a 1. Se utiliza una malla no estructurada de elementos tetraédricos y hexaédricos en las zonas cercanas a las paredes internas y el modelo de turbulencia k-E con leyes de pared escalables.