964 resultados para FLOW MODELS
Resumo:
An important test of the quality of a computational model is its ability to reproduce standard test cases or benchmarks. For steady open–channel flow based on the Saint Venant equations some benchmarks exist for simple geometries from the work of Bresse, Bakhmeteff and Chow but these are tabulated in the form of standard integrals. This paper provides benchmark solutions for a wider range of cases, which may have a nonprismatic cross section, nonuniform bed slope, and transitions between subcritical and supercritical flow. This makes it possible to assess the underlying quality of computational algorithms in more difficult cases, including those with hydraulic jumps. Several new test cases are given in detail and the performance of a commercial steady flow package is evaluated against two of them. The test cases may also be used as benchmarks for both steady flow models and unsteady flow models in the steady limit.
Resumo:
Real estate depreciation continues to be a critical issue for investors and the appraisal profession in the UK in the 1990s. Depreciation-sensitive cash flow models have been developed, but there is a real need to develop further empirical methodologies to determine rental depreciation rates for input into these models. Although building quality has been found to be an important explanatory variable in depreciation it is very difficult to incorporate it into such models or to analyse it retrospectively. It is essential to examine previous depreciation research from real estate and economics in the USA and UK to understand the issues in constructing a valid and pragmatic way of calculating rental depreciation. Distinguishing between 'depreciation' and 'obsolescence' is important, and the pattern of depreciation in any study can be influenced by such factors as the type (longitudinal or crosssectional) and timing of the study, and the market state. Longitudinal studies can analyse change more directly than cross-sectional studies. Any methodology for calculating rental depreciation rate should be formulated in the context of such issues as 'censored sample bias', 'lemons' and 'filtering', which have been highlighted in key US literature from the field of economic depreciation. Property depreciation studies in the UK have tended to overlook this literature, however. Although data limitations and constraints reduce the ability of empirical property depreciation work in the UK to consider these issues fully, 'averaging' techniques and ordinary least squares (OLS) regression can both provide a consistent way of calculating rental depreciation rates within a 'cohort' framework.
Resumo:
Rapid rates of urbanization have resulted into increased concerns of urban environment. Amongst them, wind and thermal comfort levels for pedestrians have attracted research interest. In this regards, urban wind environment is seen as a crucial components that can lead to improved thermal comfort levels for pedestrian population. High rise building in modern urban setting causes high levels of turbulence that renders discomfort to pedestrians. Additionally, a higher frequency of high ris e buildings at a particular region acts as a shield against the wind flow to the lower buildings beyond them resulting into higher levels of discomfort to users or residents. Studies conducted on developing wind flow models using Computational Fluid Dynami cs (CFD) simulations have revealed improvement in interval to height ratios can results into improved wind flow within the simulation grid. However, high value and demand for land in urban areas renders expansion to be an impractical solution. Nonetheless, innovative utilization of architectural concepts can be imagined to improve the pedestrian comfort levels through improved wind permeability. This paper assesses the possibility of through-building gaps being a solution to improve pedestrian comfort levels.
Resumo:
This article describes and compares three heuristics for a variant of the Steiner tree problem with revenues, which includes budget and hop constraints. First, a greedy method which obtains good approximations in short computational times is proposed. This initial solution is then improved by means of a destroy-and-repair method or a tabu search algorithm. Computational results compare the three methods in terms of accuracy and speed. (C) 2007 Elsevier B.V. All rights reserved.
Resumo:
Pós-graduação em Engenharia Civil - FEIS
Resumo:
O reservatório da UHE Coaracy Nunes no rio Araguari esta localizado entre os municípios de Ferreira Gomes e Porto Grande no estado do Amapá-Brasil, distando 200 km do Oceano Atlântico. A usina Coaracy Nunes foi a primeira hidrelétrica a ser construída na Amazônia brasileira, tendo suas obras iniciadas em 1967. O rio Araguari e o principal rio do estado do Amapá e representa fonte de geração de renda através da pesca, atividades agropecuárias em sua várzea, navegação, mineração, geração de energia e lazer. O presente estudo teve por objetivo avaliar as alterações impostas pela construção do reservatório da UHE Coaracy Nunes, através das assembleias de peixes de quatro áreas de influencia direta desta usina. Para isso, no período de maio de 2009 a julho de 2010, foram realizadas coletas bimensais, de peixes, com redes de malhas padronizadas variando de 1,0 a 10,0 cm entre nos adjacentes e outras técnicas auxiliares. A partir destas coletas, no capitulo 1 foi verificado a composição, abundancia (CPUEn) e biomassa (CPUEp) relativas da ictiofauna, eficiência amostral (curva do coletor, curva de rarefação e Jacknife) e descritores ecológicos de comunidades (riqueza, diversidade, equitabilidade e dominância) das assembleias das quatro áreas. Foram efetuadas analises de variância (ANOVA: bifatorial), Kruskal-Wallis, teste-T e Mann-Whitney para verificar se havia diferenças significativas dos descritores entre as áreas e períodos sazonais. Estas análises foram corroboradas por analises multivariadas de agrupamento (cluster), ordenamento (MDS), Anosim e Simper. No capitulo 2, os estados ecológicos das quatro áreas foram verificados utilizando como indicadores: curvas espécie abundancia, curvas K-dominância e curvas ABC, assim como modelos espécie-abundancia serie geométrica, log serie, log normal e broken stick, e modelo de regressão linear de espectros de tamanho. No capitulo 3, a estrutura trófica foi estimada a partir da categorização das espécies de cada área em 5 guildas: piscívora, onívora, detritívora, carnívora e herbívora. A abundancia, biomassa e índices ecológicos destas guildas foram estimados e verificados suas variações espaço-temporais, por analises de variância (ANOVA: bifatorial e Kruskal-Wallis) e teste t. No capitulo 4, a dieta das espécies mais abundantes das assembleias de cada área foi verificada e suas variações espaço-temporais detectadas por analise de variância (ANOVA: bifatorial e Kruskal-Wallis). Também foram estimados a amplitude e sobreposição de nicho das espécies mais abundantes, assim como a existência de competição entre as espécies através de modelagem nula. No capitulo 5 foi realizada a avaliação ecossistêmica das quatro áreas através de modelos de fluxo de biomassa na rede trófica do ecossistema, usando como instrumento de modelação o software Ecopath. Essas análises tinham por objetivo descrever as variações dos atributos ecológicos que quantificam as propriedades de maturidade, estabilidade e resiliência ecossistêmica que pudessem refletir os estados ecológicos dessas áreas. O modelo incluiu compartimentos funcionais desde produtores primários ate predadores de topo. No geral, todas as análises indicaram sensíveis alterações na ictiofauna atribuídas a implantação da UHE Coaracy Nunes, que se refletem nos três níveis de organização: ecossistema, comunidade (assembleia) e guilda. Os resultados indicaram a captura de 1.977 peixes distribuídos em 2 classes, 9 ordens, 23 famílias, 73 gêneros e 108 espécies. As curvas de acumulação de espécies e curvas de rarefação individualizadas demonstraram que houve suficiência amostral nas áreas Reservatório e Lacustre. Os resultados mostraram que a área Jusante foi mais rica, diversa e equitativa em relação as demais e que a sazonalidade não influenciou na variação destes índices. A abundancia relativa (CPUEn) foi superior nas áreas Reservatório e Lacustre e a biomassa relativa (CPUEb) foi superior na área Jusante, não havendo diferenças sazonais para esses descritores em todas as áreas. As analises de agrupamento (cluster) e ordenamento (MDS) da ictiofauna permitiram identificar a formação de três assembleias distintas: Jusante, Montante e uma assembleia que compreende as áreas Reservatório e Lacustre, ratificando a similaridade dessas duas áreas. Os resultados das curvas whitakeplot, ABC e K-dominância, assim como o ajuste satisfatório do modelo broken stick e os padrões das curvas de espectro de tamanho para a assembleia da área a jusante indicam que esta área foi a mais equilibrada em termos ecológicos. Nas áreas Lacustre e Reservatório, os resultados tanto do ajuste ao modelo serie geométrica, quanto os resultados das curvas whitake-plot, ABC e K-dominância e o espectro de tamanho, assim como os resultados das curvas e ajustes ao modelo série e menor espectro de tamanho para a assembleia da área Reservatório, refletem que os peixes destas áreas, em sua maioria, são indivíduos pequenos com elevada dominância e baixa equitabilidade, caracterizando comunidades típicas de áreas impactadas. A estrutura trófica das assembleias de peixes das áreas represadas (Reservatório e Lacustre) foram formatadas em função do barramento do rio, que isolou e fragmentou o ambiente, determinando sua modificação física, impondo o estabelecimento de uma ictiofauna de espécies pré-adaptadas as condições ambientais de represamento, diferente, em parte, da estrutura da ictiofauna fluvial pre-barramento, destacando as piscívoras, onívoras e detritívoras, que foram as mais ricas e abundantes em função da disponibilidade, nas duas áreas, dos recursos alimentares de sua preferencia. Os resultados demonstraram que as dietas das assembleias de todas as áreas foram similares quanto ao predomínio do consumo de peixes e detritos, seguidos de alimento vegetal aloctone, revelando um padrão com poucos nichos amplos e uma concentração maior de espécies com nichos mais estreitos. Contudo, o padrão de baixa amplitude trófica foi evidenciado pelo predomínio da guilda piscívora, somada as guildas detritívora e herbívora. A sazonalidade pouco influenciou na alimentação da maioria das espécies em todas as áreas. Os padrões comparativos da dieta entre as áreas Montante e Jusante com as áreas Reservatório e Lacustre indicam que a maioria das espécies das áreas represadas pertenciam as guildas piscívora, onívora e detritívora antes do barramento do rio, que colonizaram estes ambientes, influenciadas, principalmente, pela abundancia dos recursos alimentares de suas preferencias e das condições físicas ambientais favoráveis. Interações competitivas foram evidenciadas pelos modelos nulos, sugerindo que a competição também foi um fator importante na estruturação das assembleias. Ecossistemicamente, os quatro modelos de fluxo de biomassa representam ecossistemas com elevada produção primaria oriunda da floresta riparia e algas filamentosas, que são utilizadas parcialmente. A cadeia trófica baseada em detrito apresentou ser mais importante que a que tem como base a produção primaria nas áreas Reservatório e Lacustre. A maioria dos fluxos ocorre nos compartimentos de níveis tróficos baixos. As propriedades ecossistêmicas da área Jusante indicam que este ambiente se encontra mais desenvolvido e maduro em relação aos outros, caracterizado por resiliência e entropia altas. As áreas represadas (Reservatório e Lacustre) apresentaram atributos ecossistêmicos que lhe conferiram características de menos resiliente e menos maduro que as áreas de rio. A área Montante apresentou um padrão intermediário de resiliência, estabilidade e maturidade. Esses resultados evidenciam que apos quarenta anos da construção da barragem do reservatório de Coaracy Nunes, a fragmentação do ambiente proporcionou alterações ecossistêmicas negativas, refletidas nas assembleias de peixes das áreas acima do barramento e na analise ecossistêmica, evidenciando que a área jusante apresenta características de ambiente em bom estado ecológico, com baixa alteração de origem antrópica e capaz de suportar distúrbios.
Resumo:
Karst aquifers are known for their wide distribution of water transfer velocities. From this observation, a multiple geochemical tracer approach seems to be particularly well suited to provide a significant assessment of groundwater flows, but the choice of adapted tracers is essential. In this study, several common tracers in karst aquifers such as physicochemical parameters, major ions, stable isotopes, and d13C to more specific tracers such as dating tracers – 14C, 3H, 3H–3He, CFC-12, SF6 and 85Kr, and 39Ar – were used, in a fractured karstic carbonated aquifer located in Burgundy (France). The information carried by each tracer and the best sampling strategy are compared on the basis of geochemical monitoring done during several recharge events and over longer time periods (months to years). This study’s results demonstrate that at the seasonal and recharge event time scale, the variability of concentrations is low for most tracers due to the broad spectrum of groundwater mixings. The tracers used traditionally for the study of karst aquifers, i.e., physicochemical parameters and major ions, efficiently describe hydrological processes such as the direct and differed recharge, but require being monitored at short time steps during recharge events to be maximized. From stable isotopes, tritium, and Cl� contents, the proportion of the fast direct recharge by the largest porosity was estimated using a binary mixing model. The use of tracers such as CFC-12, SF6, and 85Kr in karst aquifers provides additional information, notably an estimation of apparent age, but they require good preliminary knowledge of the karst system to interpret the results suitably. The CFC-12 and SF6 methods efficiently determine the apparent age of baseflow, but it is preferable to sample the groundwater during the recharge event. Furthermore, these methods are based on different assumptions such as regional enrichment in atmospheric SF6, excess air, and flow models among others. 85Kr and 39Ar concentrations can potentially provide a more direct estimation of groundwater residence time. Conversely, the 3H–3He method is inefficient in the karst aquifer for dating due to 3He degassing.
Resumo:
Este trabajo, de tipo descriptivo exploratorio, se propone efectuar un análisis de una serie de repositorios cooperativos pertenecientes a instituciones académicas de América Latina. Hace hincapié en la importancia de la cooperación como práctica de larga data en el ámbito de las bibliotecas, muchas de las cuales se han convertido en líderes o partícipes importantes tanto en la implementación como en el desarrollo de los repositorios en sus respectivas instituciones. Se toman en consideración los flujos informacionales que los atraviesan a fin de conocer cómo se delinean y desarrollan en el marco de instituciones académicas de cierta envergadura y complejidad, a través de un análisis de documentación. Se resaltan los modelos de flujos de información detectados en dichos repositorios cooperativos y cómo estos, desde su singularidad, favorecen la visibilidad y la difusión del conocimiento académico y científico existente en formato digital
Resumo:
Este trabajo, de tipo descriptivo exploratorio, se propone efectuar un análisis de una serie de repositorios cooperativos pertenecientes a instituciones académicas de América Latina. Hace hincapié en la importancia de la cooperación como práctica de larga data en el ámbito de las bibliotecas, muchas de las cuales se han convertido en líderes o partícipes importantes tanto en la implementación como en el desarrollo de los repositorios en sus respectivas instituciones. Se toman en consideración los flujos informacionales que los atraviesan a fin de conocer cómo se delinean y desarrollan en el marco de instituciones académicas de cierta envergadura y complejidad, a través de un análisis de documentación. Se resaltan los modelos de flujos de información detectados en dichos repositorios cooperativos y cómo estos, desde su singularidad, favorecen la visibilidad y la difusión del conocimiento académico y científico existente en formato digital
Resumo:
Este trabajo, de tipo descriptivo exploratorio, se propone efectuar un análisis de una serie de repositorios cooperativos pertenecientes a instituciones académicas de América Latina. Hace hincapié en la importancia de la cooperación como práctica de larga data en el ámbito de las bibliotecas, muchas de las cuales se han convertido en líderes o partícipes importantes tanto en la implementación como en el desarrollo de los repositorios en sus respectivas instituciones. Se toman en consideración los flujos informacionales que los atraviesan a fin de conocer cómo se delinean y desarrollan en el marco de instituciones académicas de cierta envergadura y complejidad, a través de un análisis de documentación. Se resaltan los modelos de flujos de información detectados en dichos repositorios cooperativos y cómo estos, desde su singularidad, favorecen la visibilidad y la difusión del conocimiento académico y científico existente en formato digital
Resumo:
Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos
Resumo:
In this paper a previously developed theoretical model of the measurement process performed by a transit-time ultrasonic anemometer is applied to a fluid flowing through a circular section pipe. This model considers the influence of the shift of the acoustic pulse trajectory from straight propagation due to the flow on the measured speed. The aim of this work is to estimate the errors induced in the measured velocity by the shift of the acoustic pulse trajectory. Using different duct’s flow models, laminar and turbulent regimes have been analyzed. The results show that neglecting the effect of shift of the acoustic pulse trajectory leads to flow rate measurement underestimation.
Resumo:
Los ensayos de bombeo son, sin lugar a dudas, una de las pruebas más fiables y de mayor interés que se hacen en el medio físico. No son pruebas estrictamente puntuales, dado que el bombeo atrae flujo desde distancias lejanas al pozo, la prueba tiene una excelente representatividad espacial. Los métodos de interpretación mediante ensayos de bombeo se empezaron a plantear en la primera mitad del pasado siglo. Con los ensayos de bombeo se puede calcular la transmisividad y coeficiente de almacenamiento de las formaciones acuíferas y suministran información sobre el tipo de acuífero, la calidad constructiva del pozo de extracción, la existencia de barreras impermeable o bordes de recarga próximos, e incluso en algunas circunstancias permiten el cálculo del área de embalse subterráneo. Desde mediados del siglo 20 existe una eficaz y abundante gama de métodos analítico-interpretativos de ensayos de bombeo, tanto en régimen permanente como transitorio. Estos métodos son ampliamente conocidos y están muy experimentados a lo largo de muchos países, sin embargo, hoy día, podrían utilizarse modelos de flujo para la interpretación, logrando la misma fiabilidad e incluso mejores posibilidades de análisis. Muchos ensayos que no pueden interpretarse porque las configuraciones del medio son demasiado complejas y no están disponibles, o no es posible, el desarrollo de métodos analíticos, tienen buena adaptación y en ocasiones muy fácil solución haciendo uso de los métodos numéricos de simulación del flujo. En esta tesis se ha buscado una vía de interpretar ensayos de bombeo haciendo uso de modelos de simulación del flujo. Se utiliza el modelo universal MODFLOW del United States Geological Survey, en el cual se configura una celda de simulación y mallado particularmente adecuados para el problema a tratar, se valida con los métodos analíticos existentes. Con la célula convenientemente validada se simulan otros casos en los que no existen métodos analíticos desarrollados dada la complejidad del medio físico a tratar y se sacan las oportunas conclusiones. Por último se desarrolla un modelo específico y la correspondiente aplicación de uso general para la interpretación numérica de ensayos de bombeo tanto con las configuraciones normales como con configuraciones complejas del medio físico. ABSTRACT Pumping tests are, without doubt, one of the most reliable and most interesting tests done in the physical environment. They are not strictly anecdotal evidence, since pumping flow attracts from far distances to the well, the test has excellent spatial representation. Methods of interpretation by pumping tests began to arise in the first half of last century. With pumping tests, can be calculated transmissivity and storage coefficient of the aquifer formations, and provide information on the type of aquifer, the construction quality of the well, the existence of waterproof barriers or borders next recharge, and even in some circumstances allow calculating the area of underground reservoir. Since the mid-20th century there is effective and abundant range of analytical interpretative pumping tests, both in steady state and transient methods. These methods are very widely known and experienced over many countries, however, nowadays, may flow models used for interpretation, obtaining equally reliable or even better possibilities for analysis. Many trials cannot be interpreted as environmental settings are too complex and are not available, or not possible, the development of analytical methods, have good adaptation and sometimes very easily solved using numerical flow simulation methods. This thesis has sought a way to interpret pumping tests using flow simulation models. MODFLOW universal model of United States Geological Survey, in which a simulation cell and meshing particularly suitable for the problem to be treated, is validated with existing analytical methods used is set. With suitably validated cell other cases where there are no analytical methods developed given the complexity of the physical environment to try and draw appropriate conclusions are simulated. Finally, a specific model and the corresponding application commonly used for numerical interpretation of pumping tests both with normal settings as complex configurations of the physical environment is developed.
Análisis de las herramientas ORCC y Vivado HLS para la Síntesis de Modelos de Flujo de Datos RVC-CAL
Resumo:
En este Proyecto Fin de Grado se ha realizado un estudio de cómo generar, a partir de modelos de flujo de datos en RVC-CAL (Reconfigurable Video Coding – CAL Actor Language), modelos VHDL (Versatile Hardware Description Language) mediante Vivado HLS (Vivado High Level Synthesis), incluida en las herramientas disponibles en Vivado de Xilinx. Una vez conseguido el modelo VHDL resultante, la intención es que mediante las herramientas de Xilinx se programe en una FPGA (Field Programmable Gate Array) o el dispositivo Zynq también desarrollado por Xilinx. RVC-CAL es un lenguaje de flujo de datos que describe la funcionalidad de bloques funcionales, denominados actores. Las funcionalidades que desarrolla un actor se definen como acciones, las cuales pueden ser diferentes en un mismo actor. Los actores pueden comunicarse entre sí y formar una red de actores o network. Con Vivado HLS podemos obtener un diseño VHDL a partir de un modelo en lenguaje C. Por lo que la generación de modelos en VHDL a partir de otros en RVC-CAL, requiere una fase previa en la que los modelos en RVC-CAL serán compilados para conseguir su equivalente en lenguaje C. El compilador ORCC (Open RVC-CAL Compiler) es la herramienta que nos permite lograr diseños en lenguaje C partiendo de modelos en RVC-CAL. ORCC no crea directamente el código ejecutable, sino que genera un código fuente disponible para ser compilado por otra herramienta, en el caso de este proyecto, el compilador GCC (Gnu C Compiler) de Linux. En resumen en este proyecto nos encontramos con tres puntos de estudio bien diferenciados, los cuales son: 1. Partimos de modelos de flujo de datos en RVC-CAL, los cuales son compilados por ORCC para alcanzar su traducción en lenguaje C. 2. Una vez conseguidos los diseños equivalentes en lenguaje C, son sintetizados en Vivado HLS para conseguir los modelos en VHDL. 3. Los modelos VHDL resultantes serian manipulados por las herramientas de Xilinx para producir el bitstream que sea programado en una FPGA o en el dispositivo Zynq. En el estudio del segundo punto, nos encontramos con una serie de elementos conflictivos que afectan a la síntesis en Vivado HLS de los diseños en lenguaje C generados por ORCC. Estos elementos están relacionados con la manera que se encuentra estructurada la especificación en C generada por ORCC y que Vivado HLS no puede soportar en determinados momentos de la síntesis. De esta manera se ha propuesto una transformación “manual” de los diseños generados por ORCC que afecto lo menos posible a los modelos originales para poder realizar la síntesis con Vivado HLS y crear el fichero VHDL correcto. De esta forma este documento se estructura siguiendo el modelo de un trabajo de investigación. En primer lugar, se exponen las motivaciones y objetivos que apoyan y se esperan lograr en este trabajo. Seguidamente, se pone de manifiesto un análisis del estado del arte de los elementos necesarios para el desarrollo del mismo, proporcionando los conceptos básicos para la correcta comprensión y estudio del documento. Se realiza una descripción de los lenguajes RVC-CAL y VHDL, además de una introducción de las herramientas ORCC y Vivado, analizando las bondades y características principales de ambas. Una vez conocido el comportamiento de ambas herramientas, se describen las soluciones desarrolladas en nuestro estudio de la síntesis de modelos en RVC-CAL, poniéndose de manifiesto los puntos conflictivos anteriormente señalados que Vivado HLS no puede soportar en la síntesis de los diseños en lenguaje C generados por el compilador ORCC. A continuación se presentan las soluciones propuestas a estos errores acontecidos durante la síntesis, con las cuales se pretende alcanzar una especificación en C más óptima para una correcta síntesis en Vivado HLS y alcanzar de esta forma los modelos VHDL adecuados. Por último, como resultado final de este trabajo se extraen un conjunto de conclusiones sobre todos los análisis y desarrollos acontecidos en el mismo. Al mismo tiempo se proponen una serie de líneas futuras de trabajo con las que se podría continuar el estudio y completar la investigación desarrollada en este documento. ABSTRACT. In this Project it has made a study of how to generate, from data flow models in RVC-CAL (Reconfigurable Video Coding - Actor CAL Language), VHDL models (Versatile Hardware Description Language) by Vivado HLS (Vivado High Level Synthesis), included in the tools available in Vivado of Xilinx. Once achieved the resulting VHDL model, the intention is that by the Xilinx tools programmed in FPGA or Zynq device also developed by Xilinx. RVC-CAL is a dataflow language that describes the functionality of functional blocks, called actors. The functionalities developed by an actor are defined as actions, which may be different in the same actor. Actors can communicate with each other and form a network of actors. With Vivado HLS we can get a VHDL design from a model in C. So the generation of models in VHDL from others in RVC-CAL requires a preliminary phase in which the models RVC-CAL will be compiled to get its equivalent in C. The compiler ORCC (Open RVC-CAL Compiler) is the tool that allows us to achieve designs in C language models based on RVC-CAL. ORCC not directly create the executable code but generates an available source code to be compiled by another tool, in the case of this project, the GCC compiler (GNU C Compiler) of Linux. In short, in this project we find three well-defined points of study, which are: 1. We start from data flow models in RVC-CAL, which are compiled by ORCC to achieve its translation in C. 2. Once you realize the equivalent designs in C, they are synthesized in Vivado HLS for VHDL models. 3. The resulting models VHDL would be manipulated by Xilinx tools to produce the bitstream that is programmed into an FPGA or Zynq device. In the study of the second point, we find a number of conflicting elements that affect the synthesis Vivado HLS designs in C generated by ORCC. These elements are related to the way it is structured specification in C generated ORCC and Vivado HLS cannot hold at certain times of the synthesis. Thus it has proposed a "manual" transformation of designs generated by ORCC that affected as little as possible to the original in order to perform the synthesis Vivado HLS and create the correct file VHDL models. Thus this document is structured along the lines of a research. First, the motivations and objectives that support and hope to reach in this work are presented. Then it shows an analysis the state of the art of the elements necessary for its development, providing the basics for a correct understanding and study of the document. A description of the RVC-CAL and VHDL languages is made, in addition an introduction of the ORCC and Vivado tools, analyzing the advantages and main features of both. Once you know the behavior of both tools, the solutions developed in our study of the synthesis of RVC-CAL models, introducing the conflicting points mentioned above are described that Vivado HLS cannot stand in the synthesis of design in C language generated by ORCC compiler. Below the proposed solutions to these errors occurred during synthesis, with which it is intended to achieve optimum C specification for proper synthesis Vivado HLS and thus create the appropriate VHDL models are presented. Finally, as the end result of this work a set of conclusions on all analyzes and developments occurred in the same are removed. At the same time a series of future lines of work which could continue to study and complete the research developed in this document are proposed.
Resumo:
Thesis (Ph.D.)--University of Washington, 2016-06