937 resultados para iterative multitier ensembles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parameters of the length-weight relationship are presented for 85 fish species from the marine and estuarine regions of the central Brazilian coast (latitude 13° to 23° S). Three different methods were used. A non-linear iterative process using the quasi-Newton algorithm yielded a better fit for all data sets analyzed. The length-weight allometry coefficient b estimated from standard length data tended to be lower than from total length data. The difference between these estimates was significant for some species.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The relationship between length (L) and weight (W) was estimated for 80 species belonging to 50 families of marine fishes from the shelf and upper slope of southern Brazil (lat. 28°S - 34°S). Sample sizes (n) for different species ranged from 11 to 14 741 specimens collected from commercial landings and research surveys. The fit of the equations (W=aLb) with a and b parameters estimated from regular and functional regression (of log-transformed weight and length data) as well as from a non-linear iterative process using the quasi-Newton algorithm were compared. The non-linear method gave the most accurate estimates in terms of residual sum of squares. Differences were less than 2.3% for n>500 compared with predictive regressions and 1.5% compared with functional regressions. No difference was observed between both predictive and functional regressions. Determination coefficients (r2) increased with sample size, and the highest r2 were obtained for 50

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A relação causal entre métodos de projeto e a usabilidade de produtos de comunicação e informação foi o tema desse estudo que buscou identificar o estado da arte sobre um processo de projeto que resulte em mais usabilidade na web. A partir dessa identificação, avaliou-se as melhorias que poderiam ser adotadas nos processos de desenvolvimento de interfaces utilizados por uma equipe específica da Fundação Oswaldo Cruz (CTIC - Fiocruz). Entendeu-se que um método de projeto deve estar atualizado em relação aos conhecimentos de áreas como a Ergonomia, a Interação Humano-computador e o Design de Interação. Para isso, adotou-se a hipótese de que o processo de projeto deve combinar três aspectos: a) um significativo envolvimento do usuário ao longo do processo; b) o uso de sucessivas iterações para configurar o produto e c) uma combinação mínima de técnicas relacionadas a objetivos específicos de cada fase de uma abordagem de Design Centrado no Usuário. Para contribuir com o desenvolvimento de métodos e técnicas que melhorem a usabilidade, descreveu-se as características dos métodos registrados na literatura e praticados por profissionais externos à Fundação Oswaldo Cruz (Fiocruz). A partir dessas informações, o estudo direcionou-se para o segundo objetivo específico: identificar melhorias nos métodos e técnicas aplicáveis no caso do CTIC Fiocruz. Através da combinação da revisão de literatura e da pesquisa de campo foram produzidas informações sobre tipos de fluxo dos métodos, tipos de envolvimento dos usuários, quantidade e gravidade de problemas de usabilidade observadas pelos profissionais e a validade de base geral de método para diferentes produtos. A primeira rodada de entrevista foi realizada para melhor entender o contexto da hipótese e a relação entre suas variáveis. A segunda rodada identificou as características do processo de projeto utilizado no CTIC. A partir dessas informações, aplicou-se duas técnicas com profissionais externos. Um questionário on-line foi utilizado para levantar informações bem específicas, em sua maioria de características quantitativas. A última técnica aplicada foi um card sorting on-line que apresentou um caso de projeto em que os profissionais indicaram quais técnicas seriam utilizadas diante de dois cenários diferentes: um mais favorável e outro restritivo. A análise demonstrou que a maioria dos profissionais acredita que os problemas de usabilidade são consequência da falta de determinadas abordagens e técnicas. Por isso, esses profissionais combinam fluxos iterativos com um significativo envolvimento do usuário no processo. Foram sugeridas melhorias para o método utilizado no CTIC sintetizadas através de um processo de Design Centrado no Usuário como ponto de partida que aplica o conceito tradicional de usabilidade (performance). Assim que possível, esse processo deve ser aperfeiçoado ao incluir o conceito de experiência do usuário que considera também os aspectos emocionais e hedonômicos na interação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho de dissertação apresentaremos uma classe de precondicionadores baseados na aproximação esparsa da inversa da matriz de coecientes, para a resolução de sistemas lineares esparsos de grandes portes através de métodos iterativos, mais especificamente métodos de Krylov. Para que um método de Krylov seja eficiente é extremamente necessário o uso de precondicionadores. No contexto atual, onde computadores de arquitetura híbrida são cada vez mais comuns temos uma demanda cada vez maior por precondicionadores paralelizáveis. Os métodos de inversa aproximada que serão descritos possuem aplicação paralela, pois so dependem de uma operação de produto matriz-vetor, que é altamente paralelizável. Além disso, alguns dos métodos também podem ser construídos em paralelo. A ideia principal é apresentar uma alternativa aos tradicionais precondicionadores que utilizam aproximações dos fatores LU, que apesar de robustos são de difícil paralelização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde a década de 1960, devido à pertinência para a indústria petrolífera, a simulação numérica de reservatórios de petróleo tornou-se uma ferramenta usual e uma intensa área de pesquisa. O principal objetivo da modelagem computacional e do uso de métodos numéricos, para a simulação de reservatórios de petróleo, é o de possibilitar um melhor gerenciamento do campo produtor, de maneira que haja uma maximização na recuperação de hidrocarbonetos. Este trabalho tem como objetivo principal paralelizar, empregando a interface de programação de aplicativo OpenMP (Open Multi-Processing), o método numérico utilizado na resolução do sistema algébrico resultante da discretização da equação que descreve o escoamento monofásico em um reservatório de gás, em termos da variável pressão. O conjunto de equações governantes é formado pela equação da continuidade, por uma expressão para o balanço da quantidade de movimento e por uma equação de estado. A Equação da Difusividade Hidráulica (EDH), para a variável pressão, é obtida a partir deste conjunto de equações fundamentais, sendo então discretizada pela utilização do Método de Diferenças Finitas, com a escolha por uma formulação implícita. Diferentes testes numéricos são realizados a fim de estudar a eficiência computacional das versões paralelizadas dos métodos iterativos de Jacobi, Gauss-Seidel, Sobre-relaxação Sucessiva, Gradientes Conjugados (CG), Gradiente Biconjugado (BiCG) e Gradiente Biconjugado Estabilizado (BiCGStab), visando a uma futura aplicação dos mesmos na simulação de reservatórios de gás. Ressalta-se que a presença de heterogeneidades na rocha reservatório e/ou às não-linearidades presentes na EDH para o escoamento de gás aumentam a necessidade de métodos eficientes do ponto de vista de custo computacional, como é o caso de estratégias usando OpenMP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os métodos de otimização que adotam condições de otimalidade de primeira e/ou segunda ordem são eficientes e normalmente esses métodos iterativos são desenvolvidos e analisados através da análise matemática do espaço euclidiano n-dimensional, o qual tem caráter local. Esses métodos levam a algoritmos iterativos que são usados para o cálculo de minimizadores globais de uma função não linear, principalmente não-convexas e multimodais, dependendo da posição dos pontos de partida. Método de Otimização Global Topográfico é um algoritmo de agrupamento, o qual é fundamentado nos conceitos elementares da teoria dos grafos, com a finalidade de gerar bons pontos de partida para os métodos de busca local, com base nos pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem como objetivo a aplicação do método de Otimização Global Topográfica junto com um método robusto e eficaz de direções viáveis por pontos-interiores a problemas de otimização que tem restrições de igualdade e/ou desigualdade lineares e/ou não lineares, que constituem conjuntos viáveis com interiores não vazios. Para cada um destes problemas, é representado também um hiper-retângulo compreendendo cada conjunto viável, onde os pontos amostrais são gerados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Reef fishes are conspicuous and essential components of coral reef ecosystems and economies of southern Florida and the United States Virgin Islands (USVI). Throughout Florida and the USVI, reef fish are under threat from a variety of anthropogenic and natural stressors including overfishing, habitat loss, and environmental changes. The South Florida/Caribbean Network (SFCN), a unit of the National Park Service (NPS), is charged with monitoring reef fishes, among other natural and cultural resources, within six parks in the South Florida - Caribbean region (Biscayne National Park, BISC; Buck Island Reef National Monument, BUIS; Dry Tortugas National Park, DRTO; Everglades National Park, EVER; Salt River Bay National Historic Park and Ecological Preserve, SARI; Virgin Islands National Park, VIIS). Monitoring data is intended for park managers who are and will continue to be asked to make decisions to balance environmental protection, fishery sustainability and park use by visitors. The range and complexity of the issues outlined above, and the need for NPS to invest in a strategy of monitoring, modeling, and management to ensure the sustainability of its precious assets, will require strategic investment in long-term, high-precision, multispecies reef fish data that increases inherent system knowledge and reduces uncertainty. The goal of this guide is to provide the framework for park managers and researchers to create or enhance a reef fish monitoring program within areas monitored by the SFCN. The framework is expected to be applicable to other areas as well, including the Florida Keys National Marine Sanctuary and Virgin Islands Coral Reef National Monument. The favored approach is characterized by an iterative process of data collection, dataset integration, sampling design analysis, and population and community assessment that evaluates resource risks associated with management policies. Using this model, a monitoring program can adapt its survey methods to increase accuracy and precision of survey estimates as new information becomes available, and adapt to the evolving needs and broadening responsibilities of park management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Biogeography Branch’s Sampling Design Tool for ArcGIS provides a means to effectively develop sampling strategies in a geographic information system (GIS) environment. The tool was produced as part of an iterative process of sampling design development, whereby existing data informs new design decisions. The objective of this process, and hence a product of this tool, is an optimal sampling design which can be used to achieve accurate, highprecision estimates of population metrics at a minimum of cost. Although NOAA’s Biogeography Branch focuses on marine habitats and some examples reflects this, the tool can be used to sample any type of population defined in space, be it coral reefs or corn fields.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Biogeography Branch’s Sampling Design Tool for ArcGIS provides a means to effectively develop sampling strategies in a geographic information system (GIS) environment. The tool was produced as part of an iterative process of sampling design development, whereby existing data informs new design decisions. The objective of this process, and hence a product of this tool, is an optimal sampling design which can be used to achieve accurate, high-precision estimates of population metrics at a minimum of cost. Although NOAA’s Biogeography Branch focuses on marine habitats and some examples reflects this, the tool can be used to sample any type of population defined in space, be it coral reefs or corn fields.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of an expert system, BRIDEX, for the design of prestressed concrete bridges is discussed in this paper. Design of multi-span continuous pre-stressed concrete bridges pose considerable difficulties to designers because of the large number of parameters involved and their complex interactions. The design is often perceived as an iterative process of generation, evaluation and modification of trial designs. It takes years of experience to develop an understanding of the design process. BRIDEX is aimed at providing guidance to the designers by suggesting appropriate range of values for the design parameters. The knowledge within BRIDEX is mainly based on fundamental principles developed by a careful study of the intricacies involved in the design process, while heuristics are used only to supplement this knowledge. The BRIDEX approach ensures that the whole design evolves sequentially as the design proceeds, module after module.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper suggests a method for identification in the v-gap metric. For a finite number of frequency response samples, a problem for identification in the v-gap metric is formulated and an approximate solution is described. It uses an iterative technique for obtaining an L2-gap approximation. Each stage of the iteration involves solving an LMI optimisation. Given a known stabilising controller and the L2-gap approximation, it is shown how to derive a v-gap approximation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The conceptual design phase of any project is, by its very nature, a vibrant, creative and dynamic period. It can also be disorganized with much backtracking accompanying the exchange of information between design team members. The transfer of information, ideas and opinion is critical to the development of concepts and as such, rather than being recognized as merely a component of conceptual design activity, it needs to be understood and, ultimately, managed. This paper describes an experimental workshop involving fifteen design professionals in which conceptual design activity was tracked, and subsequently mapped, in order to test and validate a tentative design framework (phase and activity model). The nature of the design progression of the various teams is captured and analyzed, allowing a number of conclusions to be drawn regarding both the iterative nature of this phase of design and how teams of professionals actually design together.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a pseudo-time-step method to calculate a (vector) Green function for the adjoint linearised Euler equations as a scattering problem in the frequency domain, for use as a jet-noise propagation prediction tool. A method of selecting the acoustics-related solution in a truncated spatial domain while suppressing any possible shear-layer-type instability is presented. Numerical tests for 3-D axisymmetrical parallel mean flows against semi-analytical reference solutions indicate that the new iterative algorithm is capable of producing accurate solutions with modest computational requirements.