970 resultados para Linear programming.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se o desenvolvimento de um programa de elementos finitos tridimensionais denominado AE3D1.0, concebido especificamente para a análise de pavimentos rodoviários, partindo do pressuposto de que todos os materiais incorporados possuem comportamento elástico-linear. Por comparação dos resultados do programa AE3D1.0 com as soluções analíticas da teoria da elasticidade para o semi-espaço homogéneo e multiestratificado, confirma-se que é possível estabelecer uma analogia próxima entre ambas as abordagens. Tirando partindo das potencialidades do método dos elementos finitos, e da capacidade do programa de registar os resultados de cálculo em ficheiros digitais que possibilitam a posterior apreciação visual e tratamento dos dados obtidos, comparam-se pavimentos rígidos expostos a carregamentos de canto e de bordo, e é evidenciado o efeito prejudicial que a erosão da estrutura de apoio subjacente à laje de betão tem na longevidade e integridade estrutural do pavimento. São também aplicadas forças de frenagem a pavimentos rígidos em secções confinadas e não confinadas. Elege-se um modelo de pneu para veículos pesados representativo das características do eixo padrão de 130 kN, e analisa-se o efeito que a correspondente impressão ovalizada e distribuição de pressões verticais não uniforme tem na estrutura de um pavimento semi-rígido. Adapta-se e é aplicada uma malha de elementos finitos ao estudo da avaliação da capacidade de carga de pavimentos através de ensaios com o defletómetro de impacto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the most difficult problems that face researchers experimenting with complex systems in real world applications is the Facility Layout Design Problem. It relies with the design and location of production lines, machinery and equipment, inventory storage and shipping facilities. In this work it is intended to address this problem through the use of Constraint Logic Programming (CLP) technology. The use of Genetic Algorithms (GA) as optimisation technique in CLP environment is also an issue addressed. The approach aims the implementation of genetic algorithm operators following the CLP paradigm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

There exist striking analogies in the behaviour of eigenvalues of Hermitian compact operators, singular values of compact operators and invariant factors of homomorphisms of modules over principal ideal domains, namely diagonalization theorems, interlacing inequalities and Courant-Fischer type formulae. Carlson and Sa [D. Carlson and E.M. Sa, Generalized minimax and interlacing inequalities, Linear Multilinear Algebra 15 (1984) pp. 77-103.] introduced an abstract structure, the s-space, where they proved unified versions of these theorems in the finite-dimensional case. We show that this unification can be done using modular lattices with Goldie dimension, which have a natural structure of s-space in the finite-dimensional case, and extend the unification to the countable-dimensional case.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a methodology for distribution networks reconfiguration in outage presence in order to choose the reconfiguration that presents the lower power losses. The methodology is based on statistical failure and repair data of the distribution power system components and uses fuzzy-probabilistic modelling for system component outage parameters. Fuzzy membership functions of system component outage parameters are obtained by statistical records. A hybrid method of fuzzy set and Monte Carlo simulation based on the fuzzy-probabilistic models allows catching both randomness and fuzziness of component outage parameters. Once obtained the system states by Monte Carlo simulation, a logical programming algorithm is applied to get all possible reconfigurations for every system state. In order to evaluate the line flows and bus voltages and to identify if there is any overloading, and/or voltage violation a distribution power flow has been applied to select the feasible reconfiguration with lower power losses. To illustrate the application of the proposed methodology to a practical case, the paper includes a case study that considers a real distribution network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper present a methodology to choose the distribution networks reconfiguration that presents the lower power losses. The proposed methodology is based on statistical failure and repair data of the distribution power system components and uses fuzzy-probabilistic modeling for system component outage parameters. The proposed hybrid method using fuzzy sets and Monte Carlo simulation based on the fuzzyprobabilistic models allows catching both randomness and fuzziness of component outage parameters. A logic programming algorithm is applied, once obtained the system states by Monte Carlo Simulation, to get all possible reconfigurations for each system state. To evaluate the line flows and bus voltages and to identify if there is any overloading, and/or voltage violation an AC load flow has been applied to select the feasible reconfiguration with lower power losses. To illustrate the application of the proposed methodology, the paper includes a case study that considers a 115 buses distribution network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO: Introdução – A Radioterapia (RT) é uma abordagem terapêutica para tratamento de neoplasia de mama. Contudo, diferentes técnicas de irradiação (TI) podem ser usadas. Objetivos – Comparar 4 TI, considerando a irradiação dos volumes alvo (PTV) e dos órgãos de risco (OAR). Metodologia – Selecionaram-se 7 pacientes com indicação para RT de mama esquerda. Sobre tomografia computorizada foram feitos os contornos do PTV e dos OAR. Foram calculadas 4 planimetrias/paciente para as TI: conformacional externa (EBRT), intensidade modulada com 2 (IMRT2) e 5 campos (IMRT5) e arco dinâmico (DART). Resultados – Histogramas de dose volume foram comparados para todas as TI usando o software de análise estatística, IBM SPSS v20. Com IMRT5 e DART, os OAR recebem mais doses baixas. No entanto, IMRT5 apresenta melhores índices de conformidade e homogeneidade para o PTV. Conclusões – IMRT5 apresenta o melhor índice de conformidade; EBRT e IMRT2 apresentam melhores resultados que DART. Há d.e.s entre as TI, sobretudo em doses mais baixas nos OAR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mathematical Program with Complementarity Constraints (MPCC) finds applica- tion in many fields. As the complementarity constraints fail the standard Linear In- dependence Constraint Qualification (LICQ) or the Mangasarian-Fromovitz constraint qualification (MFCQ), at any feasible point, the nonlinear programming theory may not be directly applied to MPCC. However, the MPCC can be reformulated as NLP problem and solved by nonlinear programming techniques. One of them, the Inexact Restoration (IR) approach, performs two independent phases in each iteration - the feasibility and the optimality phases. This work presents two versions of an IR algorithm to solve MPCC. In the feasibility phase two strategies were implemented, depending on the constraints features. One gives more importance to the complementarity constraints, while the other considers the priority of equality and inequality constraints neglecting the complementarity ones. The optimality phase uses the same approach for both algorithm versions. The algorithms were implemented in MATLAB and the test problems are from MACMPEC collection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Identificar os determinantes da desnutrição energético-protéica que ocasionam déficits ponderal e de crescimento linear em crianças. MÉTODOS: Estudo transversal envolvendo 1.041 crianças (menores de dois anos de idade) de 10 municípios do Estado da Bahia, de 1999 a 2000. Utilizou-se a técnica de regressão logística e estratégia da abordagem hierárquica para identificar os fatores associados ao estado antropométrico. RESULTADOS: O modelo final para déficit no crescimento linear revelou como determinante básico: a posse de dois ou menos equipamentos domésticos (OR=2,9; IC 95%: 1,74-4,90) e no nível subjacente, a ausência de consulta pré-natal (OR=2,7; IC 95%: 1,47-4,97); entre os determinantes imediatos o baixo peso ao nascer (<2.500 g) (OR=3,6; IC 95%: 1,72-7,70) e relato de hospitalização nos 12 meses anteriores à entrevista (OR=2,4; IC 95%: 1,42-4,10). Fatores determinantes no déficit ponderal nos níveis básico, subjacente e imediato foram, respectivamente: a renda mensal per capita inferior a ¼ do salário-mínimo (OR=3,4; IC 95%: 1,41-8,16), a ausência de pré-natal (OR=2,1; IC 95%: 1,03-4,35), e o baixo peso ao nascer (OR=4,8; IC 95%: 2,00-11,48). CONCLUSÕES: Os déficits ponderal e linear das crianças foram explicados pela intermediação entre as precárias condições materiais de vida e o restrito acesso ao cuidado com a saúde e a carga de morbidade. Intervenções que melhorem as condições de vida e ampliem o acesso às ações do serviço de saúde são estratégias que caminham na busca da eqüidade em saúde e nutrição na infância.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Estratégias metodológicas vêm sendo desenvolvidas para minimizar o efeito do erro de medida da dieta. O objetivo do estudo foi descrever a aplicação de uma estratégia para correção da informação dietética pelo erro de medida. MÉTODOS: Foram obtidos dados de consumo alimentar pela aplicação do Questionário de Freqüência Alimentar a 79 adolescentes do Município de São Paulo em 1999. Os dados dietéticos obtidos foram corrigidos por meio de regressão linear, após o ajuste pela energia usando-se o método dos resíduos. O método de referência utilizado foi o recordatório de 24 horas, aplicado em três momentos distintos. RESULTADOS: Os valores corrigidos aproximaram-se dos valores de referência. O fator de correção lambda foi de 0,89 para energia. Para os macronutrientes, os fatores foram de 0,41; 0,22 e 0,20, para carboidratos, lipídios e proteínas, respectivamente. CONCLUSÕES: As médias e desvios-padrão dos valores corrigidos denotam que houve uma correção do erro de medida. Apesar disso, debate-se o desempenho desses métodos, que são notoriamente imperfeitos quando seus pressupostos teóricos não são atendidos, o que é comum nos estudos da dieta que usam instrumentos de medida baseados no relato dos indivíduos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As indústrias de componentes e acessórios automóveis são um elo fundamental no processo produtivo da indústria automóvel. Neste leque industrial encontra-se a Preh Portugal, Lda, como empresa fornecedora de componentes electrónicos, mais concretamente, painéis de controlo de climatização. Os painéis fornecidos pela Preh aos seus clientes encontram-se sujeitos a rigorosos testes de qualidade e funcionalidade. Neste sentido o teste funcional das teclas surge, relacionando o curso da tecla em função de uma força actuante. Esta relação está comprometida com uma curva característica padrão para o tipo de tecla. Para além destes compromissos, também é necessário que a tecla feche e abra o seu contacto eléctrico. Esta tese foca-se no desenvolvimento do teste de teclas, apresentando uma alteração ao sistema actual com a introdução de um sistema embebido, no intuito de flexibilizar o sistema de teste e reduzindo custos. O sistema embebido pretende dar capacidade de processamento ao teste e, desta forma, substituir o actual computador como elemento de processamento. A solução implementada consistiu numa mudança estrutural, através da inclusão do sistema embebido entre o computador e o sistema de deslocamento. Passando o foco central do processo de teste a residir no sistema embebido, este tem de estabelecer comunicações com os restantes elementos intervenientes no teste. Estabelece comunicações série RS-232 com o sistema de deslocamento (leitura do curso e força na tecla), Ethernet com o computador (comandos, parâmetros e resultados) e CAN com o painel de controlo de climatização (fecho/abertura do contacto eléctrico). A concretização deste projecto resultou numa nova estrutura e aplicação, a qual é facilmente integrada na linha de produção com as vantagens de ser menos onerosa e mais flexível, conforme o pretendido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In basaltic dykes the magnetic lineation K1 (maximum magnetic susceptibility axis) is generally taken to indicate the flow direction during solidification of the magma. This assumption was tested in Tertiary basaltic dykes from Greenland displaying independent evidence of subhorizontal flow. The digital processing of microphotographs from thin sections cut in (K1, K2) planes yields the preferred linear orientation of plagioclase, which apparently marks the magma flow lineation. In up to 60% of cases, the angular separation between K1 and the assumed flow direction is greater than 45degrees. This suggests that the uncorroborated use of magnetic lineations in dykes is risky. A simple geometrical method is proposed to infer the flow vector from AMS in dykes based solely on magnetic foliations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Chpater in Book Proceedings with Peer Review Second Iberian Conference, IbPRIA 2005, Estoril, Portugal, June 7-9, 2005, Proceedings, Part II

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We use a simple model of associating fluids which consists of spherical particles having a hard-core repulsion, complemented by three short-ranged attractive sites on the surface (sticky spots). Two of the spots are of type A and one is of type B; the bonding interactions between each pair of spots have strengths epsilon(AA), epsilon(BB), and epsilon(AB). The theory is applied over the whole range of bonding strengths and the results are interpreted in terms of the equilibrium cluster structures of the phases. In addition to our numerical results, we derive asymptotic expansions for the free energy in the limits for which there is no liquid-vapor critical point: linear chains (epsilon(AA)not equal 0, epsilon(AB)=epsilon(BB)=0), hyperbranched polymers (epsilon(AB)not equal 0, epsilon(AA)=epsilon(BB)=0), and dimers (epsilon(BB)not equal 0, epsilon(AA)=epsilon(AB)=0). These expansions also allow us to calculate the structure of the critical fluid by perturbing around the above limits, yielding three different types of condensation: of linear chains (AA clusters connected by a few AB or BB bonds); of hyperbranched polymers (AB clusters connected by AA bonds); or of dimers (BB clusters connected by AA bonds). Interestingly, there is no critical point when epsilon(AA) vanishes despite the fact that AA bonds alone cannot drive condensation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Screening of topologies developed by hierarchical heuristic procedures can be carried out by comparing their optimal performance. In this work we will be exploiting mono-objective process optimization using two algorithms, simulated annealing and tabu search, and four different objective functions: two of the net present value type, one of them including environmental costs and two of the global potential impact type. The hydrodealkylation of toluene to produce benzene was used as case study, considering five topologies with different complexities mainly obtained by including or not liquid recycling and heat integration. The performance of the algorithms together with the objective functions was observed, analyzed and discussed from various perspectives: average deviation of results for each algorithm, capacity for producing high purity product, screening of topologies, objective functions robustness in screening of topologies, trade-offs between economic and environmental type objective functions and variability of optimum solutions.