980 resultados para Método de pontos interiores
Resumo:
In this paper the point estimation method is applied to solve the probabilistic power flow problem for unbalanced three-phase distribution systems. Through the implementation of this method the probability distribution functions of voltages (magnitude and angle) as well as the active and reactive power flows in the branches of the distribution system are determined. Two different approaches of the point estimation method are presented (2m and 2m+1 point schemes). In order to test the proposed methodology, the IEEE 34 and 123 bus test systems are used. The results obtained with both schemes are compared with the ones obtained by a Monte Carlo Simulation (MCS).
Resumo:
Este trabalho apresenta um método para encontrar um conjunto de pontos de operação, os quais são ótimos de Pareto com diversidade, para linhas digitais de assinante (DSL - digital subscriber line). Em diversos trabalhos encontrados na literatura, têm sido propostos algoritmos para otimização da transmissão de dados em linhas DSL, que fornecem como resultado apenas um ponto de operação para os modems. Esses trabalhos utilizam, em geral, algoritmos de balanceamento de espectro para resolver um problema de alocação de potência, o que difere da abordagem apresentada neste trabalho. O método proposto, chamado de diverseSB , utiliza um processo híbrido composto de um algoritmo evolucionário multiobjetivo (MOEA - multi-objective evolutionary algorithm), mais precisamente, um algoritmo genético com ordenamento por não-dominância (NSGA-II - Non-Dominated Sorting Genetic Algorithm II), e usando ainda, um algoritmo de balanceamento de espectro. Os resultados obtidos por simulações mostram que, para uma dada diversidade, o custo computacional para determinar os pontos de operação com diversidade usando o algoritmo diverseSB proposto é muito menor que métodos de busca de “força bruta”. No método proposto, o NSGA-II executa chamadas ao algoritmo de balanceamento de espectro adotado, por isso, diversos testes envolvendo o mesmo número de chamadas ao algoritmo foram realizadas com o método diverseSB proposto e o método de busca por força bruta, onde os resultados obtidos pelo método diverseSB proposto foram bem superiores do que os resultados do método de busca por força bruta. Por exemplo, o método de força bruta realizando 1600 chamadas ao algoritmo de balanceamento de espectro, obtém um conjunto de pontos de operação com diversidade semelhante ao do método diverseSB proposto com 535 chamadas.
Resumo:
Neste trabalho, foi desenvolvido e implementado um método de discretização espacial baseado na lei de Coulomb para geração de pontos que possam ser usados em métodos meshless para solução das equações de Maxwell. Tal método aplica a lei de Coulomb para gerar o equilíbrio espacial necessário para gerar alta qualidade de discretização espacial para um domínio de análise. Este método é denominado aqui de CLDM (Coulomb Law Discretization Method ) e é aplicado a problemas bidimensionais. Utiliza-se o método RPIM (Radial Point Interpolation Method) com truncagem por UPML (Uniaxial Perfectlly Matched Layers) para solução das equações de Maxwell no domínio do tempo (modo TMz).
Resumo:
The representation of real objects in virtual environments has applications in many areas, such as cartography, mixed reality and reverse engineering. The generation of these objects can be performed in two ways: manually, with CAD (Computer Aided Design) tools, or automatically, by means of surface reconstruction techniques. The simpler the 3D model, the easier it is to process and store it. Multiresolution reconstruction methods can generate polygonal meshes in different levels of detail and, to improve the response time of a computer program, distant objects can be represented with few details, while more detailed models are used in closer objects. This work presents a new approach to multiresolution surface reconstruction, particularly interesting to noisy and low definition data, for example, point clouds captured with Kinect sensor
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.
Resumo:
2002
Resumo:
Dissertação de mestrado, Observação e Análise da Relação Educativa, Faculdade de Ciências Humanas e Sociais, Universidade do Algarve, 2005
Resumo:
Dissertação de Mestrado, Estudos Integrados dos Oceanos, 15 de Março de 2016, Universidade dos Açores.
Resumo:
O grande objetivo em finanças para os gestores das empresas é o de proporcionar aumento de valor aos acionistas. Para que isso possa ser efetivamente implementado, é necessário que o investimento proporcione para o acionista um retorno superior ao custo de oportunidade do seu capital, contemplando o risco do investimento, mensurado através de um modelo de avaliação. Este trabalho apresenta os principais conceitos de avaliação de ativos, destacando a criação de valor como a medida mais importante do desempenho da empresa. O fluxo de caixa descontado é abordado como o método que melhor resume o conceito de criação de valor, destacando-se o fluxo de caixa do acionista e o fluxo de caixa da empresa. Também são apresentados a forma de apuração dos fluxos de caixa, a estimativa das taxas de crescimento, algumas situações especiais onde o fluxo de caixa descontado necessita de adaptações e outros métodos alternativos de análise de investimentos, sendo que nenhum deles é capaz de superar a técnica do valor presente líquido – VPL, pois o método do VPL utiliza todos os fluxos de caixa de um projeto, descontando-os corretamente de acordo com o custo de oportunidade do capital O estudo mostra, ainda, uma rápida explanação das principais técnicas de mensuração do risco e do retorno exigido pelos investidores ou proprietários segundo a teoria de valor, como o CAPM (Capital Asset Price Model), o APM (Arbitrage Pricing Model) e o Multifatorial, destacando-se entre eles a dificuldade de mensuração do custo do capital próprio em empresas de capital fechado no Brasil, para a devida apuração da taxa de desconto. A metodologia proposta é aplicada na avaliação do investimento, em um novo ponto de venda, realizado por uma pequena empresa familiar do setor supermercadista. Dessa forma, ao final do estudo, propõe-se a utilização de uma ferramenta gerencial, baseada no fluxo de caixa descontado, para avaliação de futuros investimentos da empresa, buscando-se assim a maximização de valor para o acionista ou proprietário.
Resumo:
Esta dissertação apresenta a implementação das etapas do método DMAIC (Definir, Medir, Analisar, Melhorar e Controlar) no desenvolvimento de um projeto Seis Sigma em uma indústria petroquímica. O objetivo do projeto Seis Sigma foi reduzir a variabilidade de uma característica de qualidade crítica para o cliente e diminuir a dispersão dos tempos de reação entre as bateladas na produção de elastômeros. Neste trabalho são apresentadas as principais técnicas e ferramentas estatísticas utilizadas nas cinco etapas do método DMAIC, tais como brainstorming, mapeamento de processo, diagrama de causa e efeito, matriz da causa e efeito, gráfico de Pareto, FMEA e análise de regressão linear múltipla. A pesquisa desenvolvida de forma participativa, através da interação entre o pesquisador e os especialistas do processo, evidenciou a importância do conhecimento técnico do processo e um bom planejamento para a aquisição dos dados, como pontos importantes para a realização de um projeto de melhoria bem sucedido. O estudo apontou ainda, deficiências no sistema de controle de temperatura do reator, no sistema de medição para a característica de qualidade viscosidade Mooney e no sistema de dosagem dos insumos.
Resumo:
O objetivo dessa dissertação é fazer uma reflexão acerca da teoria mercadológica em relação aos serviços básicos prestados por um hotel, estabelecendo-se a ponte entre essa e sua aplicabilidade prática, no cotidiano da atividade hoteleira. Inicialmente foi conduzida uma revisão bibliográfica para se identificar quais são os aspectos relativos aos serviços, bem como quais são os fatores envolvidos com o aspecto da qualidades no serviços de hotelaria. Baseando-se na literatura relevante, foram identificados, analisados e criticados quais os pontos e recomendações propostos para se buscar a excelência e não pecar na prestação de serviços de um hotel, permitindo a diferenciação desse frente a seus concorrentes. Os pontos de análise foram utilizados para desenvolver o roteiro da entrevista que subsidiou a pesquisa de campo. Foram realizados seis estudos de caso, como método de pesquisa de campo, em hotéis, da cidade de São Paulo, que têm por preocupação a busca da melhora no atendimento a seus hóspedes e clientes. O material levantado por meio das entrevistas e através da observação do pesquisador nos hotéis-caso serviram para a análise entre casos. A partir dessa, foi possível chegar a conclusões acerca da pesquisa de campo. Finalmente, a visão composta da literatura e da pesquisa de campo orientou a reflexão acerca da aplicabilidade prática dos conceitos e do ferramental proposto pela teoria para um hotel, caso esse pretenda atingir um grau elevado em relação aos desejos e necessidade de seus hóspedes e clientes
Resumo:
Este trabalho desenvolve um método numérico para a solução de escoamentos bidimensionais em torno de geometrias automobilísticas utilizando o método de diferenças finitas. O código computacional resolve as equações de Navier-Stokes e de Euler para uma distribuição adequada dos pontos discretos na malha. O método de integração empregado baseia-se no esquema explícito de Runge-Kutta de 3 estágios para as equações da quantidade de movimento e no de sub-relaxações sucessivas para a pressão na base Gauss-Seidel. Utilizou-se a técnica dos contornos virtuais em coordenadas cartesianas para resolver o escoamento sobre uma geometria simplificada, com a superfície coincidente com a malha computacional, e uma geometria automobilística mais complexa (BMW). Para a certificação da técnica empregada, optou-se pela utilização da teoria do escoamento potencial e pela comparação com dados experimentais encontrados na literatura e outros coletados em túnel de vento em escala reduzida. Houve dificuldade nesta comparação devido à falta de artigos relativos às simulações numéricas de escoamentos sobre automóveis e na aplicação da técnica dos contornos virtuais em geometrias complexas. Os resultados foram satisfatórios, com boas perspectivas para trabalhos futuros, contribuindo assim para o desenvolvimento da área.