9 resultados para Ajuste interno
em Universidade Federal do Pará
Resumo:
Há muitos anos, técnicas de Computação Evolucionária vem sendo aplicadas com sucesso na solução dos mais variados tipos de problemas de otimização. Na constante procura pelo ótimo global e por uma melhor exploração da superfície de busca, as escolhas para ajustar estes métodos podem ser exponencialmente complexas e requerem uma grande quantidade de intervenção humana. Estes modelos tradicionais darwinianos apóiam-se fortemente em aleatoriedade e escolhas heurísticas que se mantém fixas durante toda a execução, sem que acompanhem a variabilidade dos indivíduos e as eventuais mudanças necessárias. Dadas estas questões, o trabalho introduz a combinação de aspectos da Teoria do Design Inteligente a uma abordagem hibrida de algoritmo evolucionário, através da implementação de um agente inteligente o qual, utilizando lógica fuzzy, monitora e controla dinamicamente a população e seis parâmetros definidos de uma dada execução, ajustando-os para cada situação encontrada durante a busca. Na avaliação das proposições foi construído um protótipo sobre a implementação de um algoritmo genético para o problema do caixeiro viajante simétrico aplicado ao cenário de distância por estradas entre as capitais brasileiras, o que permitiu realizar 580 testes, simulações e comparações entre diferentes configurações apresentadas e resultados de outras técnicas. A intervenção inteligente entrega resultados que, com sucesso em muitos aspectos, superam as implementações tradicionais e abrem um vasto espaço para novas pesquisas e estudos nos aqui chamados: “Algoritmos Evolucionários Híbridos Auto-Adaptáveis”, ou mesmo, “Algoritmos Evolucionários Não-Darwinianos”.
Resumo:
Na segunda metade do século XIX, os discursos dos presidentes da Província do Pará enfatizavam os ideais de progresso econômico local, que seria alcançado através do restabelecimento dos negócios e do comércio entre as diversas vilas e cidades da região. Para isso, lançavam a proposta de se organizar o mercado interno e se instalar companhias de comércio e navegação a vapor para dinamizar essas atividades comerciais. Porém, essas idéias políticas também atentavam para a necessidade de se implementar o controle fiscal, diante da ação do comércio clandestino. A partir das fontes impressas e da historiografia sobre o tema, analisam-se essas idéias e políticas entendendo nelas os argumentos e as finalidades da implementação da navegação a vapor voltada para o abastecimento interno da província e para o incremento do comércio de exportação. O objetivo deste trabalho é estudar essas políticas sobre a navegação fluvial e a fiscalização das atividades comerciais que burlavam as ações do fisco, fato sobre o qual reincidem as falas das autoridades da província.
Resumo:
Após o final do monopólio exercido pela companhia pombalina, pensada estrategicamente para a Amazônia na segunda metade do século XVIII, emergirá um comércio interno de escravos por via marítima em direitura a estas paragens. Este tráfico de escravos passou a ser visto pelas autoridades régias como um perigo a sobrevivência de seus negócios e da agricultura. Por outro lado, não foram poucos os comerciantes e moradores da área setentrional da colônia e da província que receberam de bom grado a mão de obra africana vinda de áreas costeiras brasílicas. Nesta dissertação, a partir desse tráfico interno de escravos percebo a importância considerável deste comércio negreiro para Amazônia buscando refletir sobre os seus mecanismos de funcionamento e reprodução.
Resumo:
Este trabalho é um diagnóstico das atividades de controle interno do Departamento de Polícia Federal do Pará. Os dados analisados compreendem o período de 2007 a 2011 e têm por objeto os casos de má conduta policial mais frequentes, o contexto em que são cometidos, o perfil dos denunciantes, dos denunciados e dos corregedores, além de analisar os procedimentos adotados quando as denúncias chegam à corregedoria e o resultado final de tais procedimentos. Analisa também a percepção dos policiais federais dos diversos cargos e do principal corregedor do período estudado a respeito da atuação, na prática, da Corregedoria da Polícia Federal do estado do Pará, comparando tais percepções com os resultados formais do setor. O objetivo foi refletir a respeito dos parâmetros que norteiam o funcionamento do controle interno da instituição. A pesquisa evidenciou que as limitações e dificuldades enfrentadas pela Corregedoria de Polícia Federal do Pará são as mesmas verificadas nas várias instituições policiais brasileiras, apesar de restar evidente um esforço constante da Corregedoria em aprimorar seus mecanismos de controle interno. A relevância dessa abordagem decorre da escassez de pesquisas sobre a Polícia Federal brasileira e a inexistência de trabalhos sobre a corregedoria dessa instituição na região norte do Brasil.
Resumo:
A simulação numérica do escoamento de ar em ambientes internos é na atualidade o método mais apropriado para análise de conforto térmico em ambientes internos. O escoamento de ar nesses ambientes configura-se como um escoamento complexo, pois, em regra geral, é uma combinação de escoamentos cisalhantes livres (jatos) e cisalhantes de parede, além disso, esses escoamentos são governados por forças de inércia e forças de empuxo, caracterizando-o como de convecção mista. A combinação desses mecanismos cria um escoamento com características complexas, como zonas de recirculação, vórtices, descolamento e recolamento de camada-limite dentre outras. Portanto, a precisão da solução estará diretamente ligada, principalmente, na habilidade do modelo de turbulência adotado de reproduzir as características turbulentas do escoamento de ar e da transferência térmica. O objetivo principal do presente trabalho foi a simulação computacional do ambiente térmico interno do galpão que abriga os geradores e motores Wärtzilä da Usina Termelétrica Santana no estado do Amapá. A formulação matemática baseada na solução das equações gerais de conservação inclui uma análise dos principais modelos de turbulência aplicados ao escoamento de ar em ambientes internos, assim como os processos de transferência de calor associados. Na modelagem numérica o método de volumes finitos é usado na discretização das equações de conservação, através do código comercial Fluent-Airpak, que foi usado nas simulações computacionais para a análise dos campos de velocidade e temperatura do ar. A utilização correta do programa computacional foi testada e validada para o problema através da simulação precisa de casos retirados da literatura. Os resultados numéricos foram comparados a dados obtidos de medições experimentais realizados no galpão e apresentou boa concordância, considerando a complexidade do problema simulado, o objetivo da simulação em face da diminuição da temperatura no interior do galpão e, também, em função das limitações encontradas quando da tomada das medições experimentais. Além disso, foram feitas simulações de estratégias de melhoria do ambiente térmico da Usina, baseadas na realidade levantada e nos resultados da simulação numérica. Finalmente, foram realizadas simulações do protótipo de solução proposto para a diminuição da temperatura interna do galpão o que possibilitará um aumento, na faixa de 20 a 30%, do tempo de permanência no interior do galpão.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
As medidas de resistividade são de fundamental importância para o cálculo da saturação de óleo em reservatórios potencialmente produtores. A combinação das medidas de resistividade rasa e profunda permite a obtenção dos parâmetros Rt, Rxo e di. Mas, em reservatórios complexos existem dificuldades em se obter leituras confiáveis de Rt, devido à baixa resolução vertical das ferramentas de investigação profunda. Em reservatórios laminados, por exemplo, as leituras obtidas pela ferramenta de indução profunda (ILD) podem levar a uma interpretação errônea das mesmas, levando a acreditar que as medidas obtidas do perfil referem-se a uma única camada. Este problema pode ser em parte resolvido através de uma metodologia que melhore a resolução vertical dos perfis de investigação profunda, valendo-se do uso de informações obtidas de um perfil de alta resolução vertical, i.e; a curva de resistividade rasa. Uma abordagem neste sentido seria usar um perfil de alta resolução que apresente uma boa correlação com o perfil de investigação profunda. Esta correlação pode ser melhor avaliada se aplicarmos um filtro no perfil de alta resolução, de tal forma que o perfil resultante tenha teoricamente a mesma resolução vertical do perfil de baixa resolução. A obtenção deste filtro, porém, recai na premissa de que as funções respostas verticais para as ferramentas de alta e baixa resolução são disponíveis, o que não ocorre na prática. Este trabalho se propõe mostrar uma nova abordagem onde o filtro pode ser obtido a partir de um tratamento no domínio da freqüência. Tal tratamento visa igualar a energia espectral do perfil de alta resolução à energia espectral do perfil de baixa resolução tendo como base o Teorema de Parseval. Será mostrado que a resolução vertical depende fundamentalmente da energia espectral do perfil em questão. A seguir, uma regressão linear é aplicada sobre os perfis de alta resolução filtrado e de baixa resolução. Para cada ponto amostrado dos perfis, uma rotina de minimização é aplicada visando escolher o melhor intervalo de correlação entre os perfis. Finalmente, um fator de correção é aplicado sobre cada ponto do perfil de baixa resolução. Os resultados obtidos com os perfis de indução são promissores, demonstrando a eficácia da abordagem e mesmo quando aplicada em perfis com diferentes propriedades petrofísicas, a metodologia funcionou satisfatoriamente, sem danificar os perfis originais.
Resumo:
Os resíduos sólidos dos serviços de saúde (RSSS) oferecem risco potencial para saúde pública e meio ambiente perante um gerenciamento inadequado. Objetivou-se verificar aspectos do manejo interno dos RSSS do município paraense de Marituba. Através da aplicação de questionários e visitas de campo, realizou-se um estudo descritivo, observacional em treze estabelecimentos de saúde. O volume total de resíduos gerados era de cerca de 13.000kg/semana. Havia limitações nas diversas etapas do manejo interno, como a realização de tratamento interno somente num local, o armazenamento externo, que ocorria em quatro instituições e de maneira precária, entre outros. Também, havia conformidades como acondicionamento em sacos e recipientes adequados, segregação dos resíduos comuns. De modo geral, as normas federais não eram atendidas e o gerenciamento de RSSS dos estabelecimentos de saúde necessita de adequação na realização de todas as etapas do manejo, para controlar e diminuir os riscos e reduzir a quantidade de resíduos.
Resumo:
Essa dissertação de mestrado apresenta um estudo comparativo entre três metodologias baseadas em algoritmos genéticos para ajuste coordenado de estabilizadores de sistemas de potência (ESP). Os procedimentos de ajuste do ESP são formulados como um problema de otimização, a fim de: 1) maximizar o coeficiente de amortecimento mínimo do sistema em malha fechada; 2) maximizar o somatório de todos os coeficientes de amortecimento do sistema em malha fechada; e 3) deslocar os modos eletromecânicos poucos amortecidos ou mal amortecidos para uma zona pré-escrita no plano s. As três metodologias consideram um conjunto de condições de operacionais pré-especificadas. O sistema elétrico foi representado por equações no espaço de estado e as matrizes associadas com a modelagem foram obtidas por meio da versão acadêmica do programa PacDyn. As simulações foram realizadas usando o MATLAB. As metodologias foram aplicadas no conhecido sistema teste New England.