865 resultados para Fratura (Engenharia)
Resumo:
Neste trabalho é apresentado o desenvolvimento de um sistema de posicionamento dinâmico para uma pequena embarcação baseado em controle a estrutura variável com realimentação por visão computacional. Foram investigadas, na literatura, diversas técnicas desenvolvidas e escolheu-se o controle a estrutura variável devido, principalmente, ao modo de acionamento dos propulsores presentes no barco utilizado para os experimentos. Somando-se a isto, foi considerada importante a robustez que a técnica de controle escolhida apresenta, pois o modelo utilizado conta com incerteza em sua dinâmica. É apresentado ainda o projeto da superfície de deslizamento para realizar o controle a estrutura variável. Como instrumento de medição optou-se por utilizar técnicas de visão computacional em imagens capturadas a partir de uma webcam. A escolha por este tipo de sistema deve-se a alta precisão das medições aliada ao seu baixo custo. São apresentadas simulações e experimentos com controle a estrutura variável em tempo discreto utilizando a integral do erro da posição visando eliminar o erro em regime. Para realizar o controle que demanda o estado completo, são comparados quatro estimadores de estado realizados em tempo discreto: derivador aproximado; observador assintótico com uma frequência de amostragem igual a da câmera; observador assintótico com uma frequência de amostragem maior que a da câmera; e filtro de Kalman.
Resumo:
Este trabalho apresenta o estudo comparativo do desempenho de três topologias de conversores do sistema monofásico para o sistema trifásico com número reduzido de componentes, para o acionamento de um motor de indução do tipo rotor gaiola de esquilo. O funcionamento de cada topologia é descrito e simulado digitalmente. O desempenho desses conversores é avaliado em diferentes modos de operação, com sequência de fase positiva ou negativa, com ênfase na qualidade de energia em termos de redução da distorção harmônica total e da melhoria do fator de potência na fonte. Com vistas à redução de custos, foi desenvolvido um protótipo experimental baseado no uso de módulo integrado de chaves semicondutoras de potência e de um microcontrolador de baixo custo. Os resultados experimentais se equiparam aos resultados obtidos por simulação.
Resumo:
Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.
Resumo:
É descrita a modelagem, para controle, da dinâmica de uma plataforma semisubmersível com seis graus de liberdade. O modelo inclui os efeitos dos tanques de lastro como forças e momentos, assim como a dinâmica da plataforma. Os parâmetros do sistema foram obtidos das características da plataforma e de resultados experimentais obtidos com uma plataforma semisubmersível de dimensões reduzidas. O desenvolvimento de uma metodologia e de um software capazes de determinar o volume submerso e o centro de empuxo de uma estrutura com geometria complexa foram pontos determinantes nessa Dissertação, tendo em vista a complexidade do processo e as importâncias desses parâmetros para o desenvolvimento do modelo. A linearização do modelo permitiu a elaboração de uma estratégia de controle capaz de estabilizar a plataforma mesmo em condições iniciais distantes do equilíbrio. As equações que descrevem o movimento da plataforma nos graus de liberdade vertical, jogo e arfagem foram desenvolvidas. A realocação dos polos e um observador de estado foram utilizados com o objetivo de melhorar o controle do sistema.
Resumo:
Esta dissertação apresenta um formalismo baseado no Método dos Elementos Finitos (MEF), adequado a análise de descontinuidades coaxiais com simetria axial, entre duas linhas coaxiais quaisquer, incluindo corrugações nos tubos internos e externos. Pelo método de Galerkin-Budnov deduz-se um operador integral bilinear, aplicado ao campo magnético, expandido em todo o domínio da estrutura, coaxial-descontinuidade-coaxial. As portas de entrada e saída da estrutura são posicionadas distantes da descontinuidade, de forma que nelas só haja o modo Transversal Eletromagnético (TEM). O campo magnético procurado e obtido pelo MEF. Os resultados encontrados; perdas de retorno, comportamento do campo magnético e as equi-fases nas portas de entrada e saída da estrutura, foram calculados e confrontados com as do Método de Casamento de Modos (MCM), com um alto grau de concordância.
Resumo:
Neste trabalho, é feita a análise dos modos de plasmon que se propagam em um filme metálico que cobre uma fibra óptica generalizada. Os modos de plasmon estudados são: Fuga pela Cobertura (lcv), Ligado Simétrico (Sb), Fuga pelo Núcleo (lcr) e Ligado Assimétrico (ab). Os filmes metálicos, para efeito de comparação, utilizados neste trabalho, são: a prata, o ouro e o paládio. Desenvolveu-se um modelo matemático do fenômeno eletromagnético e um software, que gerou um banco de dados que facilitasse a análise de estruturas, com diversas combinações de parâmetros. Com o banco de dados, foram obtidos diversos gráficos, que permitiram: analisar os modos de plasmon, verificar a atenuação das ondas e o comportamento do campo eletromagnético em cada região da estrutura. As confrontações entre as estruturas com filmes de: prata, ouro e paládio, permitiram concluir que aquelas elaboradas com os filmes de prata e de ouro são as que apresentam menores perdas, portanto, as recomendadas na confecção de sensores. Como a prata é mais acessível que o ouro, aconselha-se a sua utilização. A análise e os resultados deste trabalho são originais na literatura especializada.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.
Resumo:
A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.
Resumo:
Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.
Resumo:
Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.
Resumo:
A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.
Resumo:
Fonte de riquezas supostamente inesgotáveis, os oceanos e as zonas costeiras há muito tempo servem de depósito para todo tipo de resíduo produzido pelo homem, desde águas residuais a todo tipo de resíduos sólidos descartados inadequadamente e que acabam por originar o lixo marinho. A Baía de Guanabara é um reflexo histórico dessas ações mal geridas em terra e que acabam refletidas em seu espelho dágua. O presente estudo procura fazer uma analise sobre as origens do lixo marinho na Enseada de Jurujuba, localizada na Baía de Guanabara, e seu principal canal de drenagem, o Canal de São Francisco (CSF), com ênfase ao descarte de resíduos nas comunidades localizadas a montante do canal. Apresenta também uma avaliação da experiência de projetos de intervenção e prevenção à geração do lixo marinho, com destaque a um projeto de coleta de lixo flutuante com uso de embarcação, bem como a iniciativa da Prefeitura de Niterói em um Projeto de Gestão Integrada de Resíduos no alto da bacia contribuinte ao CSF. O trabalho foi estruturado através de observações de campo, entrevistas, analise de relatórios dos projetos envolvidos, bem como consulta a sites e blogs relacionados ao assunto. O fato de resíduos sólidos terminarem em um corpo hídrico torna sua retirada e destinação adequadas muito mais complicadas do que em terra, evidenciando a complexidade do lixo marinho. Os resultados apontam para a necessidade de mais estudos nas áreas periféricas, que abrangem a maior parte da população, com vista à integração de politicas públicas no planejamento de ações por bacias ou microbacias hidrográficas e como forma de prevenção à geração do lixo marinho e melhora da qualidade de vida dessas populações.
Resumo:
O projeto de Estações de Tratamento de Efluentes Industriais (ETEIs) deve objetivar um desempenho médio, o qual não pode ser ultrapassado certo número de vezes durante seu tempo operacional. Este trabalho propõe a aplicação da metodologia conhecida como Coeficiente de Confiabilidade (CDC) para quantificação da confiabilidade das etapas de tratamento físico (Separação Águaóleo SAO e flotação) e biológico (lodos ativados com aeração prolongada), considerando efluente oleoso proveniente de refino de petróleo. Tal metodologia, entretanto, não possibilita a identificação das prováveis causas do baixo desempenho na tratabilidade. Por isso também é proposta a aplicação da ferramenta de gestão riscos conhecida como FMECA (Failure Modes, Effects and Criticality Analysis), que permite a quantificação das observações qualitativas de campo, tornando os valores comparáveis para definir a hierarquização dos riscos e criticidade das etapas de tratamento estudadas. A etapa biológica para o parâmetro NH3 apresentou a maior confiabilidade, ainda que a análise de risco tenha apontado esta etapa como mais crítica. Ou seja, um sistema confiável não necessariamente apresenta menor criticidade, pois uma má gestão implicará em possíveis infrações às metas pré-fixadas ou à própria legislação ambiental.
Resumo:
Com o desenvolvimento da espécie humana, a sociedade humana passou demandar quantidades cada vez maiores de diversos elementos naturais, principalmente a água. Por estar presente em uma pequena quantidade no planeta (3%), com relação a toda hidrosfera, as águas disponíveis para consumo humano (Ex: Mananciais) são as que mais sofrem com a ação antrópica. A degradação destes recursos se dá por fatores como: poluição, desperdício e falta de políticas públicas sobre conservação dos recursos hídricos. Buscando a implementação de estratégias para a melhor gestão dos recursos hídricos, a utilização de águas pluviais como fonte hídrica alternativa, ganha importância diante desse cenário. Além de uma fonte hídrica de fácil acesso em muitas regiões (com média anual de precipitação em 1589 mm na região da Tijuca Alerta Rio, 2013), estudos demonstram que sua qualidade permite sua utilização em atividades não potáveis, resultando na economia de águas que são tratadas e destinadas para consumo humano. Visando colaborar com as questões expostas anteriormente, a presente dissertação de mestrado buscou avaliar a qualidade das águas de chuva em uma determinada região e os fatores que possam interferir na qualidade das águas pluviais, como: tipo de material da superfície de captação, proximidade a focos de poluição atmosférica e período de estiagem antecedente ao evento pluviométrico. Para tal tarefa, foi instalado um sistema de captação de águas pluviais no Instituto de Aplicação Fernando Rodrigues da Silveira, localizado no bairro do Rio Comprido, região norte da cidade do Rio de Janeiro. Os parâmetros físico-químicos para qualidade da água pH, turbidez, temperatura, oxigênio dissolvido, sólidos totais dissolvidos, potencial de oxi-redução e condutividade foram analisados com o auxílio da sonda multiparâmetro. Ao correlacionar a presença de sólidos na água de chuva com os períodos de estiagem, verificou-se que quanto maior o período de seca, maior a quantidade de sólidos nas amostras. Com relação aos marcos regulatórios (Portaria 2914/2011, MS; Padrões de potabilidade, OMS; CONAMA 357 e NBR 15.527) , os resultados para estes parâmetros ficaram de acordo com os limites exigidos pelas mesmas, exceto o pH. Com a análise dos resultados, recomenda-se estudos para determinar quais fatores podem estar interferindo na acidificação das águas coletadas no estudo.