755 resultados para Engenharia Eletrotécnica
Resumo:
Neste trabalho, é feita a análise dos modos de plasmon que se propagam em um filme metálico que cobre uma fibra óptica generalizada. Os modos de plasmon estudados são: Fuga pela Cobertura (lcv), Ligado Simétrico (Sb), Fuga pelo Núcleo (lcr) e Ligado Assimétrico (ab). Os filmes metálicos, para efeito de comparação, utilizados neste trabalho, são: a prata, o ouro e o paládio. Desenvolveu-se um modelo matemático do fenômeno eletromagnético e um software, que gerou um banco de dados que facilitasse a análise de estruturas, com diversas combinações de parâmetros. Com o banco de dados, foram obtidos diversos gráficos, que permitiram: analisar os modos de plasmon, verificar a atenuação das ondas e o comportamento do campo eletromagnético em cada região da estrutura. As confrontações entre as estruturas com filmes de: prata, ouro e paládio, permitiram concluir que aquelas elaboradas com os filmes de prata e de ouro são as que apresentam menores perdas, portanto, as recomendadas na confecção de sensores. Como a prata é mais acessível que o ouro, aconselha-se a sua utilização. A análise e os resultados deste trabalho são originais na literatura especializada.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.
Resumo:
A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.
Resumo:
Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.
Resumo:
Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.
Resumo:
A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.
Resumo:
Fonte de riquezas supostamente inesgotáveis, os oceanos e as zonas costeiras há muito tempo servem de depósito para todo tipo de resíduo produzido pelo homem, desde águas residuais a todo tipo de resíduos sólidos descartados inadequadamente e que acabam por originar o lixo marinho. A Baía de Guanabara é um reflexo histórico dessas ações mal geridas em terra e que acabam refletidas em seu espelho dágua. O presente estudo procura fazer uma analise sobre as origens do lixo marinho na Enseada de Jurujuba, localizada na Baía de Guanabara, e seu principal canal de drenagem, o Canal de São Francisco (CSF), com ênfase ao descarte de resíduos nas comunidades localizadas a montante do canal. Apresenta também uma avaliação da experiência de projetos de intervenção e prevenção à geração do lixo marinho, com destaque a um projeto de coleta de lixo flutuante com uso de embarcação, bem como a iniciativa da Prefeitura de Niterói em um Projeto de Gestão Integrada de Resíduos no alto da bacia contribuinte ao CSF. O trabalho foi estruturado através de observações de campo, entrevistas, analise de relatórios dos projetos envolvidos, bem como consulta a sites e blogs relacionados ao assunto. O fato de resíduos sólidos terminarem em um corpo hídrico torna sua retirada e destinação adequadas muito mais complicadas do que em terra, evidenciando a complexidade do lixo marinho. Os resultados apontam para a necessidade de mais estudos nas áreas periféricas, que abrangem a maior parte da população, com vista à integração de politicas públicas no planejamento de ações por bacias ou microbacias hidrográficas e como forma de prevenção à geração do lixo marinho e melhora da qualidade de vida dessas populações.
Resumo:
O projeto de Estações de Tratamento de Efluentes Industriais (ETEIs) deve objetivar um desempenho médio, o qual não pode ser ultrapassado certo número de vezes durante seu tempo operacional. Este trabalho propõe a aplicação da metodologia conhecida como Coeficiente de Confiabilidade (CDC) para quantificação da confiabilidade das etapas de tratamento físico (Separação Águaóleo SAO e flotação) e biológico (lodos ativados com aeração prolongada), considerando efluente oleoso proveniente de refino de petróleo. Tal metodologia, entretanto, não possibilita a identificação das prováveis causas do baixo desempenho na tratabilidade. Por isso também é proposta a aplicação da ferramenta de gestão riscos conhecida como FMECA (Failure Modes, Effects and Criticality Analysis), que permite a quantificação das observações qualitativas de campo, tornando os valores comparáveis para definir a hierarquização dos riscos e criticidade das etapas de tratamento estudadas. A etapa biológica para o parâmetro NH3 apresentou a maior confiabilidade, ainda que a análise de risco tenha apontado esta etapa como mais crítica. Ou seja, um sistema confiável não necessariamente apresenta menor criticidade, pois uma má gestão implicará em possíveis infrações às metas pré-fixadas ou à própria legislação ambiental.
Resumo:
Com o desenvolvimento da espécie humana, a sociedade humana passou demandar quantidades cada vez maiores de diversos elementos naturais, principalmente a água. Por estar presente em uma pequena quantidade no planeta (3%), com relação a toda hidrosfera, as águas disponíveis para consumo humano (Ex: Mananciais) são as que mais sofrem com a ação antrópica. A degradação destes recursos se dá por fatores como: poluição, desperdício e falta de políticas públicas sobre conservação dos recursos hídricos. Buscando a implementação de estratégias para a melhor gestão dos recursos hídricos, a utilização de águas pluviais como fonte hídrica alternativa, ganha importância diante desse cenário. Além de uma fonte hídrica de fácil acesso em muitas regiões (com média anual de precipitação em 1589 mm na região da Tijuca Alerta Rio, 2013), estudos demonstram que sua qualidade permite sua utilização em atividades não potáveis, resultando na economia de águas que são tratadas e destinadas para consumo humano. Visando colaborar com as questões expostas anteriormente, a presente dissertação de mestrado buscou avaliar a qualidade das águas de chuva em uma determinada região e os fatores que possam interferir na qualidade das águas pluviais, como: tipo de material da superfície de captação, proximidade a focos de poluição atmosférica e período de estiagem antecedente ao evento pluviométrico. Para tal tarefa, foi instalado um sistema de captação de águas pluviais no Instituto de Aplicação Fernando Rodrigues da Silveira, localizado no bairro do Rio Comprido, região norte da cidade do Rio de Janeiro. Os parâmetros físico-químicos para qualidade da água pH, turbidez, temperatura, oxigênio dissolvido, sólidos totais dissolvidos, potencial de oxi-redução e condutividade foram analisados com o auxílio da sonda multiparâmetro. Ao correlacionar a presença de sólidos na água de chuva com os períodos de estiagem, verificou-se que quanto maior o período de seca, maior a quantidade de sólidos nas amostras. Com relação aos marcos regulatórios (Portaria 2914/2011, MS; Padrões de potabilidade, OMS; CONAMA 357 e NBR 15.527) , os resultados para estes parâmetros ficaram de acordo com os limites exigidos pelas mesmas, exceto o pH. Com a análise dos resultados, recomenda-se estudos para determinar quais fatores podem estar interferindo na acidificação das águas coletadas no estudo.
Resumo:
O estudo da dinâmica dos parâmetros físicos, químicos e biológicos da água em lagoas costeiras é essencial para entender o funcionamento destes ecossistemas; o que por sua vez permite o desenvolvimento de estratégias adequadas de gerenciamento e conservação de seus recursos. Neste estudo, analisou-se a qualidade da água da Lagoa Rodrigo de Freitas (Rio de Janeiro/RJ) e dos seus principais tributários. Foram utilizados os dados oriundos do projeto de monitoramento da qualidade da água realizado pela SMAC/RJ, entre dezembro de 2011 e dezembro de 2012. O objetivo precípuo foi compreender a dinâmica espacial e temporal da variação do estado trófico e da qualidade da água, assim como avaliar a exequibilidade e aplicabilidade de índices multimétricos (IQA, IET, ICE, IC, TRIX) ao projeto de monitoramento ambiental da LRF. Para tanto, foram realizadas coletas mensais e semanais da água superficial em cinco pontos amostrais, na LRF, e cinco pontos nos rios/canais. Em seguida, análises físico-químicas e biológicas foram realizadas. Os resultados obtidos mostraram relativa homogeneidade espacial e elevada variação sazonal da qualidade da água superficial. Os índices aplicados aos dados indicaram uma variação temporal representativa do estado trófico e da qualidade da água, sendo as classificações para os rios e canais diferentes às verificadas na LRF. Esta apresentou variação entre supereutrófica e hipereutrófica, já os primeiros foram mesotróficos. A qualidade da água da LRF apresentou majoritariamente entre moderada a boa. Os rios e canais foram classificados ruins e médios. Concluiu-se que diferentes modelos podem resultar em diferentes classificações de níveis de trofia e qualidade da água. Análises estatísticas de tendência indicaram estabilidade da qualidade da água, sem uma projeção representativa de melhoria da qualidade hídrica. Já análises multivariadas (RDA, PCA BEST, SIMPER, ANOSIM, MDS e CLUSTER) mostraram um elevado dinamismo da comunidade fitoplanctônica com nítida resposta às oscilações de variáveis físico-químicas específicas, apesar da dominância recorrente por cianobactérias.
Resumo:
A constante exploração da água de forma descontrolada tem comprometido a sua qualidade e quantidade para os seus diversos fins, dentre os quais se destaca o uso recreativo por contato primário. O presente estudo levanta um problema frequente no litoral brasileiro: cidades que recebem um elevado número de visitantes em determinados períodos do ano e sofrem crises ambientais por conta da mudança drástica no volume populacional, já que a população flutuante dificulta a gestão de insumos públicos como o abastecimento de água potável, os serviços de saúde, o descarte de lixo e o tratamento de esgoto, sendo muitas vezes responsável por uma poluição local. Nesse sentido, utilizou-se como modelo o balneário de Muriqui, distrito de Mangaratiba, no Estado do Rio de Janeiro, e objetivou-se diagnosticar a poluição hídrica e a balneabilidade da praia. A metodologia empregada para o desenvolvimento desta pesquisa foi baseada em pesquisas bibliográficas, por trabalhos técnico-científicos publicados, livros e instrumentos legais, e em um plano de amostragem. . Foram também realizadas visitas às secretarias municipais para recolher dados atuais sobre o município. Por fim, para confrontar os resultados analíticos obtidos em campo, realizou-se uma investigação da série histórica da pluviosidade das estações pluviométricas mais próximas ao distrito de Muriqui. Para verificar a qualidade da água da praia e dos dois rios que desembocam nela, foi realizado um plano de amostragem com coletas quinzenais, às segundas-feiras pela manhã, entre setembro de 2012 e agosto de 2013, totalizando 25 campanhas. Em cada campanha foram coletados cinco pontos de amostragem: três na praia de Muriqui, um no Rio da Prata e outro no Rio Catumbi. Assim, realizou-se o monitoramento de parâmetros físicos, químicos e biológicos, com o intuito de compará-los aos valores permitidos pelas legislações vigentes e correlacioná-los entre si para verificar o nível de degradação dos corpos hídricos da região. Constatou-se com o estudo que o ponto no Rio da Prata é o mais deteriorado e impactado pela ação antrópica, já que estava localizado mais próximo à sua foz. A avaliação da qualidade da água da praia indicou que o local apresentava condições excelentes de balneabilidade em 96% do período monitorado, apresentando apenas um episódio impróprio para banho. De modo geral, verificou-se com a pesquisa que alguns parâmetros demonstraram episódios característicos de poluição difusa por esgoto sanitário, aparentemente em estado inicial de degradação.
Resumo:
A grande quantidade de resíduos sólidos gerados nas cidades é um desafio para o saneamento ambiental no Brasil. A fim de se reduzir os impactos gerados ao meio ambiente e à saúde pública, é necessário que haja um gerenciamento adequado, desde a coleta até a disposição final, desses resíduos sólidos urbanos. Os aterros sanitários permitem um maior controle ambiental, desde que sejam bem projetados e operados. A decomposição da matéria orgânica presente nesses resíduos, somada às águas das chuvas gera o lixiviado, líquido com alto potencial poluidor. Várias formas de tratamento são propostas com a finalidade de tornar o lixiviado menos poluente ao meio ambiente. Wetlands construídos tem se mostrado uma alternativa eficiente para a remoção de poluentes em lixiviados, além dos baixos custos operacionais e de implantação. O presente estudo investigou o uso de wetlands subsuperficiais em escala-piloto para o tratamento de um lixiviado prétratado. Os wetlands foram monitorados com a finalidade de se obter remoções de matéria orgânica e nitrogênio amoniacal. As maiores reduções percentuais de concentração de nitrogênio amoniacal, DQO e COD foram, 91%, 42% e 35%, respectivamente. As maiores reduções percentuais em carga de nitrogênio amoniacal e DQO foram, 67% e 50%, respectivamente. Os resultados dos ensaios de toxicidade realizados com os organismos Vibrio fischeri e Danio rerio revelaram que, a toxicidade do lixiviado foi reduzida ao ser tratado pelo wetland.
Resumo:
Um dos grandes problemas enfrentados no tratamento de lixiviado é a definição de suas características físico-químicas e biológicas. Neste contexto, o objetivo do presente trabalho é avaliar a composição química, a recalcitrância, e a toxicidade do lixiviado bruto e tratado por processos de tratamento (físico-químico e biológico) oriundo do Aterro Metropolitano de Gramacho, localizado no município de Duque de Caxias, no estado do Rio de Janeiro. Os resultados mostraram maior biodegradabilidade aeróbia no efluente físico-químico com percentuais variando de 7% a 35 %. A natureza de tais compostos justifica a natureza refratária do lixiviado e alerta pela toxicidade que podem atribuir tanto aos microrganismos envolvidos no processo quanto a saúde humana quando dispostos incorretamente. Para o lixiviado em estudo, observou-se a diminuição da toxicidade ao passar pelo processo físicoquímico. Dessa maneira, observou-se que é necessário a adoção de sistemas de tratamento que conjuguem processos físico-químicos atuando como pré ou pós-tratamento de processos biológicos. Sendo assim, os resultados obtidos mostram a importância deste tipo de caracterização, como fonte de subsídios para a seleção, projeto e avaliação de sistemas de tratamento.
Resumo:
Instituições de Ensino Superior (IES) que realizam atividades de ensino e pesquisa em Química, em geral são potenciais áreas de risco de acidentes, uma vez que utilizam substâncias químicas perigosas em seus processos de ensino e pesquisa. Esta pesquisa se justifica em face da existência de substâncias de natureza química e biológica as quais possuem riscos à saúde e ao meio ambiente e de alguns acidentes já ocorridos em diversas IES no Brasil e exterior. O objetivo da pesquisa foi elaborar diretrizes para a gestão de emergências em acidentes químicos que possam ser aplicadas nos laboratórios de um Instituto de Química de uma Universidade Pública do Estado do Rio de Janeiro. Trata-se de um estudo exploratório e descritivo, aplicado a um caso estudado, de uma emergência. Realizou-se de revisão em literatura especializada, visitas aos laboratórios, registros fotográficos e entrevistas dirigidas a funcionários, técnicos e professores do IQ. A metodologia de avaliação de vulnerabilidade baseou-se no método dos cinco passos da Federal Emergency Management Agency. O estudo de caso mostrou que o Instituto de Química não possui uma Gestão de Emergências Químicas, com ausência de brigada de incêndio e o não cumprimento de normas técnicas e regulamentares. Apesar disso, existem laboratórios que possuem um perfil satisfatório quanto à segurança e saúde. O estudo mostrou também que a metodologia de Análise de Vulnerabilidade é uma boa ferramenta para elaboração de diretrizes voltadas para um Plano de Emergência, quando conduzida por equipe especializada.