31 resultados para Localização de falhas (Engenharia)

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi criar uma metodologia de validação e revalidação dos processos de esterilização por calor úmido em autoclaves horizontais, destacando os pontos críticos do processo e concentrando esforços onde são realmente necessários. Foram realizados estudos de distribuição térmica, de penetração de calor e de desafio microbiológico na validação da autoclave STERIS FINNAQUA 6912. Com o objetivo de avaliar o impacto de uma mudança e compreender a relação entre os fatores e suas interações para o processo de esterilização, foi utilizado o planejamento fatorial 23 dos fatores densidade da carga (quantidade de itens), embalagem do produto e localização na câmara interna. Os estudos de distribuição térmica confirmaram a distribuição homogênea de calor na câmara interna durante o tempo de exposição a 121C. As temperaturas variaram entre 120,35C e 120,92C com desvio padrão máximo de 0,12C. Os estudos de penetração de calor confirmaram exposições equivalentes a 121C por 24 minutos em todos os itens da carga (F0 > 24 minutos). Em todos os estudos para cargas secas, os índices de capacidade do processo (Cpk) foram maiores que 1,33. Os ensaios de desafio microbiológico garantiram níveis de esterilidade (S.A.L.) maiores que 12 reduções logarítmicas em relação aos indicadores biológicos Geobacillus stearothermophilus. Não foi detectada a presença de endosporos sobreviventes nos 132 indicadores biológicos utilizados nos quatro ciclos desafiados. Com base no planejamento experimental verificou-se que, para o nível de significância de 95% , as mudanças nos fatores posição, embalagem e quantidade da carga não são significativas para o processo de esterilização, em autoclave com remoção forçada de ar. Já para o nível de significância de 90%, a interação Posição x Embalagem apresentou significância estatística no processo de esterilização com valor P de 0,080

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar dos impactos ambientais ocasionados pela poluição e acidentes químicos, constata-se que algumas organizações ainda investem pouco na prevenção, redução ou eliminação de seus resíduos. Em algumas Instituições de Ensino e Pesquisa (IES) do Brasil, não é incomum o manejo inadequado dos resíduos perigosos gerados em laboratórios de ensino e pesquisa, aumentando tais riscos. Para minimizar ou eliminar tais riscos, há que se realizarem investimentos em processos tecnológicos de tratamento e na seleção de métodos adequados ao gerenciamento. O objetivo desta pesquisa foi modelar um Sistema de Gerenciamento Integrado de Resíduos Perigosos e validá-lo através de sua aplicação em estudo piloto nos laboratórios dos Institutos de Química e Biologia da Universidade do Estado do Rio de Janeiro. A pesquisa empírica e exploratória foi realizada através de revisão bibliográfica e coleta de dados sobre o estado da arte no gerenciamento de resíduos em algumas IES nacionais e internacionais, seguido da seleção do sistema adequado a ser modelado e aplicado nestes contextos. O trabalho de campo consistiu na coleta de dados através de observação direta e aplicação de questionário junto aos responsáveis pelos laboratórios. As etapas do estudo foram: levantamento das instalações dos laboratórios; observação do manejo e geração dos resíduos; elaboração do banco de dados; análise qualitativa e quantitativa dos dados; modelagem do Sistema de Gerenciamento Integrado de Resíduos Perigosos SIGIRPE; implantação do modelo; apresentação e avaliação dos resultados; elaboração do manual para uso do sistema. O monitoramento quantitativo de resíduos foi feito através de ferramentas do sistema para a sua análise temporal. Os resultados da pesquisa permitiram conhecer a dinâmica e os problemas existentes nos laboratórios, bem como verificar a potencialidade do modelo. Conclui-se que o SIGIRPE pode ser aplicado a outros contextos desde que seja adequado para tal fim. É imprescindível ter uma estrutura institucional que elabore o Plano de Gerenciamento Integrado de Resíduos e viabilize sua implementação. A universidade, enquanto formadora dos futuros profissionais, é um lócus privilegiado na construção e disseminação do conhecimento, tendo o dever de realizar boas práticas no trato das questões ambientais, em particular, com relação aos resíduos. Assim, elas devem estabelecer entre suas estratégias de ação, a inclusão de políticas ambientais em seus campi, onde a Educação Ambiental deve ser permanente. Espera-se que este trabalho contribua com o planejamento e o gerenciamento dos resíduos perigosos gerados em laboratórios e com as mudanças necessárias rumo à sustentabilidade ambiental. O SIGIRPE foi elaborado e testado, mas não foi possível verificar sua aplicação por outros usuários. É o que se espera com a continuidade desta pesquisa e no desenvolvimento de futuros trabalhos, tais como: teste do sistema em hospitais, laboratórios, clínicas; estudar outras aplicações na área de segurança química de laboratórios através da inclusão de roteiro de transporte interno de resíduos, rotas de fuga, mapas de risco, localização de equipamentos de proteção individual e coletiva; demonstrar a potencialidade de uso do sistema e sensibilizar os segmentos envolvidos através de palestras, mini-cursos e outras estratégias de informação em revistas científicas especializadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho está baseado na investigação dos detectores de falhas aplicando classificadores de classe única. As falhas a serem detectadas são relativas ao estado de funcionamento de cada componente do circuito, especificamente de suas tolerâncias (falha paramétrica). Usando a função de transferência de cada um dos circuitos são gerados e analisados os sinais de saída com os componentes dentro e fora da tolerância. Uma função degrau é aplicada à entrada do circuito, o sinal de saída desse circuito passa por uma função diferenciadora e um filtro. O sinal de saída do filtro passa por um processo de redução de atributos e finalmente, o sinal segue simultaneamente para os classificadores multiclasse e classe única. Na análise são empregados ferramentas de reconhecimento de padrões e de classificação de classe única. Os classficadores multiclasse são capazes de classificar o sinal de saída do circuito em uma das classes de falha para o qual foram treinados. Eles apresentam um bom desempenho quando as classes de falha não possuem superposição e quando eles não são apresentados a classes de falhas para os quais não foram treinados. Comitê de classificadores de classe única podem classificar o sinal de saída em uma ou mais classes de falha e também podem classificá-lo em nenhuma classe. Eles apresentam desempenho comparável ao classificador multiclasse, mas também são capazes detectar casos de sobreposição de classes de falhas e indicar situações de falhas para os quais não foram treinados (falhas desconhecidas). Os resultados obtidos nesse trabalho mostraram que os classificadores de classe única, além de ser compatível com o desempenho do classificador multiclasse quando não há sobreposição, também detectou todas as sobreposições existentes sugerindo as possíveis falhas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação procura investigar o incremento da racionalidade regulatória (ou otimização regulatória) a partir da teoria das falhas de regulação. Hoje, já parece existir um consenso teórico e prático de que a regulação e seu aparato institucional as agências reguladoras constituem fenômeno irreversível. Nesse contexto, as perguntas que se colocam são as seguintes: no plano dos resultados, o Estado Regulador tem alcançado as finalidades a que se propôs? Em caso negativo, que tipo de obstáculos o tem impedido? E mais: que providências devem ser adotadas para superá-los? Responder a tais indagações depende do reconhecimento de que não apenas os mercados são imperfeitos; também a intervenção estatal na economia gera riscos e efeitos negativos. Estudar seus tipos, suas fontes e a maneira como operam é o ponto de partida para se otimizar a regulação. O trabalho propõe uma sistematização das espécies de falhas regulatórias, baseada na proposta de Cass Sunstein, mas adaptada à realidade brasileira. A exposição é precedida de explicações introdutórias sobre o conceito de regulação; as razões para se regular; e características da regulação no Estado Democrático de Direito. Tais características conformam um ideal de racionalidade regulatória, o qual é comprometido pela instauração das falhas de regulação. Reconhecer a existência dos defeitos regulatórios e conhecê-los é já um primeiro passo para se melhorar a regulação. Mas há outros encaminhamentos deveras importantes para a prevenção e correção de falhas regulatórias. Dentre eles, destaca-se um conjunto de reformas institucionais em sentido amplo e estrito, as quais envolvem o sistema de controle pelos Poderes Legislativo, Executivo e Judiciário, e mecanismos procedimentais como a análise de impacto regulatório e a elaboração de agendas regulatórias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo parte da análise de uma amostra de 100 redações produzidas no exame de Vestibular da UERJ/2002. Tem por objetivo estabelecer critérios para o reconhecimento dos problemas de progressão argumentativa. Com base nas teorias propostas em Lingüística Textual e Análise do Discurso discutiram-se as noções de Cognição, Textualidade, Argumentação e coerência. Apresentou-se uma proposta metodológica de Produção Textual no Ensino Médio e exercícios didáticos. Os resultados da pesquisa apontam para a necessidade de que os recentes estudos sobre Cognição, Textualidade, Argumentação, Progressão e Métodos de Produção Textual sejam divulgados, debatidos e absorvidos pelos profissionais que exercem o ensino da disciplina

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este texto verificou o tema de monitoramento de processos de produção de petróleo em plataformas no mar de forma a propor indicadores globais para monitoramento da funcionalidade dos equipamentos que envolvem estes processos, permitindo a antecipação da tomada de decisão sobre suas eminentes quedas de disponibilidade. Para tal, buscando conhecer as áreas envolvidas na gestão de uma plataforma de petróleo no mar, foram identificados os principais sistemas relacionados ao processo de produção de petróleo e optou-se pelo Sistema de Separação e Tratamento de Óleo para desenvolvimento e validação dos indicadores propostos. O Indicador Global de Funcionalidade Operacional (IGFO) foi desenvolvido a partir dos dados disponíveis para monitoramento dos processos de produção de petróleo, focado nas visões das principais áreas envolvidas na gestão da plataforma. Este indicador foi elaborado com objetivo de simplificar a análise dos processos, permitindo assim aferir o desempenho das ações de monitoramento de processos em plataformas de petróleo, de modo a atuar de forma antecipativa, contribuindo com a identificação e a disseminação das melhores práticas de manutenção preditiva. Neste aspecto, os indicadores na forma de normalização utilizada permitem comparações em diversos níveis, tanto em relação as plataformas dentro de uma empresa, como plataformas de empresas diferentes. Os indicadores globais propostos obtiveram resultados que permitiram avaliar a queda de funcionalidade dos equipamentos do Sistema de Separação e Tratamento de Óleo durante o período avaliado, servindo de base para identificação das causas das falhas destes equipamentos. Assim sendo, pôde-se perceber que a utilização dos indicadores globais identificados pode responder com sucesso às necessidades propostas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de sistemas inteligentes aplicados ao monitoramento de estruturas aeronáuticas abordando dois modelos distintos: o primeiro é a análise e classificação de imagens de ultrassom de estruturas aeronáuticas com objetivo de apoiar decisões em reparo de estruturas aeronáuticas. Foi definido como escopo do trabalho uma seção transversal da asa da aeronave modelo Boeing 707. Após a remoção de material superficial em áreas comprometidas por corrosão, é realizada a medição da espessura ao longo da área da peça. Com base nestas medições, a Engenharia realiza a análise estrutural, observando os limites determinados pelo manual de manutenção e determina a necessidade ou não de reparo. O segundo modelo compreende o método de impedância eletromecânica. É proposto o desenvolvimento de um sistema de monitoramento de baixo custo aplicado em uma barra de alumínio aeronáutico com 10 posições de fixação de porcas e parafusos. O objetivo do sistema é avaliar, a partir das curvas de impedância extraídas do transdutor PZT fixado na barra, sua capacidade de classificar a existência ou não de um dano na estrutura e, em caso de existência do dano, indicar sua localização e seu grau de severidade. Foram utilizados os seguintes classificadores neste trabalho: máquina de vetor de suporte, redes neurais artificiais e K vizinhos mais próximos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.