35 resultados para métodos de detecção baseado em modelos
em Universidade Federal do Pará
Resumo:
Este trabalho objetivou predizer parâmetros da estrutura de associações macrobentônicas (composição específica, abundância, riqueza, diversidade e equitatividade) em estuários do Sul do Brasil, utilizando modelos baseados em dados ambientais (características dos sedimentos, salinidade, temperaturas do ar e da água, e profundidade). As amostragens foram realizadas sazonalmente em cinco estuários entre o inverno de 1996 e o verão de 1998. Em cada estuário as amostras foram coletadas em áreas não poluídas, com características semelhantes quanto a presença ou ausência de vegetação, profundidade e distância da desenbocadura. Para a obtenção dos modelos de predição, foram utilizados dois métodos: o primeiro baseado em Análise Discriminante Múltipla (ADM) e o segundo em Regressão Linear Múltipla (RLM). Os modelos baseados em ADM apresentaram resultados melhores do que os baseados em regressão linear. Os melhores resultados usando RLM foram obtidos para diversidade e riqueza. É possível então, concluir que modelos como aqui derivados podem representar ferramentas muito úteis em estudos de monitoramento ambiental em estuários.
Resumo:
O conhecimento prévio do valor da carga é de extrema importância para o planejamento e operação dos sistemas de energia elétrica. Este trabalho apresenta os resultados de um estudo investigativo da aplicação de Redes Neurais Artificiais do tipo Perceptron Multicamadas com treinamento baseado na Teoria da Informação para o problema de Previsão de Carga a curto prazo. A aprendizagem baseada na Teoria da Informação se concentra na utilização da quantidade de informação (Entropia) para treinamento de uma rede neural artificial. Dois modelos previsores são apresentados sendo que os mesmos foram desenvolvidos a partir de dados reais fornecidos por uma concessionária de energia. Para comparação e verificação da eficiência dos modelos propostos um terceiro modelo foi também desenvolvido utilizando uma rede neural com treinamento baseado no critério clássico do erro médio quadrático. Os resultados alcançados mostraram a eficiência dos sistemas propostos, que obtiveram melhores resultados de previsão quando comparados ao sistema de previsão baseado na rede treinada pelo critério do MSE e aos sistemas previsores já apresentados na literatura.
Resumo:
A infecção pela Helicobacter pylori é uma das mais comuns em humanos, admite-se que é adquirida na infância e que é uma das principais causas de gastrite e úlcera gástrica na vida adulta. Entre os vários métodos de diagnósticos da infecção pela H. pylori, a reação e cadeia da polimerase (PCR) tem mostrado alta sensibilidade para a detecção desta bactéria em amostras gástricas, orais fecais. Com o objetivo de padronizar a técnica de PCR para detectar a presença da H. pylori nas fezes e comparar com o método de diagnóstico sorológico, utilizou-se uma amostra de 79 crianças provenientes de um estudo soroepidemiológico realizado em Belém-Pará, no ano de 2003. O DNA total foi extraído das fezes através de um protocolo padronizado neste estudo baseado na associação dos métodos de fervura em resina quelante e digestão por proteinase, seguido por fenol-clorofórmio. Para a amplificação do DNA utilizou-se iniciadores para o gene 16S rRNA para o gênero Helicobacter e para detecção específica da H. pylori utilizou-se iniciadores para trecho do gene ureA. O fragmento foi visualizado em gel de agarose 2% corado com brometo de etídio. A presença da H. pylori foi verificada em 69,62% (55/79) dos pacientes. A análise comparativa entre o ensaio sorológico e a PCR ureA, revelou que a técnica molecular apresenta um melhor desempenho no diagnóstico de H. pylori em fezes (p = 0,0246). A aplicação da técnica da PCR em amostras fecais de crianças, por ser um procedimento não invasivo e altamente eficiente pode ser utilizada para detecção da infecção pela H. pylori tanto na rotina laboratorial como em pesquisas de interesse epidemiológico.
Resumo:
A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.
Resumo:
Ainda hoje, a migração em tempo é o processo de imageamento substancialmente empregado na indústria do petróleo. Tal popularidade é devida ao seu alto grau de eficiência e robustez, além de sua habilidade em focalizar refletores nos mais variados ambientes geológicos. Entretanto, em áreas de alta complexidade geológica a migração em tempo falha de tal forma que a migração em profundidade e um campo de velocidade em profundidade são indispensáveis. Esse campo é geralmente obtido através de processos tomográficos partindo de um campo de velocidade inicial. A conversão de campos de velocidade de tempo para profundidade é uma forma rápida de se obter um campo inicial mais consistente geologicamente para tais processos. Alguns algoritmos de conversão tempo-profundidade recentemente desenvolvidos baseados no traçamento de raios-imagem são revistos e um algoritmo alternativo baseado na propagação da frente de onda-imagem é proposto. Os algoritmos são aplicados a dados sintéticos bidimensionais e avaliados de acordo com suas eficiência e acurácia, destacando suas vantagens, desvantagens e limitações na obtenção de campos de velocidade em profundidade.
Resumo:
Este trabalho apresenta o estudo eletromagnético de cabos OPGW (Optical Ground Wire) os quais têm dupla função: de pára-raios para linhas de transmissão de alta tensão e de canal de comunicação através de fibras ópticas embutidas na estrutura do cabo. Descargas atmosféricas ou curtos-circuitos podem comprometer a integridade do cabo, devido ao aquecimento nas regiões onde há maior concentração de corrente. Para a análise deste problema foram feitos cálculos eletromagnéticos relacionando-os aos efeitos térmicos no cabo. Nesta análise foram consideradas três diferentes geometrias: o modelo de cabo real, o modelo de cabo com camadas homogêneas e o modelo de cabo com uma camada modificada; esta modificação está relacionada à forma geométrica dos fios da armação do cabo. As ferramentas utilizadas em tal estudo foram o software comercial FEMLAB Multiphysics, baseado no método dos elementos finitos, e um método analítico desenvolvido a partir das equações de Maxwell no domínio da freqüência, que foi implementado utilizando o software MATLAB. Os principais resultados deste trabalho são gráficos de distribuição de densidade de corrente na seção reta do cabo para diferentes freqüências, estudo do efeito pelicular e do efeito de proximidade entre os condutores do cabo.
Resumo:
Existe uma certa assimetria na distribuição do desmatamento da Amazônia Legal brasileira, concentrando-se particularmente nos estados do Mato Grosso, Pará e Rondônia, o que estaria, em princípio, associado a certas características comuns de suas atividades produtivas predominantes, como a pecuária, a exploração madeireira e, mais recentemente, a expansão da produção de grãos. Todavia, pode-se indagar se é possível a formação de grupos de economias municipais com características semelhantes, quanto às causas ligadas ao desmatamento. Com este objetivo em mente, procura-se neste artigo testar a hipótese de convergência em clubes a partir das áreas desmatadas dos municípios da Amazônia Legal no período de 2000 a 2004. A fim de alcançar o objetivo proposto foi utilizado um modelo com efeito limiar (threshold) baseado em Hansen (2000). Os resultados empíricos corroboram a hipótese levantada, no que concerne a formação de quatro clubes de convergência.
Resumo:
Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).
Resumo:
A Modelagem de Sistemas vêm sendo cada vez mais aplicada nos meios de produção para as mais diversas finalidades, incluindo a área de Projeto de Sistemas, com o intuito de definir o número de pessoas na equipe, analisar o esforço, o tamanho do software e os custos totais do projeto. Este trabalho tem por finalidade desenvolver um modelo de apoio à análise baseado em Pontos de Caso de Uso (PCU). Para isso, utiliza-se de vários métodos de pesquisa entre elas a pesquisa exploratória e de laboratório para criar um modelo de apoio para a análise.
Resumo:
Sistemas de reconhecimento e síntese de voz são constituídos por módulos que dependem da língua e, enquanto existem muitos recursos públicos para alguns idiomas (p.e. Inglês e Japonês), os recursos para Português Brasileiro (PB) ainda são escassos. Outro aspecto é que, para um grande número de tarefas, a taxa de erro dos sistemas de reconhecimento de voz atuais ainda é elevada, quando comparada à obtida por seres humanos. Assim, apesar do sucesso das cadeias escondidas de Markov (HMM), é necessária a pesquisa por novos métodos. Este trabalho tem como motivação esses dois fatos e se divide em duas partes. A primeira descreve o desenvolvimento de recursos e ferramentas livres para reconhecimento e síntese de voz em PB, consistindo de bases de dados de áudio e texto, um dicionário fonético, um conversor grafema-fone, um separador silábico e modelos acústico e de linguagem. Todos os recursos construídos encontram-se publicamente disponíveis e, junto com uma interface de programação proposta, têm sido usados para o desenvolvimento de várias novas aplicações em tempo-real, incluindo um módulo de reconhecimento de voz para a suíte de aplicativos para escritório OpenOffice.org. São apresentados testes de desempenho dos sistemas desenvolvidos. Os recursos aqui produzidos e disponibilizados facilitam a adoção da tecnologia de voz para PB por outros grupos de pesquisa, desenvolvedores e pela indústria. A segunda parte do trabalho apresenta um novo método para reavaliar (rescoring) o resultado do reconhecimento baseado em HMMs, o qual é organizado em uma estrutura de dados do tipo lattice. Mais especificamente, o sistema utiliza classificadores discriminativos que buscam diminuir a confusão entre pares de fones. Para cada um desses problemas binários, são usadas técnicas de seleção automática de parâmetros para escolher a representaçãao paramétrica mais adequada para o problema em questão.
Resumo:
Esta dissertação apresenta uma técnica para detecção e diagnósticos de faltas incipientes. Tais faltas provocam mudanças no comportamento do sistema sob investigação, o que se reflete em alterações nos valores dos parâmetros do seu modelo matemático representativo. Como plataforma de testes, foi elaborado um modelo de um sistema industrial em ambiente computacional Matlab/Simulink, o qual consiste em uma planta dinâmica composta de dois tanques comunicantes entre si. A modelagem dessa planta foi realizada através das equações físicas que descrevem a dinâmica do sistema. A falta, a que o sistema foi submetido, representa um estrangulamento gradual na tubulação de saída de um dos tanques. Esse estrangulamento provoca uma redução lenta, de até 20 %, na seção desse tubo. A técnica de detecção de falta foi realizada através da estimação em tempo real dos parâmetros de modelos Auto-regressivos com Entradas Exógenas (ARX) com estimadores Fuzzy e de Mínimos Quadrados Recursivos. Já, o diagnóstico do percentual de entupimento da tubulação foi obtido por um sistema fuzzy de rastreamento de parâmetro, realimentado pela integral do resíduo de detecção. Ao utilizar essa metodologia, foi possível detectar e diagnosticar a falta simulada em três pontos de operação diferentes do sistema. Em ambas as técnicas testadas, o método de MQR teve um bom desempenho, apenas para detectar a falta. Já, o método que utilizou estimação com supervisão fuzzy obteve melhor desempenho, em detectar e diagnosticar as faltas aplicadas ao sistema, constatando a proposta do trabalho.
Resumo:
Este estudo teve como objetivo analisar os efeitos dos mecanismos de injúria celular que produzem lesão no coração do macaco Cebus apella expostos durante 120 dias consecutivos com doses diárias de 1,5 mg de metilHg, através de alterações detectadas no marcador bioquímico de lesão miocárdica CK-MB, nos achados histopatológicos assim como pela técnica de imuno-marcação de células apoptóticas. Para tanto foram relacionados os perfis séricos da CK-MB, CK total, AST, ALT, uréia, creatinina e bilirrubina total com os achados histopatológicos e imunohistoquímicos no processo de acometimento do músculo cardíaco durante a exposição ao metilHg, comparando com o grupo controle. O método utilizado para dosagem e análise das substâncias bioquímicas séricas e para a dosagem de mercúrio no sangue foi o cinético ultravioleta e espectrometria de absorção atômica, respectivamente; para análise histopatológica utilizou-se a técnica de Hematoxilina Eosina e para detecção dos perfis apoptóticos o método APOPTAG. Foram obtidas consideráveis informações que permitem correlacionar as alterações bioquímicas, histopatológicas e os perfis apoptóticos ao mecanismo do acometimento cardíaco nos três animais expostos ao metilHg comparando-os com o grupo controle. Verificou-se que de todas as substâncias bioquímicas analisadas, houve apenas acentuado aumento sérico da enzima CK-MB, enquanto que na histopatologia observou-se lesão celular reversível por acúmulo de água nos três órgãos analisados (coração, fígado e rim). Destaca-se também a observação de uma nítida marcação células apoptóticas no tecido cardíaco, hepático e renal dos animais expostos, evidenciando-se maior número de células positivas nas células dos túbulos renais, ressaltando que não se observou infiltrado inflamatório em torno destes elementos descritos em nenhum dos tecidos analisados e ausência das referidas lesões nos tecidos dos três animais controle. Concluiu-se que a enzima CK-MB, a degeneração hidrópica e o mecanismo de apoptose podem ser indicadores de lesão miocárdica na exposição aguda ao metilHg, cuja etiopatogenia pode estar relacionada a descompensação mitocondrial pelo comprometimento maciço na bomba de Na+ / K+ e Ca++. Fazendo-se necessário um maior aporte de estudos experimentais que venham esclarecer com precisão a etiopatogenia, o mecanismo de agressão e injúria celular em indivíduos expostos a doses tóxicas de metilHg.
Resumo:
O tracoma como principal causa de cegueira prevenível no mundo, é uma doença negligenciada relacionada a baixas condições socioeconômicas e locais sem saneamento básico. Presente principalmente nos países subdesenvolvidos traz grandes prejuízos aos cofres públicos com a perda de produtividade e a deficiência visual. Com a criação da Aliança para Eliminação Global de Tracoma em 1997 (GET2020), o Estado do Pará, com apoio do Ministério da Saúde do Brasil, realizaram em 2006 o inquérito epidemiológico do tracoma em escolares de 1ª a 4ª série da rede oficial de ensino, nos municípios com índice de desenvolvimento humano inferior a média nacional, para conhecer a prevalência da doença. Os dados obtidos no inquérito comprovaram que a doença não foi erradicada, revelando 35 municípios paraenses prioritários e prevalências acima de 5%. Uma sub-amostra da conjuntiva de escolares clinicamente positivos foi coletada para a confirmação diagnóstica por Imunofluorescência direta (IFD). O presente estudo utilizou 52 amostras crio conservadas obtidas durante o inquérito, para serem analisadas pelos métodos de IFD e de biologia molecular, na identificação laboratorial da Chlamydia trachomatis. Foram encontradas as frequências de 26,92% (14/52) e 49% (24/49) de resultados positivos pelas técnicas de IFD e reação em cadeia da polimerase (nested-PCR), respectivamente. Considerando as 49 amostras analisadas pelas duas metodologias, as sensibilidades para a detecção do agente etiológico, por IFD e PCR foram de 28,57% (14/49) e 48,98% (24/49), respectivamente (p = 0,0127). As duas técnicas juntas confirmaram a infecção em 57,14% (n=28) das amostras, onde 50% (n=14) foram positivas apenas pela PCR, 35,72% (n=10) para ambas as técnicas e 14,28% (n=4) somente pela IFD. A análise de sete sequências nucleotídicas demonstrou homologia para isolados de C. trachomatis genótipo L1. Este estudo é pioneiro no Brasil, pois além de confirmar a presença de C. trachomatis em amostras oculares de escolares clínicamente positivos para tracoma, validou protocolo de obtenção de DNA a partir de lâminas de IFD crioconservadas, demonstrou a maior sensibilidade do método molecular frente à IFD e identificou o genótipo L1 presente nas amostras.
Resumo:
Nesta tese é proposta uma metodologia para identificação automática de topologias de linhas telefônicas compostas de uma ou mais seções de linha, as quais são utilizadas em sistemas de linhas digitais de assinante (DSL, do inglês digital subscriber line). Métodos com esta finalidade são fundamentais para a qualificação da linha com o objetivo de instalação do serviço DSL, em especial na atualização para serviços como o VDSL2 ou para adoção de "vetorização". Com o intuito de ser relevante para as operadoras na qualificação de uma rede inteira, composta de milhões de linhas, é fundamental que, além de precisão, métodos de qualificação tenham baixo custo computacional. Os métodos desenvolvidos são baseados nessa premissa e fazem análise da resposta ao impulso e da resposta à reflectometria no domínio do tempo de uma dada linha. Esses sinais são analisados utilizando-se um método de detecção de bordas, baseado em transformada wavelet, para identificar e extrair características de sinal que contenham informação sobre a topologia da linha. Dependendo das características disponíveis, é utilizado um dos três sistemas especialistas desenvolvidos para interpretação dessas informações e identificação da topologia. Estas metodologias são avaliadas através de um conjunto de teste de linhas reais medidas em laboratório. Seus resultados são comparados com os resultados de dois outros métodos implementados a partir da literatura. Os resultados obtidos mostram que os métodos propostos são eficientes na estimação de informações da topologia da linha e possuem reduzido custo computacional quando comparados às implementações das outras técnicas avaliadas.
Resumo:
Redes Ópticas Passivas estão cada vez mais difundidas como rede de acesso de banda larga. Devido à sua importância, tais redes necessitam constantemente de supervisão. Diversas técnicas vêm sendo empregadas para supervisão de redes ópticas, dentre as quais se destacam as que utilizam reflectometria, pois agregam vantagens, tais como: baixo custo, em comparação com outros métodos de supervisão, e não exigência de intervenção na casa do usuário. Esta dissertação apresenta uma estratégia capaz de quantificar, por meio de simulações, o impacto que a técnica de reflectometria no domínio do tempo gera como interferência em transmissões típicas de uma rede WDM-PON.