41 resultados para Transformada de Hilbert
Resumo:
A análise do sono está baseada na polissonogra a e o sinal de EEG é o mais importante. A necessidade de desenvolver uma análise automática do sono tem dois objetivos básicos: reduzir o tempo gasto na análise visual e explorar novas medidas quantitativas e suas relações com certos tipos de distúrbios do sono. A estrutura do sinal de EEG de sono está relacionada com a chamada microestrutura do sono, que é composta por grafoelementos. Um destes grafoelementos é o fuso de sono (spindles). Foi utilizado um delineamento transversal aplicado a um grupo de indivíduos normais do sexo masculino para testar o desempenho de um conjunto de ferramentas para a detecção automática de fusos. Exploramos a detecção destes fusos de sono através de procura direta, Matching Pursuit e uma rede neural que utiliza como "input"a transformada de Gabor (GT). Em comparação com a análise visual, o método utilizando a transformada de Gabor e redes neurais apresentou uma sensibilidade de 77% e especi cidade de 73%. Já o Matching Pursuit, apesar de mais demorado, se mostrou mais e ciente, apresentando sensibilidade de 81,2% e especi cidade de 85.2%.
Resumo:
Uma nova rede de polímeros interpenetrantes (IPN) baseada em poliuretana de óleo de mamona e poli(etileno glicol) e poli(metacrilato de metila) foi preparada para ser utilizada como eletrólito polimérico. Os seguintes parâmetros de polimerização foram avaliados: massa molecular do poli(etileno glicol) (PEG), concentração de PEG e concentração de metacrilato de metila. As membranas de IPN foram caracterizadas por calorimetria diferencial de varredura (DSC) e espectroscopia de infravermelho por transformada de Fourier (FT-IR). Os eletrólitos de redes de polímeros interpenetrantes (IPNE) foram preparados a partir da dopagem com sal de lítio através do inchamento numa solução de 10% em massa de LiClO4 na mistura de carbonato de etileno e carbonato de propileno na razão mássica de 50:50. As IPNEs foram caracterizadas por espectroscopia de impedância eletroquímica e Raman. As IPNEs foram testadas como eletrólito polimérico em supercapacitores. As células capacitivas foram preparadas utilizando eletrodos de polipirrol (PPy). Os valores de capacitância e eficiência foram calculados por impedância eletroquímica, voltametria cíclica e ciclos galvonostáticos de carga e descarga. Os valores de capacitância obtidos foram em torno de 90 F.g-1 e eficiência variou no intervalo de 88 a 99%. Os valores de densidade de potência foram superiores a 250 W.kg-1 enquanto que a densidade de energia variou de 10 a 33 W.h.kg-1, dependendo da composição da IPNE. As características eletroquímicas do eletrólito formado pela IPN-LiClO4 (IPNE) foram comparadas aos eletrólitos poliméricos convencionais, tais como poli(difluoreto de vinilideno)-(hexafluorpropileno) ((PVDF-HFP/LiClO4) e poliuretana comercial (Bayer desmopan 385) (PU385/LiClO4). As condutividades na temperatura ambiente foram da ordem de 10-3 S.cm-1. A capacitância da célula utilizando eletrodos de PPy com eletrólito de PVDFHFP foi de 115 F.g-1 (30 mF.cm-2) e 110 F.g-1 (25 mF.cm-2) para a célula com PU385 comparadas a 90 F.g-1 (20 mF.cm-2) para a IPNE. Os capacitores preparados com eletrólito de IPNE apresentaram valores de capacitância inferior aos demais, entretanto provaram ser mais estáveis e mais resistentes aos ciclos de carga/descarga. A interpenetração de duas redes poliméricas, PU e PMMA produziu um eletrólito com boa estabilidade mecânica e elétrica. Um protótipo de supercapacitor de estado sólido foi produzindo utilizando eletrodos impressos de carbono ativado (PCE) e o eletrólito polimérico de IPNE. A técnica de impressão de carbono possui várias vantagens em relação aos outros métodos de manufatura de eletrodos de carbono, pois a área do eletrodo, espessura e composição são variáveis que podem ser controladas experimentalmente. As células apresentaram uma larga janela eletroquímica (4V) e valores da capacitância da ordem de 113 mF.cm-2 (16 F.g-1). Métodos alternativos de preparação do PCE investigados incluem o uso de IPNE como polímero de ligação ao carbono ativado, estes eletrodos apresentaram valores de capacitância similares aos produzidos com PVDF. A influência do número de camadas de carbono usadas na produção do PCE também foi alvo de estudo. Em relação ao eletrólito polimérico, o plastificante e o sal de lítio foram adicionados durante a síntese, formando a IPNGel. As células apresentaram alta capacitância e boa estabilidade após 4000 ciclos de carga e descarga. As membranas de IPN foram testadas também como reservatório de medicamento em sistemas de transporte transdérmico por iontoforese. Os filmes, mecanicamente estáveis, formaram géis quando inchado em soluções saturadas de lidocaina.HCl, anestésico local, em propileno glicol (PG), poli(etileno glicol) (PEG400) e suas misturas. O grau de inchamento em PG foi de 15% e 35% em PEG400. Agentes químicos de penetração foram utilizados para diminuir a resistência da barreira causada pela pele, dentre eles o próprio PG, a 2-pirrolidinona (E1) e a 1-dodecil-2-pirrolidinona (E2). Os géis foram caracterizados por espectroscopia de impedância eletroquímica e transporte passivo e por iontoforese através de uma membrana artificial (celofane). O sistema IPN/ lidocaina.HCl apresentou uma correlação linear entre medicamento liberado e a corrente aplicada. Os melhores resultados de transporte de medicamento foram obtidos utilizando o PG como solvente.
Resumo:
Neste trabalho é apresentada uma solução analítica de um problema bidimensional e transiente de dispersão de poluentes atmosféricos. O modelamento utilizado é conhecido na literatura como modelo Kzz para dispersão de poluentes atmosféricos e é representado por uma equação difusivo-advectiva com coeficientes de difusão e advecção variáveis. São utilizados três diferentes coeficientes de difusão nas simulações, bem como as componentes horizontal e vertical do vento são tomadas como variáveis. A solução analítica é gerada através da aplicação da técnica GITT (Generalized Integral Transform Technique) dupla com problema transformado resolvido por Transformada de Laplace e diagonalização de matrizes. Filtros matemáticos são usados para homogenizar as condições de contorno viabilizando o uso da técnica citada. Além disso, o tipo de filtro matemático utilizado permite a sensível diminuição do custo computacional. Resultados numéricos são obtidos e comparados com dados experimentais e outras soluções da literatura.
Resumo:
Lógicas modais têm sido amplamente utilizadas em Ciência da Computação e inteligência artificial. Além disso, aplicações de lógicas modais na representação do conhecimento em sistemas distribuídos e, mais recentemente, em sistemas multiagentes, têm apresentado resultados promissores. No entanto, outros sistemas de prova para estas lógicas que não os sistemas axiomáticos à la Hilbert são raros na literatura. Este trabalho tem como objetivo principal preencher esta lacuna existente na literatura, ao propor um sistema de prova por dedução natural rotulada para lógicas do conhecimento.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
A representação de Fock-Tani é um formalismo de teoria de campos para tratar problemas envolvendo simultaneamente partículas compostas e seus constituintes. O formalismo foi originalmente desenvolvido para tratar problemas de física atômica e mais tarde estendido para problemas da física hadrônica. Nesta dissertação, inicialmente apresentamos uma revisão da Cromo dinâmica Quântica e dos modelos de quarks e de glúons constituintes. Revisamos também a representação de Fock-Tani para mésons e buscamos estendê-Ia para estados exóticos, mais precisamente para glueballs. Neste formalismo uma mudança de representação é implementada através de um operador unitário, tal que estados de glueballs no espaço de Fock, compostos por um par glúon-glúon, sejam descritos em termos de operadores de campo de glueballs elementares em um espaço de Hilbert estendido. A aplicação do operador unitário a um Hamiltoniano microscópico de gluons leva a um Hamiltoniano efetivo que descreve todos os possíveis processos envolvendo glúons e glueballs. Esse Hamiltoniano efetivo é utilizado para estudar as interações entre glueballs à baixa energia em um modelo de glúons constituintes, que interagem através da troca de um glúon virtual e são confinados por um potencial fenomenológico O méson J?C = 0++ pode ser descrito de duas formas completamente diferentes. Na primeira forma ele é descrito da maneira usual como sendo composto por um par qq. Na segunda abordagem este mesmo méson é descrito como sendo constituido por dois glúons (glueball). Também estudamos nesta dissertação o méson 2++ no mesmo contexto. Os resultados obtidos nesta dissertação indicam que o méson qq precisaria ter um raio quase igual ao dobro do respectivo raio do glueball para que suas seções de choque de espalhamento elástico fossem equivalentes. As diferenças acentuadas encontradas nas seções de choque de espalhamento elástico méson-méson e glueball-glueball, podem ser interpretadas como uma nova assinatura de glueballs.
Resumo:
Este trabalho tem o objetivo de realizar uma análise de sensibilidade dos parâmetros operacionais e de projeto de uma usina termelétrica. A análise de sensibilidade serve para indicar qual a importância dessas grandezas no resultado do sistema. A planta modelada é a da Usina Termelétrica Presidente Médici – Fase B, localizada em Candiota, RS, onde cada módulo é capaz de produzir até 160 MW de potência. Para esta planta é apresentado o equacionamento de cada componente do sistema. Destacam-se duas modelagens para a turbina a vapor, usadas para a simulação de seu comportamento em carga parcial, o da Elipse de Stodola e o de Schegliáiev. Ambos os modelos são comparados. Também são apresentados os modos de controle de carga por válvula de estrangulamento, por válvula de bocais e por pressão deslizante. A análise de sensibilidade é feita por meio de três métodos distintos, cujos resultados são comparados. O Método Diferencial utiliza as derivadas parciais para estimar a sensibilidade. O Método de Monte Carlo realiza uma série de avaliações do sistema, com os dados de entrada gerados randomicamente em cada avaliação e análise estatística dos resultados para avaliar a sensibilidade das respostas. É desenvolvido neste trabalho o Método da Transformada de Fourier, que gera os dados de forma senoidal e utiliza a transformada de Fourier para medir as sensibilidades. A medida da sensibilidade é feita através de dois índices. O índice de importância é a derivada parcial de um resultado em relação a um parâmetro, adimensionalizado pelas médias das variáveis, e o índice de sensibilidade é a composição fracional da variância de um resultado. Como conclusão, observa-se que os modelos para operação em carga parcial da turbina de Schegliáiev e de Stodola produzem praticamente os mesmos resultados. Os três métodos de análise de sensibilidade conduzem aos mesmos índices de sensibilidade no caso estudado. A ordenação da importância dos parâmetros estudados é idêntica quando se usa tanto o índice de importância quanto o de sensibilidade, mesmo seus valores sejam diferentes para cada parâmetros.
Resumo:
Resumo não disponível
Resumo:
Uma significativa quantidade de proteínas vegetais apresenta-se compartimentalizada nas diversas estruturas celulares. A sua localização pode conduzir à elucidação do funcionamento dos processos biossintéticos e catabólicos e auxiliar na identificação de genes importantes. A fim de localizar produtos gênicos relacionados à resistência, foi utilizada a fusão de cDNAs de arroz (Oryza sativa L.) ao gene da proteína verde fluorescente (GFP). Os cDNAs foram obtidos a partir de uma biblioteca supressiva subtrativa de genes de arroz durante uma interação incompatível com o fungo Magnaporthe grisea. Estes cDNAs foram fusionados a uma versão intensificada de gfp e usados para transformar 500 plantas de Arabidopsis thaliana. Outras 50 plantas foram transformadas com o mesmo vetor, porém sem a fusão (vetor vazio). Foram obtidas aproximadamente 25.500 sementes oriundas das plantas transformadas com as fusões EGFP::cDNAs e 35.000 sementes das transformadas com o vetor vazio, produzindo, respectivamente, 750 e 800 plantas tolerantes ao herbicida glufosinato de amônio. Após a seleção, segmentos foliares das plantas foram analisados por microscopia de fluorescência, visando o estabelecimento do padrão de localização de EGFP. Foram observadas 18 plantas transformadas com a fusão EGFP::cDNAs e 16 plantas transformadas com o vetor vazio apresentando expressão detectável de GFP. Uma planta transformada com uma fusão EGFP::cDNA apresentou localização diferenciada da fluorescência, notadamente nas células guarda dos estômatos e nos tricomas. Após seqüenciamento do cDNA fusionado, foi verificado que esta planta apresentava uma inserção similar a uma seqüência codificante de uma quinase, uma classe de enzimas envolvidas na transdução de sinais em resposta à infecção por patógenos.
Resumo:
Este trabalho apresenta o estudo, investigação e realização de experimentos práticos, empregados na resolução do problema de reconhecimento de regiões promotoras em organismos da família Mycoplasmataceae. A partir disso, é proposta uma metodologia para a solução deste problema baseada nas Redes Neurais Artificiais. Os promotores são considerados trechos de uma seqüência de DNA que antecedem um gene, podem ser tratados como marcadores de uma seqüência de letras que sinalizam a uma determinada enzima um ponto de ligação. A posição onde se situa o promotor antecede o ponto de início do processo de transcrição, onde uma seqüência de DNA é transformada em um RNA mensageiro e, este potencialmente, em uma proteína. As Redes Neurais Artificiais representam modelos computacionais, inspirados no funcionamento de neurônios biológicos, empregadas com sucesso como classificadores de padrões. O funcionamento básico das Redes Neurais está ligado ao ajuste de parâmetros que descrevem um modelo representacional. Uma revisão bibliográfica de trabalhos relacionados, que empregam a metodologia de Redes Neurais ao problema proposto, demonstrou a sua viabilidade. Entretanto, os dados relativos à família Mycoplasmataceae apresentam determinadas particularidades de difícil compreensão e caracterização, num espaço restrito de amostras comprovadas. Desta forma, esta tese relata vários experimentos desenvolvidos, que buscam estratégias para explorar o conteúdo de seqüências de DNA, relativas à presença de promotores. O texto apresenta a discussão de seis experimentos e a contribuição de cada um para consolidação de um framework que agrega soluções robustas consideradas adequadas à solução do problema em questão.
Resumo:
O objetivo deste trabalho é apresentar a base teórica para o problema de aprendizagem através de exemplos conforme as ref. [14], [15] e [16]. Aprender através de exemplos pode ser examinado como o problema de regressão da aproximação de uma função multivaluada sobre um conjunto de dados esparsos. Tal problema não é bem posto e a maneira clássica de resolvê-lo é através da teoria de regularização. A teoria de regularização clássica, como será considerada aqui, formula este problema de regressão como o problema variacional de achar a função f que minimiza o funcional Q[f] = 1 n n Xi=1 (yi ¡ f(xi))2 + ¸kfk2 K; onde kfk2 K é a norma em um espa»co de Hilbert especial que chamaremos de Núcleo Reprodutivo (Reproducing Kernel Hilbert Spaces), ou somente RKHS, IH definido pela função positiva K, o número de pontos do exemplo n e o parâmetro de regularização ¸. Sob condições gerais a solução da equação é dada por f(x) = n Xi=1 ciK(x; xi): A teoria apresentada neste trabalho é na verdade a fundamentação para uma teoria mais geral que justfica os funcionais regularizados para a aprendizagem através de um conjunto infinito de dados e pode ser usada para estender consideravelmente a estrutura clássica a regularização, combinando efetivamente uma perspectiva de análise funcional com modernos avanços em Teoria de Probabilidade e Estatística.