22 resultados para Vetor
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
O presente trabalho tem a pretensão de verificar as práticas cooperativas que se fazem presentes em agricultores familiares da região do Vale do Rio Pardo - RS que vêm gradativamente abandonando a cultura do fumo, intensiva em insumos químicos, e inserindo suas propriedades rurais numa lógica de produção ecológica e sustentável, priorizando a diversificação de culturas. Como alternativa de viabilização da nova atividade foi criada a Cooperativa Ecovale. O trabalho analisa a organização desses agricultores que estão vendo na cooperação o vetor para a conquista da sustentabilidade. O trabalho apresenta o seguinte objetivo geral: analisar as práticas sociais cooperativas dos sócios cooperados da Cooperativa Ecovale que estão contribuindo para que esta organização torne-se sustentável. Utiliza-se como referencial teórico os conceitos de desenvolvimento sustentável, da cooperação e do cooperativismo e como método de pesquisa o estudo de caso na Cooperativa Ecovale. Os mapas de associações de idéias foram utilizados como técnica de análise dos dados, o que possibilitou a obtenção dos resultados da pesquisa. Verificou-se que as principais práticas cooperativas existentes nos sócios cooperados estão baseadas fundamentalmente na união, no trabalho conjunto, no aprendizado que vem sendo realizado em grupo, na ajuda mútua e na interação dos produtores com outros grupos de produtores ecológicos. Este conjunto de comportamentos e atitudes por parte dos produtores configura-se como o principal “pilar de sustentação” da organização cooperativa, lançando as bases para a conquista da sustentabilidade da mesma.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.
Resumo:
Para a análise estática e dinâmica, linear e não-linear de placas, cascas e vigas, implementa-se neste trabalho o elemento hexaédrico com integração reduzida, livre de travamento volumétrico e travamento de cisalhamento e que não apresenta modos espúrios. Na formulação do elemento, utiliza-se apenas um ponto de integração. Desta forma, a matriz de rigidez é dada de forma explícita e o tempo computacional é significativamente reduzido, especialmente em análise não-linear. Os modos espúrios são suprimidos através de um procedimento de estabilização que não exige parâmetros especificados pelo usuário. Para evitar o travamento de cisalhamento, desenvolve-se o vetor de deformações num sistema co-rotacional e remove-se certos termos não constantes nas componentes de deformações de cisalhamento. O travamento volumétrico é resolvido fazendo-se com que a parte dilatacional (esférica) da matriz gradiente seja avaliada apenas no ponto central do elemento. Como a eliminação do travamento de cisalhamento depende de uma abordagem no sistema local, emprega-se um procedimento co-rotacional para obter o incremento de deformação no sistema local e atualizar os vetores de tensões e forças internas na análise não-linear Para a solução das equações de equilíbrio na análise estática, utilizam-se métodos diretos baseados na eliminação de Gauss ou métodos iterativos de Gradientes Conjugados Precondicionado elemento-por-elemento (EBE). Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito de Taylor-Galerkin ou do método implícito de Newmark. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise de casca, placas e vigas submetidas a grandes deslocamentos e grande rotações. Os resultados são comparados com trabalhos que utilizam elementos clássicos de placa e casca.
Resumo:
Os modelos não lineares de séries de tempo são aqui utilizados para verificar diferentes problemas de natureza macroeconômica nas variáveis brasileiras. Em relação ao comércio exterior, é estimado um mecanismo de correção de erros para a demanda de importações e os regimes caracterizados pelo modelo coincidem com os movimentos históricos. Para ajustes estruturais nas contas externas são utilizados dados anuais que caracterizam três regimes, identificados como períodos em que a economia brasileira estava sob um regime de fechamento, abertura moderada ou de abertura consistente. Já no caso da análise conjuntural, feita a partir de dados trimestrais, os períodos foram caracterizados como sendo de queda e de crescimento das importações. A metodologia de mudança de regime markoviano também é utilizada para verificar o ciclo dos negócios na produção industrial de seis estados brasileiros. Neste caso, são estimados modelos univariados e multivariados, formulados a partir de um vetor autoregressivo com mudança de regime. As estimativas mostram que existe uma diferença de comportamento na taxa de crescimento e de queda na produção entre os estados do Sul comparativamente aos três maiores do Sudeste. Vale ressaltar que este resultado significa que existe uma duração dos ciclos que também difere entre estas duas regiões Por fim, a metodologia de mudança de regime é utilizada em um modelo de fator dinâmico com o intuito de construir um indicador coincidente para a produção industrial no Rio Grande do Sul. O índice estimado assemelha-se ao calculado pela Federação das Indústrias do Estado do Rio Grande do Sul a partir de uma média ponderada de cinco variáveis pesquisadas pela instituição. Os resultados mostram que existe uma assimetria no ciclo dos negócios na indústria de transformação do estado, com uma duração maior para períodos de queda da atividade no setor.
Resumo:
A dengue representa um sério problema de saúde pública no Brasil, que apresenta condições climáticas favoráveis ao desenvolvimento e proliferação do Aedes aegypti, vetor transmissor da doeça. O mosquito Aedes aegypti passa por diferentes estágios de desenvolvi- mento com características distintas, logo, para uma descrição mais aproximada da história de vida desta espécie e, consequentemente, do comportamento da epidemia, considera-se neste trabalho um modelo com distribuição etária, fundamental para a determinação das propriedades de estabilidade de populações que têm fases distintas de desenvolvimento. O modelo com distribuição etária para a população de mosquitos é descrito por um conjunto de equações diferenciais ordinárias com retardo de difícil análise e implementação. Inicialmente, apresenta-se o modelo SEIR com dinâmica vital, onde a população de mosquitos estabiliza rapidamente e, após, incorpora-se a ele um modelo com competição larval uniforme para população de insetos, com distribuição etária, o que provoca um período de instabilidade nas populações de larvas e adultos, estágios de desenvolvimento considerados para o vetor. A análise realizada investiga as consequências que este período de instabilidade provoca na evolução da epidemia.
Resumo:
O método LTSN tem sido utilizado na resolução de uma classe abrangente de problemas de transporte de partículas neutras que são reduzidos a um sistema linear algébrico depois da aplicação da transformada de Laplace. Na maioria dos casos estudados os autovalores associados são reais e simétricos. Para o problema de criticalidade os autovalores associados são reais ou imaginários puros e simétricos, e para o o problema de multigrupo podem aparecer autovalores complexos. O objetivo deste trabalho consiste na generalização da formulação LTSN para problemas de transporte com autovalores complexos. Por esse motivo é focada a solução de um problema radiativo de transporte com polarização em uma placa plana. A solução apresentada fundamenta-se na aplicação da transformada de Laplace ao conjunto de equações SN dos problemas resultantes da decomposição da equação de transferência radiativa com polarização em série de Fourier, seguindo o procedimento de Chandrasekhar. Esse procedimento gera 2L + 2 sistemas lineares de ordem 4N dependentes do parâmetro complexo "s". Aqui, L é o grau de anisotropia e N a ordem de quadratura. A solução desse sistema simbólico é obtida através da aplicação da transformada inversa de Laplace depois da inversão da matriz simbólica pelo método da diagonalização. Para a obtenção das constantes de integração é assumido que os componentes do vetor de Stokes são reais e as matrizes dos autovalores e autovetores são separadas em suas partes real e imaginária. A solução LTSN para autovalores complexos é validada através da comparação da solução para uma placa com espessura unitária, grau de anisotropia L = 13, albedo de espalhamento simples $ = 0:99, coe ciente de re exão de Lambert ¸0 = 0:1 e N = 150, segundo dados da literatura consultada.
Resumo:
As rápidas mudanças que se desenvolvem no planeta varrem conceitos antigos, alteram estratégias de empresas e mudam o comportamento de governos e nações. O agronegócio não fica incólume neste intenso processo. As políticas agrícolas e a estrutura do setor passam por ajustes e revisões. Dentro desta linha de pensamento, um cenário que se torna cada vez mais evidente é a competição entre cadeias, além da competição entre empresas de forma isolada. Nesta perspectiva, o gerenciamento da cadeia de abastecimento pode ser considerado um importante vetor na competitividade da cadeia, no momento em que preconiza a customização das atividades que agregam valor, integrando cada vez mais clientes e fornecedores. Mas para a efetividade deste gerenciamento, a gestão da informação ao longo da cadeia assume importância maior ainda, em relação ao seu uso nas empresas de forma isolada. Dentro do ambiente de mudanças do agronegócio, após a abertura da economia brasileira de 1990, a cadeia de abastecimento do arroz vem passando por intensas transformações para se manter competitiva. Dentre estas, surge o arroz orgânico como forma de segmentar mercados consumidores através da diferenciação, e o que é mais importante, a adição de valor ao produto, desde a produção rural. Por se tratar o arroz orgânico de um produto diferenciado, pressupôs-se que a cadeia de abastecimento para este produto, apresente diferenças da cadeia de abastecimento para o arroz commodity. Considerando isto é que se objetivou com esta pesquisa “analisar o processamento da informação na cadeia de abastecimento do arroz com transações de dois tipos de produtos: arroz commodity e arroz orgânico”. O método científico utilizado foi o estudo de caso, onde foram levantados dados e fatos dos agentes que formam os elos da cadeia de abastecimento do arroz commodity e do arroz orgânico, para subsidiar as análises necessárias a atingir o objetivo proposto. As principais conclusões a que se chegou são: quanto à cadeia, esta apresenta diferenças que vão desde as relacionadas aos produtos, até as transações realizadas entre os agentes da cadeia. Quanto à informação ao longo da cadeia, o agente de produção do arroz commodity e do arroz orgânico, é o elo que menos utiliza informações sistematizadas em suas decisões. Também, que existem diferenças nos fluxos de informações ao longo da cadeia de abastecimento quando ocorrem transações com arroz commodity e quando com arroz orgânico. Estas diferenças vão desde as informações trocadas, o conteúdo e objetivos com que são trocadas, o sentido e o envolvimento dos departamentos dos agentes da cadeia. Pode-se acrescentar ainda, que em transações com arroz orgânico houve maior diálogo entre os agentes ao longo da cadeia, que foi mais representativo no segmento Produção x Beneficiamento.
Resumo:
Este trabalho aborda o projeto otimizado de transdutores eletro-mecânicos baseados no fenô- meno da piezeletricidade e submetidos a não-linearidade geométrica. Para este m, é proposta uma formulação de equilíbrio para descrever o movimento nito de um corpo piezelétrico e a sua discretização por meio do método dos Elementos Finitos. Problemas de equilíbrio com pontos limites podem ser corretamente simulados com a abordagem de solução proposta, pois questões como a imposição de comprimento de arco em problemas acoplados são discutidas. Diferentes métodos de controle de arco são discutidos e é proposta a consideração do método dos Deslocamentos Generalizados como um tipo de controle de comprimento de arco da família das restrições ortogonais. A formulação de otimização proposta consiste na maximização de componentes do vetor de estado de alguns pontos da estrutura (portas de saída) com restrição de volume e valores de algumas posições do vetor de estado. A análise de sensibilidade proposta, baseada na abordagem adjunta, é su cientemente geral para permitir o projeto de atuadores e sensores e permite a aplicação de condições de contorno essenciais não-homogêneas, como é o caso da diferença de potencial. O método das Assíntotas Móveis Generalizadas (GMMA) é utilizado conjuntamente com a tradicional Programação Linear Sequencial (SLP) para a solução do problema de otimização e suas implementações são discutidas em detalhes. Resultados mostrando a in uência da não-linearidade geométrica e/ou rigidez externa nãolinear no projeto de transdutores piezelétricos são apresentados e discutidos.
Resumo:
O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.
Resumo:
Considerando uma viga uniforme do tipo Timoshenko com condições de contorno livre-livre, Geist e McLaughlin em [8]apresentam uma condição necessária e suficiente que garante a existência de freqüências naturais duplas. Esta condição foi obtida usando a formulação espectral, método clássico encontrado na literatura, para as equações de quarta ordem desacopladas do modelo de Timoshenko. O método clássico requer a obtenção de um vetor constante com oito componentes para que a solução deste modelo seja conhecida. Segundo Claeyssen [2], [3], [4], [5], [6], a solução do modelo de Timoshenko pode ser obtida usando a base dinâmica gerada por uma resposta impulso-matricial fundamental. Este método permite encontrar a solução do modelo de Timoshenko usando as equações de segunda ordem acopladas. Além disso, para que a solução seja conhecida é necessário obter um vetor constante com quatro componentes. O objetivo deste trabalho é estudar a condição necessária e suficiente que garante a existência de freqüências naturais duplas, apresentada por Geist e McLaughlin, para uma viga uniforme do tipo timoshenko com condições de contorno livre-livre e verificar se é possível obter esta mesma condição quando é utilizada a base dinâmica para obter a solução deste modelo.
Resumo:
O enrolamento do arroz é uma doença viral emergente no Brasil causada pelo Rice stripe necrosis virus (RSNV) que é transmitido pelo protozoário Polymyxa graminis. RSNV é um membro do gênero Benyvirus com genoma dividido em 4 RNAs de fita simples no sentido positivo (ssRNA +). Em função da falta de conhecimento sobre a seqüência de nucleotídeos do seu genoma, a detecção de RSNV através de métodos moleculares não é utilizada. O objetivo deste trabalho foi identificar seqüências do genoma de RSNV que possibilitassem sua detecção em plantas de arroz através da técnica de transcrição reversa seguida da reação em cadeia da polimerase (RT-PCR). As seqüências do genoma foram identificadas a partir de clones de uma biblioteca de cDNAs obtidos de uma amostra do vírus parcialmente purificado. Os clones que hibridizaram com sondas sintetizadas a partir de RNA de plantas infectadas com RSNV foram seqüenciados e comparados às seqüências do GenBank. Um fragmento de 957 nt da extremidade 3’ da fita de um dos 4 RNAs genômicos de RSNV foi obtido. A análise da seqüência nucleotídeos desse fragmento não revelou qualquer similaridade com seqüências conhecidas, tampouco indicou uma possível função. Um par de oligonucleotídeos iniciadores foi desenhado a partir de um clone que potencialmente contém uma seqüência de RSNV. A especificidade e a sensibilidade da RT-PCR utilizando esse par de oligonucleotídeos iniciadores, bem como sua eficiência na detecção do vírus em diferentes partes da planta de arroz, foram avaliadas. Os resultados indicam que a RT-PCR é específica para RSNV e pode detectar o vírus em tecido oriundo das raízes, do colo e de folhas com distorção. Comparada ao diagnóstico da doença através da observação de sintomas e de estruturas do vetor, a RT-PCR é uma ferramenta confiável para a diagnose do enrolamento do arroz.