996 resultados para Processamento de imagens - Técnicas digitais


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: Os colesteatomas podem ocorrer tanto em crianças como em adultos, porém nas crianças pareceriam ter um crescimento mais agressivo e extenso. A atividade das colagenases poderia explicar este perfil. Objetivo: Comparar, histologicamente, a perimatriz de colesteatomas adquiridos de crianças com os de adultos. Métodos: Foram estudados 74 colesteatomas, 35 pediátricos, coletados em cirurgias otológicas, fixados em formol 10% e processados pelas técnicas histológicas habituais. Foram preparadas uma lâmina em Hematoxilina-Eosina (HE) e outra em Picrossírios, de cada amostra, e analisadas ao microscópio óptico. A leitura foi “cega”, efetuada por meio de imagens digitais, no software ImagePro Plus. A análise estatística foi realizada através dos coeficientes de correlação de Pearson e Spearman e dos testes t e χ2, sendo considerados como estatisticamente significativos os valores de P<0,05. Resultados: Dos 74 colesteatomas coletados, 17 - sete do grupo pediátrico e dez do adulto - foram excluídos por não terem presença de matriz e perimatriz nas lâminas processadas. A média±dp da idade, no grupo pediátrico, foi de 12,85±3,63; e no adulto, 33,69±13,10. Na análise histológica, o número médio de camadas de células epiteliais da matriz foi igual a oito, nos dois grupos, 60% das amostras apresentavam inflamação, de moderada a acentuada; quanto à fibrose, nas crianças, 71,4% e nos adultos, 62,1%; o granuloma apareceu em 10,7% e 13,8%, respectivamente; a presença de epitélio cubóide simples delimitando a perimatriz foi encontrada em 29% dos infantis e 14% dos adultos, entretanto, nenhuma dessas variáveis apresentou diferença estatisticamente significativas quando comparadas por faixa etária (P>0,05). Quanto à espessura da perimatriz, no grupo pediátrico, as medianas (intervalo interquartil) dos parâmetros foram: média=79 (41 a 259); mediana=77 (40 a 265); soma=1.588 (831 a 5.185); delta=82 (44 a 248); mínimo=53 (16 a 165) e máximo=127 (64 a 398); já no grupo de adultos foram: média=83 (26 a 174); mediana=68 (30 a 181); soma=1.801 (558 a 3.867); delta=92 (45 a 190); mínimo=27 (12 a 100) e máximo=136 (53 a 280). O coeficiente de Spearman mostrou correlação inversa, moderada, entre a espessura da perimatriz e a idade; também houve correlação, forte, entre a espessura da perimatriz e o número de camadas da matriz, porém não houve correlação entre essa com a idade. Conclusão: Histologicamente, a perimatriz de colesteatomas adquiridos, de crianças e adultos, vista à microscopia óptica, apresenta-se como um tecido conjuntivo denso de espessura variável (intra e interpacientes), que, por vezes, exibe infiltrado inflamatório linfoplasmocitário e/ou tecido de granulação e reação de corpo estranho; em alguns casos é delimitada em plano profundo por epitélio cubóide simples. Há correlação inversa, de fraca a moderada, entre o tamanho da perimatriz, medida em micrômetros e a idade do paciente na data da cirurgia. O grau de inflamação da perimatriz apresenta correlação, de moderada a forte, com a espessura da perimatriz. As espessuras da matriz e da perimatriz estão fortemente correlacionadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Informações sobre as condições de crescimento e expectativa de produção de culturas são importantes para a economia brasileira, visto que permitem um planejamento adequado da economia agrícola, contornando problemas de escassez e administrando com vantagens o excesso de produtos. Neste contexto, as tecnologias de sensoriamento remoto e geoprocessamento permitem a obtenção de informações precisas, em tempo hábil e com baixo custo. O presente trabalho teve como principal objetivo gerar subsídios para o aprimoramento do sistema atual de acompanhamento e previsão da safra de soja no Brasil, incorporando técnicas de sensoriamento remoto e geoprocessamento. Como objetivos específicos, buscou-se avaliar a acurácia da classificação digital de imagens LANDSAT para estimativa da área cultivada com soja e verificar a influência de aspectos regionais, tais como condições climáticas, de ocupação e de manejo, sobre a evolução temporal do índice de vegetação por diferença normalizada (NDVI), obtidos de imagens NOAA, visando o monitoramento da cultura da soja em projetos de previsão de safras. A estimativa de área cultivada com soja foi realizada através da classificação digital não supervisionada. Como verdade terrestre foram selecionadas 24 lavouras de soja, individualizadas na imagem com diferentes tamanhos e de diferentes regiões de uso e cobertura do solo, as quais foram quantificadas usando GPS de precisão topográfica. A verificação da acurácia da estimativa foi feita através de análise de regressão linear, sendo testada a significância do coeficiente de determinação. O monitoramento da cultura da soja foi realizada usando imagens decendiais de máximo NDVI. Nestas imagens, foram selecionadas 18 janelas amostrais, sendo extraídos os valores de NDVI e expressos na forma de perfis espectrais. Os resultados mostraram que a estimativa de área das lavouras cultivadas com soja, obtida através do processo de classificação digital não supervisionada em imagens LANDSAT, foi acurada e precisa para pequenas, médias e grandes lavouras, mostrando-se ser uma técnica eficiente para ser utilizada em projetos de previsão de safras de soja na região estudada. A evolução temporal do NDVI, obtida de imagens NOAA, apresentou sensibilidade quanto às diferenças de uso e cobertura do solo, demonstrando que as escalas espacial e temporal das imagens NOAA são adequadas para o acompanhamento em nível regional da evolução temporal da biomassa. Existe, ainda, potencial de uso de imagens NDVI para inferir sobre a área cultivada com soja em projetos de previsão de safras em escalas regionais, desde que a cultura seja predominante no pixel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os dispositivos analógicos programáveis (FPAAs, do inglês, Field Programmable Analog Arrays), apesar de ainda não terem a mesma popularidade de seus pares digitais (FPGAs, do inglês, Field Programmable Gate Arrays), possuem uma gama de aplicações bastante ampla, que vai desde o condicionamento de sinais em sistemas de instrumentação, até o processamento de sinais de radiofreqüência (RF) em telecomunicações. Porém, ao mesmo tempo em que os FPAAs trouxeram um impressionante ganho na agilidade de concepção de circuitos analógicos, também trouxeram um conjunto de novos problemas relativos ao teste deste tipo de dispositivo. Os FPAAs podem ser divididos em duas partes fundamentais: seus blocos programáveis básicos (CABs, do inglês, Configurable Analog Blocks) e sua rede de interconexões. A rede de interconexões, por sua vez, pode ser dividida em duas partes: interconexões internas (locais e globais entre CABs) e interconexões externas (envolvendo células de I/O). Todas estas partes apresentam características estruturais e funcionais distintas, de forma que devem ser testadas separadamente, pois necessitam que se considerem modelos de falhas, configurações e estímulos de teste específicos para assegurar uma boa taxa de detecção de defeitos. Como trabalhos anteriores já estudaram o teste dos CABs, o foco desta dissertação está direcionado ao desenvolvimento de metodologias que se propõem a testar a rede de interconexões de FPAAs. Apesar das várias diferenças entre as redes de interconexões de FPGAs e FPAAs, muitas também são as semelhanças entre elas, sendo, portanto, indiscutível que o ponto de partida deste trabalho tenha que ser o estudo das muitas técnicas propostas para o teste de interconexões em FPGAs, para posterior adaptação ao caso dos FPAAs. Além disto, embora o seu foco não recaia sobre o teste de CABs, pretende-se utilizá-los como recursos internos do dispositivo passíveis de gerar sinais e analisar respostas de teste, propondo uma abordagem de auto-teste integrado de interconexões que reduza o custo relativo ao equipamento externo de teste. Eventualmente, estes mesmos recursos poderão também ser utilizados para diagnóstico das partes defeituosas. Neste trabalho, utiliza-se como veículo de experimentação um dispositivo específico (Anadigm AN10E40), mas pretende-se que as metodologias de teste propostas sejam abrangentes e possam ser facilmente adaptadas a outros FPAAs comerciais que apresentem redes de interconexão semelhantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Presentemente, os métodos utilizados no processo classificação de imagens, em sua grande maioria, fazem uso exclusivamente dos atributos espectrais. Nesta pesquisa,são introduzidos os atributos espaciais, em particular a textura, no processo de classificação de imagens digitais. As informações de textura são quantificadas pelo método das matrizes de co-ocorrência, proposto por Haralick, e organizadas em um formato similar ao utilizado nas bandas espectrais, gerando desta forma canais de textura. Com a implementação deste atributo em adição aos espectrais, obtêm-se um acréscimo na exatidão obtida no processo de classificação de imagens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho serão descritos métodos e técnicas na análise de transformações geométricas para o georreferenciamento de imagens do satélite CBERS I, utilizando o sensor CCD na região de Porto Alegre, com a utilização das transformações afim e equações projetivas e com o uso de pontos de apoio coletados com receptor GPS. Os resultados experimentais obtidos com as transformações afim e equações projetivas são animadores, recomendando-se então continuar os estudos para as imagens do CBERS-I que pode ser um atalho importante para atualizar a cartografia regional brasileira, pois neste caso do sensor CCD se vislumbra a possibilidade de se gerarem cartas imagens nas escalas de 1:100.000 e 1:50.000.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho examina a lateralização cerebral de funções e sua implicação para a cognição humana ao nível da intersecção entre a neuropsicologia clinica e a psicologia cognitiva de base informacional. A primeira parte do trabalho e dedicada a descrição e análise critica da conformação contemporânea desta área de investigação neuropsicológica, com a ênfase posta na metateoria e teorias predominantes, a par do sistema conceitual utilizado nas atividades de pesquisa desenvolvidas na área. Inicialmente, a abordagem neuropsicológica do problema da lateralização cerebral examinada no que concerne às suas articulações com os métodos e técnicas que se mostraram mais importantes para a configuração atual desta área de investigação, sob um enfoque histórico. Em continuidade, a análise dirigida às questões mais fundamentais nas quais se tem desdobrado o problema da assimetria funcional inter-hemisférica, representadas pelas especializações funcionais dos hemisférios cerebrais, pela atividade conjunta dos hemisférios e pelas relações entre diferenças individuais na lateralização cerebral e desempenho cognitivo. Neste contexto são sublinhadas as dificuldades e inconsistências relacionadas à restritividade do enfoque prevalente, avaliado como expressão de uma concepção neuropsicológica excessivamente simplificadora do problema compreendido pelas relações entre o cérebro e a cognição humanos. O trabalho apresenta, em sua segunda parte, uma tentativa de desenvolvimento de um enfoque sistêmico, na direção da complexidade, para o problema da lateralização cerebral de funções. Trata-se de um desenvolvimento que parte de uma descentração da dimensão lateral do sistema nervoso e resulta em uma subsunção deste problema à uma perspectiva mais global concernente à organização cerebral de funções e aos fundamentos para a construção teórica na neuropsicologia. Segue-se um exame das implicações deste enfoque para a questão das relações entre variações inter-individuais na lateralização cerebral de funções e habilidades cognitivas que se direciona para uma minimização do significado que tem sido atribuído a lateralizarão para o funcionamento cerebral e a cognição humanos. O trabalho apresenta, finalmente, um estudo empírico referente às relações entre variações inter-individuais normais de lateralizarão cerebral ,preferência manipulatória e sua história familiar e desempenho cognitivo, onde são comparados os desempenhos de destros com história familiar de sinistralidade negativa e de canhotos com esta história positiva no Teste WAIS. Os resultados obtidos mostram uma inequívoca semelhança nos desempenhos dos dois grupos em todas as escalas do WAIS. Estes resultados são discutidos principalmente no que tange à existência ou não de correspondências diretas entre variações normais nas representações das funções ao longo da dimensão lateral do sistema nervoso, preferência manipulatória e habilidades cognitivas. A conclusão final conforma-se como um sumário integrativo dos principais aspectos das conclusões atingidas no curso do trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A agricultura é a atividade econômica mais dependente das condições climáticas. Os eventos climáticos afetam não só os processos metabólicos das plantas, diretamente relacionados à produção vegetal, como também as mais diversas atividades no campo. De acordo com Petr (1990) e Fageria (1992), citados por Hoogenboom (2000), ao redor de 80% da variabilidade da produção agrícola no mundo se deve à variabilidade das condições climáticas durante o ciclo de cultivo, especialmente para as culturas de sequeiro, já que os agricultores não podem exercer nenhum controle sobre esses fenômenos naturais. Além de influenciar o crescimento, o desenvolvimento e a produtividade das culturas, o clima afeta também a relação das plantas com microorganismos, insetos, fungos e bactérias, favore-cendo ou não a ocorrência de pragas e doenças, o que demanda as medidas de controle ade-quadas. Muitas das práticas agrícolas de campo, como o preparo do solo, a semeadura, a adu-bação, a irrigação, as pulverizações, a colheita, entre outras, também dependem de condições de tempo e de umidade no solo específicas para que possam ser realizadas de forma eficiente (PEREIRA et al., 2002). Dada a grande importância do clima para a produção agrícola, o uso de informações meteoro-lógicas e climáticas é fundamental para que a agricultura se torne atividade sustentável (SIVAKUMAR et al., 2000). Neste contexto, a agrometeorologia, ciência interdisciplinar que estuda a influência do tempo e do clima na produção de alimentos, fibras e energia, assume papel estratégico no entendimento e na solução dos problemas enfrentados pela agricultura (MAVI E TUPPER, 2004). Os governos apoiam usualmente a gestão de risco dos agricultores concentrando-se nos riscos imprevisíveis e inevitáveis, possivelmente raros, mas que têm graves consequências (perdas catastróficas) se os agricultores não conseguirem gerir estes riscos sozinhos já que existe nú-mero limitado de opções políticas a serem consideradas, quer a nível interno ou internacional, quando o assunto é referente à alimentação dos concidadãos. A preocupação crescente com o aumento da população mundial, com a degradação dos recur-sos naturais e com a sustentabilidade da agricultura tem exigido maiores esforços no desen-volvimento de melhores estratégias e práticas do uso do solo, a partir do melhor entendimento das relações entre a agricultura e o clima. Nesse sentido, o desenvolvimento de ferramentas que auxiliem o planejamento e o processo de tomadas de decisão que resultem em menores impactos ambientais e no aumento da resiliência da agricultura, tem sido um dos objetivos das instituições governamentais e não gover-namentais ligadas à agricultura, ao ambiente e aos recursos naturais. Sem embargo, as sofisticadas técnicas utilizadas para estimar preços no mercado futuro, as perspectivas relativamente instáveis das commodities agrícolas resultam do pressuposto de que em condições normais, as incertezas associadas ao clima, fatores macroeconômicos, in-tervenções de políticas e o custo da energia, entre outros fatores relevantes, sugerem que os preços dos produtos de base agrossilvipastoris permanecerão imprevisíveis. Mesmo que estratégias de hedging continuem sendo preponderantes no que tange à mitigação do risco financeiro causado pela volatilidade de preços, para a grande maioria das empresas, seguradoras, governos e produtores que dependem dos resultados da lavoura para colher os benefícios financeiros da produção agrícola, como no caso das empresas agrossilvipastoris, a mitigação dos riscos de mercado concomitantemente ao gerenciamento do risco agrometeoro-lógico faz todo sentido. A utilização de uma ferramenta de suporte a decisão baseado em sistemas de informação geo-gráfica é a melhor maneira de aproveitar todo o conhecimento que está disponível para o acompanhamento da produção de alimentos e de energia. Os filtros espaciais utilizados para analisar a situação como um todo, aliados a produtos de informação atualizados em tempo hábil para verificar a produção local permitem monitorar de fato os principais riscos relacio-nados condições agrometeorológicas e o manejo da produção agrícola. A convergência tecnológica entre os sistemas de informação e de suporte à decisão por meio de servidores nas nuvens possibilita hoje automatizar grande parte das análises que se podem obter com base nas informações disponíveis e fazer chegar o conhecimento até o usuário final. As redes de empresas formadas para produzir dados espaciais, seja por meio de satélites de sensoriamento remoto ou redes de estações meteorológicas, estão preparadas para garantir um fluxo contínuo de informação para serem consumidos por usuários deste conhecimento. Os informes deste trabalho e as conclusões desta investigação remetem à hipótese de que a comunicação de informações de forma inteligente, em tempo hábil de serem aplicadas na to-mada de decisão eficiente, permite que os riscos associados aos cultivos sejam mais bem mi-tigados e, portanto gerem valor aos acionistas com ativos ligados ao agronegócio. O maior desafio desta dissertação de mestrado encontra-se em mostrar aos atores do agrone-gócio que, ao dotar os agricultores de meios para que eles possam gerir sua atividade com base nas melhores práticas de manejo agrometeorológico, incentivar a criação de mecanismos que aperfeiçoem a gestão rural e ampliem o acesso à informação, e não apenas auxiliá-los sob a forma de apoio ad hoc e assistência agronômica, de fato se amplia a capacidade de gestão dos riscos associados às atividades agrossilvipastoris.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A visualização de conjuntos de dados volumétricos é comum em diversas áreas de aplicação e há já alguns anos os diversos aspectos envolvidos nessas técnicas vêm sendo pesquisados. No entanto, apesar dos avanços das técnicas de visualização de volumes, a interação com grandes volumes de dados ainda apresenta desafios devido a questões de percepção (ou isolamento) de estruturas internas e desempenho computacional. O suporte do hardware gráfico para visualização baseada em texturas permite o desenvolvimento de técnicas eficientes de rendering que podem ser combinadas com ferramentas de recorte interativas para possibilitar a inspeção de conjuntos de dados tridimensionais. Muitos estudos abordam a otimização do desempenho de ferramentas de recorte, mas muito poucos tratam das metáforas de interação utilizadas por essas ferramentas. O objetivo deste trabalho é desenvolver ferramentas interativas, intuitivas e fáceis de usar para o recorte de imagens volumétricas. Inicialmente, é apresentado um estudo sobre as principais técnicas de visualização direta de volumes e como é feita a exploração desses volumes utilizando-se recorte volumétrico. Nesse estudo é identificada a solução que melhor se enquadra no presente trabalho para garantir a interatividade necessária. Após, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para determinar as possíveis técnicas de interação mais fáceis de serem utilizadas por ferramentas de recorte. A partir desse embasamento, este trabalho apresenta o desenvolvimento de três ferramentas de recorte genéricas implementadas usando-se duas metáforas de interação distintas que são freqüentemente utilizadas por usuários de aplicativos 3D: apontador virtual e mão virtual. A taxa de interação dessas ferramentas é obtida através de programas de fragmentos especiais executados diretamente no hardware gráfico. Estes programas especificam regiões dentro do volume a serem descartadas durante o rendering, com base em predicados geométricos. Primeiramente, o desempenho, precisão e preferência (por parte dos usuários) das ferramentas de recorte volumétrico são avaliados para comparar as metáforas de interação empregadas. Após, é avaliada a interação utilizando-se diferentes dispositivos de entrada para a manipulação do volume e ferramentas. A utilização das duas mãos ao mesmo tempo para essa manipulação também é testada. Os resultados destes experimentos de avaliação são apresentados e discutidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos, a relevância da Teoria dos Grafos na descrição da rela ção entre indiví duos cresceu signifi cativamente, contribuindo para a ascensão do fenômeno das redes sociais. Sua importância tem permitido a explora ção polí tico-econômica de informa ções escondidas em sua estrutura. Assumindo que um parlamentar maximiza sua utilidade ao fortalecer o seu partido e o estado que representa, construímos uma rede política baseada no Congresso Brasileiro, o que permite a identificação de elementos da Teoria do Seletorado. Através de técnicas de Processamento de Linguagem Natural aplicadas à diferentes fontes de notícia, é possível atualizar a rede de forma a identificar alterações na estrutura de poder do sistema político brasileiro.