143 resultados para ESTIMATIVA DE DADOS BIOFÍSICOS


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das questões mais debatidas na atualidade diz respeito à problemática ambiental. A impossibilidade da verificação de muitos dos possíveis efeitos da atividade agrícola no ambiente rural tem levado pesquisadores das mais diversas áreas a buscar alternativas viáveis para uma utilização sustentável do ambiente. O presente trabalho apresenta o desenvolvimento de uma metodologia diferenciada para lidar com a questão. Utilizou-se, para isto, um estudo de caso em uma unidade de planejamento, a saber, uma bacia hidrográfica, ou microbacia hidrográfica (MBH) como será explanado no decorrer do texto, localizada no município de Maximiliano de Almeida, no Estado do Rio Grande do Sul, com uma área de cerca de 11,96 km2. Para esta bacia foram aplicadas as técnicas vinculadas às Metodologias Multicritério em Apoio à Decisão (MCDA – Multicriteria Decision Aided) visando à formulação de critérios quando do uso do geoprocessamento. Assim, a partir de uma revisão bibliográfica geral sobre os aspectos relacionados ao assunto em pauta, foram realizados os procedimentos metodológicos pertinentes, vinculados ao uso de MCDA e geoprocessamento, os quais resultaram em mapas específicos. A análise dos mapas resultantes corroborou as hipóteses apresentadas. Os resultados obtidos servem, portanto, como indicativos para a utilização desta metodologia nas demais bacias hidrográficas trabalhadas pela Associação Riograndense de Empreendimentos de Assistência Técnica e Extensão Rural – EMATER/RS – tida como parceira neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com as recentes tecnologias de fabricação é possível integrar milhões de transistores em um único chip, permitindo a criação dos chamados System-on-Chip (SoCs), que integram em um único chip um grande número de componentes (tipicamente blocos reutilizáveis conhecidos por núcleos). Quanto mais complexos forem estes sistemas, melhores técnicas de projeto serão necessárias para também reduzir o tempo e custo do projeto. Uma destas técnicas, chamada de Network-on-Chip (NoC), permite melhorar a performance da comunicação entre os núcleos e, ao mesmo tempo, fornecer uma plataforma de comunicação escalável e que pode ser reutilizada para um grande número de sistemas. Uma NoC pode ser definida como uma estrutura de roteadores e canais ponto-a-ponto que interconectam os núcleos de um sistema, provendo o suporte de comunicação entre eles. Os dados são transmitidos pela rede na forma de mensagens, que podem ser divididas em unidades menores chamadas de pacote. Uma das desvantagens desta plataforma de comunicação é o impacto na área do sistema causado pelos roteadores. Dentro deste contexto, este trabalho apresenta uma arquitetura de roteador de baixo custo, com o objetivo de permitir o uso de NoCs em sistemas onde a área do roteador representará um grande impacto no custo do sistema. A arquitetura deste roteador, chamado de Tonga, é baseada em um roteador chamado RASoC, um soft-core para SoCs. Nesta dissertação será apresentada também uma rede heterogênea, baseada na rede SoCIN, e composta por dois tipos de roteadores – RASoC e Tonga. Estes roteadores visam diferentes objetivos: Rasoc alcança uma maior performance comparada ao Tonga, mas ocupa área consideravelmente maior. Potencialmente, uma NoC heterogênea otimizada pode ser desenvolvida combinando estes roteadores, procurando o melhor compromisso entre área e latência. Os modelos desenvolvidos permitem a estimativa de área e do desempenho das arquiteturas de comunicação propostas e são apresentados resultados de performance para algumas aplicações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hipertrofia ventricular esquerda é um importante fator de risco em doença cardiovascular e pode ser responsável por parte do elevado risco cardiovascular associado a diabetes. Apesar de que o estresse hemodinâmico seja classicamente indicado como causa da injúria miocárdica que leva ao remodelamento, a injúria associada aos fatores neuro-humorais e a sinalização celular através da ativação imuno-inflamatória também desempenham um papel, acompanhando os mecanismos recentemente descritos na síndrome metabólica, particularmente na obesidade, onde a ativação do sistema imune inato leva a uma resposta inadequada crônica mediada por citocinas em diversos sistemas corpóreos. A ecocardiografia tem sido usada para identificar anormalidades da estrutura cardíaca, porém, variações metodológicas e os diversos ajustes para os determinantes da massa ventricular como idade, sexo, tamanho corporal e outros correlatos clínicos são motivo de debate, assim como a definição dos estados de anormalidade, tanto para hipertrofia ventricular esquerda, como para outras medidas da estrutura ventricular. Em uma amostra populacional de 1479 Afro- Americanos do Estudo ARIC, investigamos de forma estratificada e multivariada as associações independentes entre diabetes e as alterações estruturais do ventrículo esquerdo, definidas por hipertrofia ventricular, aumento da espessura relativa e padrões geométricos anormais. Encontramos prevalências elevadas dea alterações estruturais nos indivíduos com diabetes. Diabetes associou-se com hipertrofia ventricular em ambos os sexos e com espessura parietal aumentada e padrões geométricos anormais nas mulheres. Na maior parte dos modelos, as associações com diabetes foram minimizadas com os ajustes para obesidade, sugerindo que o impacto da obesidade sobre as alterações estruturais vistas em diabetes pode ser mediado por fatores outros do que a hiperglicemia. Essas novas evidências estão em sintonia com o conhecimento contemporâneo descrito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo analisou variações mensais na dinâmica populacional, biomassa aérea, taxas de crescimento e produção primária de Zizaniopsis bonariensis, uma macrófita aquática emergente, no Sistema Hidrológico do Taim, RS, durante o ano de 2004. Indivíduos fotossinteticamente ativos tiveram todas suas folhas etiquetadas, quantificações de incrementos em biomassa foram determinadas de modo não destrutivo através de quadros experimentais “in situ”. Variáveis alométricas foliares como comprimento de tecido clorofilado e senescente e diâmetro basal de centenas de indivíduos foram mensuradas em campo e convertidas em biomassa através da regressão da área da superfície foliar contra biomassa. Devido à emergência contínua de indivíduos de Z.bonariensis durante todo o ano, coortes mensais foram recrutadas e monitoradas. Variações na biomassa desta espécie também foram avaliadas de modo destrutivo através de blocos de colheita. Os dados obtidos foram utilizados para calcular a Produção Primária Aérea Anual (PPAA) com base em nove métodos de estimativa: Pico Anual de Biomassa; Pico Anual de Biomassa modificado; Milner & Hughes (IBP); Smalley; Valiela et al; Curva de Allen; Soma dos Máximos de Biomassa; Soma de Incrementos e Crescimento Instantâneo. A taxa media mensal de emergência de brotos foi de 11,7ind m-2, sem evidências de pulsos de emergência em função de mudanças sazonais. A densidade média foi de 48 ind m-2. A longevidade das coortes foi estimada em 10,5 meses, e taxa de mortalidade aumentou após o período reprodutivo, sugerindo preliminarmente influência da sazonalidade sobre estas variáveis A biomassa média das coortes aumentou durante o período reprodutivo, demonstrando alto investimento reprodutivo, sendo o maior valor registrado em outubro, 39,96 gPS m-2, pela coorte de janeiro. A taxa de crescimento relativo se mostrou maior durante o primeiro mês após emergência entre todas as coortes, 0,048 g PSm-2d-1. A biomassa clorofilada dos quadros experimentais decresceu no inverno, voltando a aumentar durante a primavera. A PPAA foi estimada em 2870 gPS m-2. Dos métodos utilizados, apenas o método de Milner & Hughes (não-destrutivo) se mostrou adequado, enquanto os baseados em dados de colheita (destrutivo) subestimaram a produção real de Z. bonariensis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objetivo deste trabalho é estabelecer caminhos apropriados para a estimativa da eficiência de pratos valvulados com downcomer e pratos dualflow em colunas de destilação industriais. O conhecimento da eficiência tem importância fundamental no projeto e na avaliação do desempenho de colunas de destilação. Pesquisando a literatura, pôde ser identificada uma árvore de alternativas para compor o modelo de eficiência de prato, dependendo dos modelos de transferência de massa, do modelo de distribuição das vazões de líquido e vapor sobre o prato, do modelo de arraste de líquido, do modelo de equilíbrio da mistura multi-componente, dos modelos de propriedades físicas, do modelo da altura da espuma sobre o prato e da definição de eficiência. Neste trabalho, diferentes métodos para a predição da eficiência em pratos valvulados e pratos dualflow foram compostos e comparados contra dados de três colunas de destilação industriais sob diferentes condições operacionais. Os modelos foram inseridos no simulador Aspen Plus 12.1, em linguagem Fortran, junto com dados geométricos dos pratos, propriedades dos fluidos e dados de operação das colunas de destilação industriais. Para cada coluna foi escolhido o melhor pacote termodinâmico pela verificação dos perfis de temperatura e composições de topo e fundo obtidos via simulação contra os valores reais correspondentes das colunas de destilação industriais. Foi feita uma modificação no parâmetro da fração de furos que estão em jetting no modelo hidráulico da dispersão acima do prato de Garcia (1999). Essa modificação produziu resultados melhores na predição da fração de furos em jetting e eficiência dos pratos dualflow e resultados similares aos de Garcia (1999) para a eficiência dos pratos valvulados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, a literatura (estado da arte) sobre Agricultura de Precisão é revisada. Um equipamento para a aquisição de dados foi desenvolvido, foi feita uma descrição detalhada do mesmo e são apresentados os testes de campo para sua validação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Parâmetros renais quantitativos como depuração de Tc99m-MAG3, captação relativa, razão 20 minutos/máximo, razão 20 minutos/2-3 minutos, tempo de atividade máxima e tempo de eliminação decorrido até metade da atividade inicial são freqüentemente obtidos com a cintilografia renal dinâmica com Tc99m-MAG3 e diurético. No entanto, em raras situações estes parâmetros foram testados para avaliar sua utilidade clínica. O objetivo deste estudo foi avaliar se o fornecimento de dados qualitativos (curvas e imagens) e quantitativos a médicos nuclearistas com diferentes graus de experiência e treinamento melhora a acurácia diagnóstica da interpretação da cintilografia renal dinâmica com Tc99m-MAG3 e diurético quando comparada à interpretação do estudo baseada somente nos dados qualitativos. Métodos: Uma equipe de três especialistas em medicina nuclear renal revisou as cintilografias renais completas com Tc99m-MAG3 de 108 pacientes e classificou o estado funcional de cada rim em uma escala de 5 pontos (0 = definitivamente normal, 1 = provavelmente normal, 2 = equívoco, 3 = provavelmente anormal, 4 = definitivamente anormal). Cada rim foi avaliado para a presença ou ausência de obstrução em uma escala similar. O escore final dos especialistas se baseou em unanimidade ou maioria; se houvesse desacordo ≥ 2 pontos entre 2 especialistas, o escore final era determinado por uma leitura de consenso. O escore dos especialistas foi usado como padrão-ouro. Quatro grupos de 3 médicos com diferentes níveis de experiência e treinamento em medicina nuclear revisou cada um os 108 estudos (imagens e curvas) e classificou-os em uma escala de 5 pontos em relação à função e obstrução. Após um período de pelo menos uma semana, eles revisaram as mesmas 108 cintilografias em ordem randomizada com a adição dos dados quantitativos e novamente as classificou de acordo com uma escala de 5 pontos. Os escores dos médicos foram comparados ao padrão-ouro. A concordância dos médicos nuclearistas em relação ao consenso dos especialistas foi calculada através do coeficiente kappa ponderado. Resultados: Duzentos e dez rins foram avaliados. O coeficiente kappa ponderado entre os especialistas mostrou uma concordância excelente para função e obstrução. Para a avaliação de função, o kappa ponderado melhorou com a adição de dados quantitativos em todos os grupos, sendo mais evidente para os grupos 3 e 4. Com e sem dados quantitativos, o grupo mais experiente apresentou um valor de kappa ponderado mais elevado do que os grupos com menos experiência. Para a questão de obstrução, os dados quantitativos não melhoraram o desempenho dos médicos experientes (grupos 1 e 2), ao passo que melhoraram o desempenho geral dos médicos menos experientes (grupos 3 e 4). Conclusão: Dados quantitativos não auxiliaram em casos de diagnósticos complexos como obstrução quando o médico que estava interpretando não tinha experiência com o protocolo e com o uso de variáveis quantitativas. Para a avaliação de obstrução, houve uma variabilidade de 15 a 25% na interpretação, dependendo do médico que estava avaliando a cintilografia. Para os diagnósticos menos complexos, como função, os dados quantitativos melhoraram o desempenho dos médicos. Enfim, a análise do kappa ponderado mostrou, principalmente, que existe ainda uma diferença substancial entre a interpretação dos especialistas e a interpretação dos médicos nuclearistas com maior e menor experiência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho é proposto um conjunto de atividades de aquisição de dados para um laboratório didático de Física, no contexto de ensino tecnológico de escolas técnicas. São construídas rotinas de programação com a ferramenta Visual Basic for Applications (VBA), incorporadas em planilhas Excel, sendo a aquisição de dados através da porta de joystick da placa de som do microcomputador. As atividades propostas envolvem especialmente experimentos no campo da mecânica, no qual são investigados o sistema massa-mola, pêndulo simples e movimento de rotação de um pião. A metodologia proposta para estas atividades é embasada na teórica construtivista de Vygotsky. O material foi aplicado e avaliado em uma oficina oferecida para alunos de cursos superiores de tecnologia (Automação Industrial e Manutenção Industrial e Sistemas de Informação) do CEFET/PR, unidade sudoeste do Paraná em 2005. O produto educacional deste trabalho consiste em um texto de apoio sobre medidas físicas e erros e sobre o uso da linguagem VBA em sistemas de aquisição de dados com a placa de som do microcomputador, e rotinas incorporadas a planilhas Excel que permitem a aquisição automática dos dados trabalhados nas atividades experimentais. No texto de apoio, também são sugeridas atividades para os alunos. As planilhas Excel (incluindo as macros VBA) constam o CD-ROM anexo a este trabalho, e estão disponibilizadas na web.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.