999 resultados para Matematica - Processamento de dados


Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJETIVO: Desenvolver um programa computacional para avaliar e controlar as características das curvas sensitométricas. MATERIAIS E MÉTODOS: Para o desenvolvimento do programa, foi elaborado um método de obtenção dos valores das características sensitométricas, de filmes de baixo e alto contraste, sem a necessidade da fixação de degraus de referência. RESULTADOS: O programa, denominado Sensito, foi implementado e testado utilizando dados sensitométricos de curvas características dos departamentos de radiologia convencional, hemodinâmica e mamografia. Ficou comprovada a possibilidade da análise das curvas sensitométricas destas áreas sem a necessidade de ajustes, dependentes dos usuários, e sem incorrer em desvios nos parâmetros sensitométricos avaliados e na variação destes. CONCLUSÃO: O programa possibilita a criação de um banco de dados de curvas sensitométricas para diferentes processadoras de uma instituição, gerando com facilidade as curvas sensitométrica e gama, de um registro, e os gráficos de constância das características sensitométricas avaliadas, fornecendo importante ferramenta para manter o controle sensitométrico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As atividades de exploração madeireira vêm sendo intensificadas na região amazônica, apesar dos esforços de controle e fiscalização por parte dos órgãos ambientalistas, que têm procurado estabelecer diretrizes para um uso sustentável da floresta. As imagens de satélite e as técnicas de tratamento de dados têm sido importantes ferramentas para subsidiar os processos de caracterização, inventário e monitoramento da cobertura florestal do país. Nesse contexto, o presente trabalho objetivou analisar a influência da rede viária na distribuição espacial das áreas de exploração madeireira e, inclusive, quantificar esse tipo de prática em áreas de preservação permanente. Uma área situada no Mato Grosso (MT), com intensa atividade madeireira, foi utilizada como estudo, em que os vários planos de informações, derivados de imagens Landsat/TM, foram tratados por técnicas de análise espacial, através do uso de operadores algébricos de decisão. A análise resultante demonstra uma significativa relação entre as dimensões das áreas de exploração madeireira e a proximidade da malha viária e que a espacialização das áreas de corte seletivo permite verificar que essa prática também ocorre em áreas definidas como de preservação permanente, ao lado da rede de drenagem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo avaliar o método para delimitação da bacia de contribuição à montante de um ponto selecionado sobre o hidrografia e a obtenção das respectivas características morfométricas, a partir de bases de dados estruturadas topologicamente. Para tanto, utilizou-se o aplicativo Hidrodata 2.0, desenvolvido para o ArcINFO workstation, comparando os seus resultados com os do processo convencional. Os resultados comprovaram que o tempo de processamento demandado para delimitação de bacias e extração de suas características morfométricas a partir de uma base de dados estruturada topologicamente se manteve baixo e constante. Concluiu-se que o método apresentado poderá ser aplicado em qualquer bacia hidrográfica, independentemente do seu tamanho, mesmo com o uso de computadores de configuração mais modesta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo constante de avaliação técnica e econômica dos sistemas de colheita de madeira é intrínseco às empresas florestais, devido ao fato de corresponder a uma fase de suma importância que despende elevado investimento financeiro. No experimento deste trabalho, estudaram-se o rendimento operacional e custos operacionais e de produção do processador florestal Hypro. A análise técnica englobou estudos de tempos e movimentos pelo método de tempo contínuo. O rendimento operacional foi determinado através do volume, em metros cúbicos de madeira processada. A análise econômica incorporou os parâmetros do custo operacional, custo de processamento da madeira e rendimento energético. A análise dos dados evidenciou que o rendimento operacional por hora efetiva de trabalho foi de 38 árvores e, em metros cúbicos sem casca por hora efetiva de trabalho, de 11,68 m³ h-1, com custo de processamento de madeira sem casca de US$ 6.85 por metro cúbico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta-se neste trabalho, estudo detalhado sobre a modelagem de um condicionador de ar com controle acurado de temperatura e umidade relativa. Desenvolveu-se um programa de computador que permite predizer o comportamento do sistema sob diferentes condições psicrométricas e de vazão do ar de entrada. O modelo global físico-matemático inclui equações de balanço de massa e de energia para três diferentes volumes de controle que compõem o condicionador. Modelaram-se os processos de mistura, evaporação (ou condensação) simultânea de uma superfície d'água e de uma gota e o aquecimento de corrente de ar, separadamente. Propõem-se expressões semi-empíricas simples para os coeficientes de transferência de calor e massa inerentes ao processo de evaporação sobre uma superfície d'água e um modelo simplificado para o sistema de spray. Construiu-se um condicionador de ar no qual foram feitos testes experimentais para o ajuste das constantes que aparecem nas expressões para os coeficientes de transferência. Os dados obtidos validaram o modelo global, com precisão aceitável para projetos de engenharia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As informações sobre o desempenho e a capacidade de trabalho das máquinas agrícolas são de grande importância no gerenciamento de sistemas mecanizados agrícolas, auxiliando na tomada de decisões. A obtenção de informações sobre o desempenho é normalmente realizada de modo manual, por meio da análise dos tempos e movimentos, consumindo recursos, mão-de-obra e tempo. Considerando-se a importância das informações e o custo envolvido na aquisição, o objetivo deste trabalho é apresentar uma metodologia automática para a determinação da capacidade de trabalho de colhedora de cereais. Para tanto, realizou-se o estudo de tempos e movimentos a partir de arquivos de dados obtidos por meio de monitores de produtividade em oito propriedades no Estado do Paraná. A partir dos dados coletados, calcularam-se as diferenças de tempo entre as posições da colhedora no talhão, construindo-se um mapa espacializado das diferenças. Com base no mapa de tempos, foi possível obter os mapas das capacidades de campo e processamento, além das eficiências, sendo a metodologia utilizada viável para avaliar, a partir de amostragem densa e automática, o desempenho operacional de colhedoras sem incorrer em custos adicionais para os produtores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste artigo é apresentar uma metodologia de automatização do processo de coleta e disponibilização de dados meteorológicos. Esta metodologia faz o uso de uma linguagem de scripts para definir as ações a serem executadas desde a coleta dos dados na estação climática, passando pelo seu processamento e finalizando com o envio dos dados processados para publicação em um site na internet. Os dados meteorológicos temperatura, umidade, velocidade do vento, chuva, radiação e evapotranspiração disponibilizados no site permitem aos produtores e pesquisadores analisar as variações climáticas, auxiliando assim em tomadas de decisão mais eficientes. O resultado obtido é o fornecimento sem custos de informações importantes e de qualidade sobre o clima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUMO As imagens do sensor MODIS fornecem dados que cobrem áreas de grande extensão com alta periodicidade, características fundamentais que possibilitam o monitoramento de culturas agrícolas estratégicas para o Brasil, como as da cana-de-açúcar. Técnicas matemáticas vêm sendo empregadas no estudo de longas séries temporais de índices de vegetação, baseado nas mudanças que acontecem na superfície terrestre, o que facilita o entendimento da dinâmica temporal. O objetivo deste trabalho foi realizar a avaliação da dinâmica do cultivo da cana-de-açúcar no Estado de São Paulo por meio de perfis temporais de dados MODIS, ao longo das safras de 2004/2005 a 2011/2012. A Transformada de Wavelet Daubechies 8 aplicada à série temporal do EVI2 do MODIS mostrou ser uma técnica robusta, pois conseguiu eliminar os ruídos, propiciando, assim, melhor captura das tendências dos ciclos de desenvolvimento da cana-de-açúcar em toda a série temporal. Os perfis temporais suavizados do EVI2 puderam ser utilizados no monitoramento do cultivo da cana-de-açúcar para identificar as épocas de mudanças do uso do solo e da cobertura da terra, acompanhando as variações sazonais dos ciclos fenológicos desde o plantio ou rebrota das soqueiras até à colheita.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A degradação do antimicrobiano digluconato de clorhexidina (DGCH) durante armazenamento ou processamento térmico pode formar a 4-cloroanilina (CA), um composto potencialmente carcinogênico. Conseqüentemente, o uso deste sanitizante para descontaminação de carcaças de frangos representa uma fonte de risco para o consumidor, devendo ser avaliada a presença da CA no produto tratado. Um método foi desenvolvido para determinação de resíduos de CA em tecidos de frangos. Após a extração com diclorometano, foi feita a limpeza do extrato em cartucho C18 e quantificação por cromatografia gasosa-espectrometria de massas (CG-EM), sem derivação. A recuperação média (89,2% - CV 9,9%.) e o limite de detecção (1,8ng/g) foram considerados satisfatórios para os propósitos do estudo. Em amostras tratadas com DGCH e não submetidas a processamento térmico, a quantidade de CA detectada foi relativamente baixa, e provavelmente se originou da solução de tratamento. A fritura e a cocção em forno convencional resultaram em níveis elevados de CA, enquanto que a cocção em panela de pressão não alterou os níveis de CA presentes na amostra crua. Em vista destes resultados e, considerando-se o potencial tóxico da CA, recomenda-se que estes dados sejam levados em consideração quando avaliada a utilização de DGCH como sanitizante de carcaças em abatedouros de aves.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sabe-se que a definição de identidade tem como base os diferentes estilos de processamento identitários assim como a definição de um projeto, finalidade ou sentido de vida. O objetivo principal deste estudo foi o de compreender como os estilos de processamento de identidade, por um lado, e a definição de um sentido de vida e de objetivos, podem concorrer para o desenvolvimento de uma identidade positiva. Para estudar esta questão foram aplicados cinco questionários: o questionário de dados socio-demograficos, a Escala de Sentido de Vida, a Escala de Objetivos de Vida, a versão traduzida do Psychosocial Inventary of Ego Strenghts e a versão traduzida do Identity Stile Inventory (ISI13).A amostra foi composta por 149 estudantes, sendo 24 do género masculino e 125 do género feminino, de um 1º ciclo de estudos com idades compreendidas entre os 18 e 30 anos. Os resultados demonstraram que os estilos de processamento de identidade e o sentido de vida encontram-se relacionados com a identidade reunindo em si a capacidade proditora da mesma, atuando como fatores independentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho discorre no escopo de informática médica, no âmbito da Unidade de Cardiologia Fetal do Instituto de Cardiologia - Fundação Universitária de Cardiologia do RS. Sabe-se que a medicina gera um grande volume de dados, sejam eles, textuais, numéricos, gráficos ou mesmo imagens ou sons geradas por equipamentos de ultra-som, tomógrafos computadorizados, ressonância magnética, RX, entre outros. Este trabalho desenvolve a integração das imagens ecocardiográficas fetais ao banco de dados. Atualmente, a tendência observada no desenvolvimento de sistemas de informações é a utilização de banco de dados que sejam capazes de manipular informações completas sobre seus pacientes, tais como: consultas, medicamentos, internações, bem como os laudos de exames com suas respectivas imagens quando estes possuírem. É com base nestas tendências que foram definidos os tópicos relevantes a serem estudados e implementados neste trabalho, integrando os estudos ecocardiográficos fetais com as informações do banco de dados da unidade de cardiologia fetal (UCF). Neste trabalho está apresentado o modelo do banco de dados da UCF. Para esta modelagem foram realizados estudos para aquisição de conhecimento da área e também para compreender as necessidades da unidade Da mesma forma, as imagens ecocardiográficas fetais foram estudadas para que fosse possível serem modeladas junto ao banco de dados. Para esta modelagem foi necessário fazer uma breve revisão dos conceitos utilizados pelo paradigma de orientação a objetos, uma vez que o modelo foi desenvolvido utilizando esta metodologia. As imagens ecocardiográficas fetais receberam grande atenção, uma vez que para elas foram criadas classes distintas. Também para aumentar a funcionalidade foram estudados conceitos de imagem digital, para posterior aplicação sobre as imagens do domínio. Foram realizados estudos sob manipulação de imagens, como modificação do brilho, medidas, filtros e formas de armazenamento. Considerando os formatos de gravação, dois padrões foram contemplados neste trabalho: o utilizado pela placa disponível no instituto denominado DT-IRIS e o DICOM que é um padrão internacional de armazenamento e comunicação de imagens médicas. Por fim, a implementação do protótipo procura demonstrar a viabilidade do modelo proposto, disponibilizando dados textuais, imagens e ainda realizando manipulações sobre estas imagens do domínio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diversos estudos sugerem que os receptores inibitórios GABAérgicos do tipo A estão envolvidos no processamento da memória. Para examinar o papel dos receptores GABAA na consolidação da memória, ratos foram implantados bilateralmente com cânulas na região CA1 do hipocampo, córtex entorrinal, córtex parietal posterior e núcleo basolateral da amígdala, e treinados na tarefa de esquiva inibitória. Em diferentes tempos depois do treino, o antagonista dos receptores GABAA - bicuculina - foi infundido nas estruturas acima mencionadas. A bicuculina facilitou a memória quando infundida imediatamente após o treino (0h) no hipocampo, córtex entorrinal e córtex parietal posterior; 1,5h no hipocampo; 3h no córtex entorrinal e no córtex parietal. Nos tempos mais tardios da consolidação da memória (4,5h e 6h) não houve facilitação. A bicuculina não teve efeito na memória quando administrada na amígdala em nenhum dos tempos. Nossos dados sugerem que os receptores GABAérgicos inibem os primeiros momentos da consolidação da memória de longa duração no hipocampo, córtex entorrinal e córtex posterior, mas não nos tempos mais tardios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.