75 resultados para Imagem de Alta Resolução
Resumo:
O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.
Resumo:
Este trabalho se ocupa do problema da localização de sítios adequados para a operação de observatórios astronômicos. O constante crescimento das cidades e a urbanização de grandes áreas vizinhas é acompanhada por um aumento proporcional da iluminação artificial, o que resulta em níveis maiores de brilho do céu noturno. Isto tem consequências extremas para a astronomia óptica, a qual exige um céu escuro, e justifica buscas de novos sítios para a instalação de futuros telescópios ópticos. Um dos critérios mais importantes para sítios astronômicos, além de céu escuro, é uma alta proporção de céu claro, sem nuvens. Buscas de sítios astronômicos são estudos conduzidos ao longo de períodos de tempo de anos. É sugerido que imagens de satélites meteorológicos podem ser úteis para a seleção preliminar destes sítios. A metodologia utilizada é fundamentada em correções geométricas de imagens de dados orbitais das naves NOAA12 e NOAA14 e na soma de imagens obtidas em datas diferentes. As imagens foram coletadas pela estação de recepção instalada no Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia da UFRGS. Somando, pixel por pixel, imagens colhidas em datas diferentes, após correções geométricas, obtém-se médias temporais de cobertura de nuvens, o que é o equivalente moderno da construção de médias a partir de uma série temporal de dados meteorológicos de estações terrestres. Nós demonstramos que esta metodologia é factível para este tipo de dado, originário de órbitas de menor altitude e melhor resolução, se comparado com imagens vindas de satélites de órbitas altas, geoestacionários, com menor resolução, imagens estas de manipulação muito mais fácil, pois o ponto de observação tende a ser estável no tempo.
Resumo:
Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.
Resumo:
Esta dissertação propõe o desenvolvimento de uma metodologia de obtenção de fotografias aéreas, com a finalidade de mapear áreas selvagens amparadas legalmente e administradas pelo governo federal do Brasil. O objetivo final foi o de vir a ser uma ferramenta de mapeamento dessas áreas para o seu planejamento e gerenciamento, com uma metodologia simples e de baixo custo. O sistema para a obtenção das aerofotos emprega as fotografias obtidas com máquinas de 35 mm e aeronaves de asa alta e ampla visibilidade, próprias para reconhecimento aéreo. Emprega ainda um aparelho, com alguns acessórios, construído especialmente para proporcionar o máximo de verticalidade possível das aerofotos em relação ao solo, além de navegação por GPS, procurando eliminar assim distorções ocasionadas por giros e desvios da aeronave leve e melhorando o desempenho da montagem das aerofotos em um mosaico digital. O produto final a ser obtido é um mosaico de fotografias aéreas, georreferenciado, e que serve de base para a elaboração de diversos tipos de mapas temáticos da área protegida, contendo elementos que possam satisfazer as exigências técnicas requeridas pelo levantamento. Além disso, ficam disponibilizadas as aerofotos em pares estereoscópicos de altíssima resolução, para observações mais detalhadas dos diversos elementos no solo. Embora as imprecisões, procurou-se proporcionar uma base de mapeamento georreferenciado através do uso de GPS em pontos de controle no campo, correção destas informações através de técnicas expeditas de DGPS e correção geométrica do mosaico de aerofotos. O resultado final pode ser considerado bastante satisfatório e a metodologia passível de utilização no cumprimento dos objetivos a que se propõe, para o gerenciamento, planejamento e monitoramento de unidades de conservação de uso indireto federais, estaduais e municipais .
Resumo:
A utilização de reações nucleares ressonantes estreitas em baixas energias é uma ferramenta importante para a determinação de distribuições de elementos leves em filmes finos com resolução em profundidade subnanométrica. O objetivo do trabalho descrito ao longo da presente dissertação é aprimorar os métodos utilizados para a aquisição e interpretação das curvas experimentais. A obtenção das curvas experimentais consiste na detecção dos produtos das reações nucleares em função da energia das partículas incidentes, fazendo necessária variar a energia das partículas do feixe em passos discretos no intervalo desejado. Neste trabalho implementou-se um sistema automático para o controle e incremento da energia do feixe e monitoramento dos produtos das reações nucleares. Esse sistema de varredura automático de energia, além de aumentar consideravelmente a velocidade da medida, aumenta a qualidade das curvas experimentais obtidas. Para a interpretação das curvas de excitação experimentais, foi implementado um programa em linguagem de programação C, baseado na teoria estocástica, que permite simular numericamente as curvas de excitação. Para demonstrar a sua funcionalidade o método desenvolvido foi aplicado para verificar a estabilidade termodinâmica de filmes dielétricos ultrafinos depositados sobre silício, que foram posteriormente nitretados por plasma.
Resumo:
Um programa de preparo de alta hospitalar, enquanto uma estratégia de Educação em Saúde, pode contribuir para que a família ou o idoso possam dar continuidade aos cuidados no contexto domiciliar, após a alta hospitalar. Assim, este estudo de caráter qualitativo descritivo objetiva analisar a percepção que tem o cuidador familiar de idosos com Acidente Vascular Cerebral (AVC) em relação ao Programa de preparo de alta para o paciente com seqüelas neurológicas de um Hospital Universitário. Após aprovação pelo Comitê de Ética e Pesquisa da instituição onde foi desenvolvido o presente estudo, foram entrevistados 12 cuidadores familiares de 9 idosos que participaram de tal Programa. As entrevistas foram transcritas e seu conteúdo foi analisado conforme a técnica de análise de conteúdo, emergindo quatro categorias: opinião sobre o programa, adequação das orientações às demandas de cuidados, pontos de melhoria e repercussões do ser cuidador. Assim, sugere-se a implantação de programas similares nos serviços de saúde, bem como o desenvolvimento de estratégias educativas em saúde que contemplem o idoso com AVC e sua família.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
As imagens, enquanto um conjunto de representações, impressões e convicções que são armazenados de forma holística na memória, são capazes de influenciar e de direcionar o comportamento das pessoas. Ter acesso à imagem que determinado público desenvolve sobre um produto específico, através de um instrumento de fácil aplicação, é uma das ambições dos pesquisadores de Marketing. A presente pesquisa propõe, com esta finalidade, a Técnica de Configuração da Imagem de Produto (TCIP), através dos produtos "vinho" e "telefone celular". Inicialmente, são identificados e organizados, dentro de suas categorias correspondentes, os principais atributos destes produtos, os quais formam a imagem dos produtos na mente dos respondentes; a seguir, os atributos identificados são associados às suas posições relativas, de acordo com a sua maior ou menor proximidade com o estímulo dito "indutor"; logo após, é feita a identificação da importância relativa dos atributos da imagem dos produtos testados; depois disto, são apresentados os subgrupos de atributos mais fortemente relacionados entre si; e então, se apresenta uma forma de visualização da configuração da imagem de produto através do Mapa da Configuração da Imagem de Produto (MCIP). Finalmente, foi testada a validade e a confiabilidade de cada procedimento adotado. A Técnica de Configuração de Imagem de Produto se mostrou, através da presente pesquisa, válida e confiável, se constituindo em uma ferramenta útil, simples e econômica para entender melhor as imagens de produto construídas por seu público-alvo. A partir destes resultados, esta passa a ser apresentada como uma importante ferramenta para o direcionamento estratégico das ações de comunicação de um produto. O que diferencia a TCIP das demais técnicas é a sua facilidade de aplicação
Resumo:
Na tentativa de produzir componentes cada vez mais leves e seguros a industria automotiva vem continuamente atualizando seus produtos no que diz respeito à associação de materiais, uso de uniões por solda, utilização de ligas leves em substituição de ligas de aço e etc. Três são os motivos básicos para estas mudanças: aumento da segurança dos passageiros, diminuição do consumo de combustível e redução os custos de produção. As ligas de alumínio, em sua maioria desenvolvidas para uso em tecnologia aeronáutica, vêm ganhando espaço também na produção de automóveis de passeio. Um dos maiores problemas apresentados pelas ligas de alumínio é a baixa soldabilidade dificultando a produção de componentes como os conhecidos Tailor Welded Blanks (TWB). TWB consiste em unir através de solda materiais de espessura e ou propriedades mecânicas diferentes formando uma geratriz para posterior estampagem de um componente Este trabalho inova confeccionando juntas a partir de chapas de espessuras diferentes (TWB) através de soldagem por fricção e mistura mecânica (SFMM) a partir de ligas de alumínio com velocidades de soldagem convencionais (1m/min) e em altas velocidades atingindo 5 e 10m/min dependendo da liga. Duas ligas de alumínio foram utilizadas, AA5754 (não tratável termicamente) e AA6181 (tratável termicamente). Foram realizados ensaios metalográficos, perfis de microdureza, ensaios de tração. Foram realizados também ensaios para levantamento de curvas limite de conformação através de ensaios de tração em corpos de prova etalhados e ensaios de estampabilidade. Os resultados mostram que o processo SFMM é adequado para soldas de espessuras diferentes em altas velocidades. Os ensaios de microdureza não apresentam as típicas variações observadas em processos de soldagem convencional, os testes mecânicos apresentam bons resultados, especialmente paras as juntas da liga AA6181 que em ambas as condições de soldagem apresentaram valores de tensão próximos aos valores do material de base. Os testes de estampagem mostram que as juntas da liga AA5754 apresentam desempenho superior ao material de base quando conformadas, desta forma provando que essa técnica pode ser utilizada para fabricação de geratrizes para estampagem de componentes.
Resumo:
A prolactina (PRL) é um hormônio peptídico sintetizado e secretado, principalmente, pelas células lactotróficas da glândula hipófise anterior, tendo como principal função a indução e manutenção da lactação. Existem três formas moleculares de PRL na circulação: PRL monomérica (little prolactin) com massa molecular de cerca de 23KDa, PRL dimérica (big prolactin) com 45 a 50KDa, e macroprolactina (big big prolactin) maior do que 150KDa. Esta última está geralmente ligada a imunoglobulinas G. Em condições normais, ou em pacientes com hiperprolactinemia sintomática, predomina em circulação a forma monomérica. A hiperprolactinemia é uma das disfunções endócrinas hipotálamo-hipofisárias mais comuns em mulheres em idade reprodutiva. Ocorre mais freqüentemente por adenomas hipofisários (prolactinomas) e secundária ao uso de drogas com ação central. Na ausência de causas conhecidas, a hiperprolactinemia é considerada como idiopática. Finalmente, pode estar associada ao predomínio de macroprolactina no soro, sendo denominada macroprolactinemia. A suspeita de macroprolactinemia ocorre quando um paciente com hiperprolactinemia não apresenta os sintomas típicos e/ou não tem evidências radiográficas de tumor na hipófise, embora a macroprolactinemia possa estar ocasionalmente associada a prolactinomas. Os objetivos deste trabalho foram: avaliar a freqüência de macroprolactinemia, através da precipitação com PEG, numa amostra de mulheres com hiperprolactinemia; descrever associações da macroprolactinemia com variáveis clínicas, hormonais e de imagem da hipófise; e caracterizar a evolução clínica e dos níveis de prolactina durante o seguimento desta coorte. Realizou-se um estudo descritivo, onde foi estudada uma coorte de pacientes do sexo feminino (n = 32), consultando no HCPA de 1989 a 2005, com diagnóstico de hiperprolactinemia (>26ng/mL) e seguimento com agonistas da dopamina. Após um período de 3 meses sem tratamento (washout), as pacientes dosaram prolactina para investigação dos níveis séricos e presença de macroprolactina, e foram classificadas como aquelas que normalizaram os níveis séricos de prolactina durante estes anos de seguimento (Grupo Hprl prévia) e as que continuaram hiperprolactinêmicas. Estas foram reclassificadas como grupo de hiperprolactinêmicas cuja forma circulante predominante é a prolactina monomérica (Grupo Hprl mono) e o grupo de hiperprolactinêmicas com predominância de macroprolactina (Grupo Hprl macro). O percentual de macroprolactina foi calculado através dos valores de PRL totais obtidos das amostras íntegras em comparação com os níveis de PRL encontrados nas amostras precipitadas com PEG. Recuperações de prolactina monomérica > 50% classificaram a amostra como tendo predomínio de formas monoméricas, o percentual de recuperação 40% foi considerado como predomínio de formas de alto peso molecular (macroprolactinemia), e recuperação entre 40 e 50% indicou indefinição da forma predominante de PRL. A freqüência de macroprolactina foi de 28,1% (n = 32). Pacientes hiperprolactinêmicas com macroprolactinemia são significativamente mais jovens do que as hiperprolactinêmicas com a forma monomérica. Como esperado, tanto as pacientes do grupo Hprl macro como Hprl mono apresentam níveis de prolactina significativamente mais elevados que as pacientes Hprl prévia. Através do método de precipitação com PEG, identificou-se a forma predominante de prolactina na circulação em 71,8% dos casos (n = 32). Verificamos ainda que as pacientes com predominância de macroprolactina não apresentam os sintomas da síndrome hiperprolactinêmica, e na maioria dos casos, possuem exames de imagem por TC normal.
Resumo:
Introdução: Embora a imagem com segunda harmônica esteja largamente disponível na maioria dos aparelhos de ultra-sonografia, sua acurácia para avaliar a morfologia e a função do apêndice atrial esquerdo (AAE) permanece precariamente caracterizada. Objetivos: Explorar o desempenho diagnóstico da ecocardiografia transtorácica com segunda harmônica (ETTsh) na avaliação do AAE após eventos neurológicos agudos. Métodos: Realizamos um estudo transversal em pacientes com eventos neurológicos isquêmicos agudos, encaminhados para realização de ETTsh e Ecocardiografia Transesofágica (ETE). As análises da área longitudinal máxima e do pico da velocidade de esvaziamento de fluxo do AAE foram realizadas por observadores cegos. Resultados: Foram avaliados 51 pacientes (49% femininas, 62 ± 12 anos) com eventos neurológicos isquêmicos agudos. Contraste ecocardiográfico espontâneo foi observado em 11 (22%) pacientes no AE, em 7(14%) no AAE e em 3 (6%) na aorta torácica descendente. Trombo no AAE foi identificado em apenas 2 (4%) pacientes. O mapeamento e a análise do AAE foi factível na maioria dos casos (98%), tanto para o estudo com Doppler quanto para avaliação da área do AAE. Observamos uma associação positiva e significativa entre o ETTsh e o ETE, tanto para a avaliação das velocidades máximas de esvaziamento do AAE (r=0,63; p<0,001) quanto para a área longitudinal máxima do AAE (r=0,73; p<0,001). Ademais, todos os pacientes com trombos no AAE ou contraste espontâneo (n=7) tiveram velocidade de esvaziamento inferior a 50 cm/s no mapeamento transtorácico (valor preditivo negativo de 100%). Na análise multivariada ajustada para diversos potenciais preditores transtorácicos de risco, a velocidade máxima de esvaziamento do AAE permaneceu independentemente associada com trombos no AAE ou contraste espontâneo. Conclusão: ETTsh pode fornecer informações relevantes a respeito da morfologia e dinâmica do AAE. Em particular, pacientes com velocidades altas de esvaziamento do AAE podem não necessitar de avaliação adicional com ETE.
Resumo:
Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.
Resumo:
Foram avaliados os efeitos de níveis crescentes de suplementação com gordura de arroz, na forma de farelo integral e óleo, em dietas isoprotéicas (19,7% de proteína bruta) e isofibrosas (30,1% de fibra em detergente neutro), sobre o consumo, produção e metabolismo de vacas leiteiras de alta produção na fase inicial da lactação. O delineamento experimental utilizado foi o quadrado latino, com quatro níveis de gordura bruta (3,5; 5,0; 6,5 e 8,0%), quatro animais e quatro períodos, com uma repetição. O comportamento do consumo de matéria seca foi quadrático, com uma redução importante somente no maior nível de suplementação. Nos demais níveis os valores foram semelhantes (25,8; 26,2; 25,9 e 24,5kg/dia, respectivamente). O mesmo comportamento foi observado para o consumo de proteína bruta. O consumo de carboidratos não fibrosos e de fibra em detergente neutro foi reduzido linearmente pela suplementação. Não houve efeito da suplementação lipídica sobre a produção de leite (33,1; 33,3; 34,0 e 33,4kg/dia, respectivamente), sobre a produção corrigida para gordura, sobre o teor de gordura, lactose, sólidos totais e sua produção diária. O teor de proteína bruta do leite diminuiu com o aumento da gordura nas dietas, mas não houve efeito sobre a produção diária de proteína. A eficiência alimentar aumentou com o aumento da inclusão de gordura nas dietas, mas não houve efeito sobre a energia do leite nem sobre a eficiência energética. A concentração de nitrogênio uréico do leite não foi influenciada pelos tratamentos, embora a de nitrogênio uréico do sangue tenha diminuído à medida que aumentou a inclusão de gordura nas dietas. Os níveis séricos de glicose e triglicerídeos não diferiram em função dos tratamentos, mas houve aumento da concentração de colesterol total com o aumento da suplementação lipídica. O custo de produção do leite foi reduzido à medida que aumentou a participação da gordura nas dietas. Essa redução ocorreu devido ao menor consumo de volumoso como efeito da gordura, apesar da inclusão de gordura de arroz nas dietas ter gerado um aumento do custo dos concentrados.
Resumo:
Trata-se de uma pesquisa qualitativa, do tipo Convergente – assistencial, que teve como objetivo: conhecer as práticas adotadas pelas puérperas para a resolução dos problemas mamários, no domicílio, e intervir para a sua resolução. Participaram do estudo quatorze puérperas, que foram escolhidas a partir de alguns critérios previamente estabelecidos e se encontravam no período de amamentação, recebendo atendimento no Centro de Atenção Integral a Saúde de Passo Fundo, Rio Grande do Sul. As informações foram coletadas por meio de entrevista semiestruturada, observação participante e anotações em diário de campo e, após, à submetidas análise de dados, conforme proposta de Trentini e Paim. Foram encontrados como temas: Práticas utilizadas pelas puérperas nos problemas mamários; e Repercussões dos problemas mamários no desmame e a promoção do aleitamento materno. Os achados indicam que foi uma diversificação de produtos utilizados pelas puérperas quando se encontram com problemas mamários. Ressalta-se a necessidade de os profissionais de saúde conhecerem as práticas utilizadas nas comunidades e se atualizarem em relação ao aleitamento materno, para que auxiliem na sua promoção.