100 resultados para Processamento de imagem assistida por computador
Resumo:
Os produtos de sensoriamento remoto gerados pelos novos sensores orbitais, aliados ao desenvolvimento de sistemas computacionais e de técnicas de processamento de imagens possibilitam a manipulação numérica das imagens, visando o realce de informações de interesse para a interpretação visual ou automática. O uso dessas técnicas traz boas perspectivas no mapeamento geológico básico, pois possibilita uma visão sinóptica de amplas áreas e a integração de dados litológicos e estruturais de várias fontes. Este trabalho selecionou as imagens do sensor ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer) devido as características de suas resoluções espectral e espacial, como as mais promissoras para identificação dos diferentes litotipos da área do Platô da Ramada, em especial as unidades vulcânicas e hipabissais relacionadas e sedimentares subjacentes. O Platô da Ramada, região de Vila Nova do Sul (RS) constitui uma feição geomorfológica de destaque na área, facilmente identificável nas imagens orbitais, sendo formado por uma seqüência vulcânica caracterizada por depósitos efusivos e piroclásticos, de composição dominantemente ácida. Representa uma fração significativa do magmatismo alcalino sódico neoproterozóico no Escudo Sul-rio-grandense e marca um dos ciclos vulcânicos do período pós-colisional do Ciclo Brasiliano Este estudo testou e avaliou diversos processamentos das imagens multiespectrais para diferenciação litológica, a identificação de alvos e a definição de morfoestruturas da área do Platô da Ramada. A integração de dados geológicos existentes com os produtos obtidos neste estudo possibilitou novas informações anexadas ao mapa geológico utilizado como verdade terrestre. O processamento utilizando a técnica de Transformação por Componentes Principais Seletivas proporcionou os melhores resultados realçando diferenças espectrais existentes entre as rochas vulcânicas e hipabissais e as rochas sedimentares. A partir dessa técnica, selecionou-se as imagens CP2 dos pares das bandas 4-5 (R), 3-4 (G) e 8-9 (B) na geração de uma composição colorida. Esta imagem permitiu a diferenciação espectral entre as rochas vulcânicas do Platô da Ramada e as rochas sedimentares do Grupo Maricá, bem como a individualização, no Grupo Maricá, de duas subunidades, levando-se em conta a densidade de intrusões de diques riolíticos ao norte da área. Identificou-se, ainda, um corpo diorítico com forma elíptica na borda SW do Platô da Ramada, não registrado anteriormente.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
Vídeos de histeroscopias são usados para avaliar a aparência do útero, e são de importância fundamental para os ginecologistas. Estes vídeos contém uma grande quantidade de informação, porém somente um número reduzido de quadros são úteis para propósitos de diagnóstico (por exemplo, a análise da distribuição espacial de glândulas). Sendo assim, este trabalho propõe um método inovador para a análise de vídeos de histeroscopias, com dois objetivos principais: (a) reduzir o número de quadros necessários para a representação do conteúdo do vídeo, e (b) prover uma medida quantitativa da distribuição das glândulas em tais vídeos. A abordagem proposta para a sumarização do vídeo é baseada na extensão de um princípio estatístico conhecido (decomposição em valor singular), e, segundo resultados preliminares, apresenta vantagens sobre os trabalhos publicados na literatura. Observou-se que a análise quantitativa da distribuição das glândulas também apresenta uma maior discriminação do que relatado na literatura. A abordagem proposta é adaptativa no sentido de minimizar a necessidade do ajuste de parâmetros. Além disso, o método é robusto quanto as condições de iluminação e a presença de artefatos (por exemplo, reflexos), os quais são comuns nestes vídeos. Por fim, os experimentos indicam que os resultados obtidos são compatíveis com os obtidos pelos ginecologistas.
Resumo:
A necessidade de estimar com precisão o gasto energético dos pacientes gravemente doentes é cada vez mais importante para que se possa planejar uma nutrição adequada. Está bem estabelecido que tanto a desnutrição quanto o excesso alimentar prejudicam a evolução favorável destes doentes, especialmente quando estão sob ventilação mecânica. O objetivo do presente estudo foi comparar o Gasto Energético Total (GET) dos pacientes ventilados mecanicamente nos modos controlado e assistido, através da calorimetria indireta, medidos pelos monitores de gases TEEM-100 e DATEX-OHMEDA, verificando a necessidade de ajuste no aporte calórico em cada modo, correlacionando-os com a equação de Harris-Benedict (H-B). Foram estudados 100 pacientes em que os gases exalados (CO2 e O2) foram medidos durante 20 minutos em cada modo ventilatório (controlado e assistido) e o gasto energético calculado pela fórmula de “Weir”, determinando o GET, em 24 horas e comparado com o GET estimado pela equação de H-B. A média do escore APACHE II foi 21,1± 8,3. A média dos valores estimados pela equação de H-B foi de 1853,87±488,67 Kcal/24 h, considerando os fatores de atividade e estresse. Os valores médios obtidos pela calorimetria indireta (CI) foram de 1712,76 ±491,95 Kcal/24 h para a modalidade controlada e de 1867,33±542,67 Kcal/24 h para a assistida. A média do GET na modalidade assistida foi de 10,71% maior do que na controlada (p<0,001). A comparação das médias do GET, obtidos por CI com a equação de H-B ajustada para fatores de atividade e estresse demonstraram que a equação superestimou em 141,10 Kcal/24 h (8,2%) (p=0,012), quando na modalidade controlada. Retirando-se os fatores de atividade, observou-se uma tendência não significativa a subestimar em 44,28 Kcal/24 h (2,6%) (p=0,399). Quando na modalidade assistida, a comparação com H-B sem o fator de atividade, a medida por CI subestima em 198,84 Kcal/24 h, (10,71%), (p=0,001), enquanto que com o fator de atividade também subestimam, mas em 13,46 Kcal/24 h (0,75%) sem significância estatística (p=0,829). As diferenças observadas com o uso ou não de vasopressor, presença ou não de infecção e sepse como causa de internação na UTI, o tipo de dieta parenteral ou enteral ou sem dieta, e as faixas etárias não tiveram significância estatística, portanto não tiveram influência no gasto energético entre os modos ventilatórios. Os homens quando ventilando no modo controlado gastaram mais energia em relação às mulheres (1838,08 vs. 1577,01; p=0,007). Concluindo-se, os dados sugerem que devemos considerar o fator de atividade de 10%, somente quando em VM assistida, uma vez que este fator de atividade determina hiperalimentação, quando no modo controlado.
Resumo:
Esta tese trata de como o sistema SignWriting pode servir de suporte a uma nova proposta pedagógica ao ensino da escrita de língua de sinais e letramento para crianças surdas usuárias da Língua Brasileira de Sinais - Libras e da Língua de Sinais Francesa - LSF. Escrever deve ser uma atividade significativa para a criança. No caso da criança surda, a escrita fundamenta-se em sua competência na língua de sinais, sem precisar da intermediação da língua oral. A criança surda, quando em um ambiente onde ela e seus colegas se comunicam em língua de sinais, efetivamente tenta escrever sinais, quando é incentivada a fazê-lo. Em nossos experimentos, usamos o sistema SignWriting para mostrar ás crianças surdas (e a seus pais e professores) como escrever textos em línguas de sinais de ambas as formas: manuscrita e impressa, usando o programa Sign Writer para editar textos em línguas de sinais. A base teórica que apóia a tese é a abordagem bilíngüe para a educação de surdos, a língua de sinais, a teoria de Piaget, e de Ferreiro quando trata das etapas da alfabetização em língua oral. Esta investigação possui um caráter exploratório, em que o delineamento metodológico é dado pela pesquisa-ação. O primeiro estudo apresenta um levantamento do processo de aquisição da escrita de sinais, em sua forma manuscrita, pela criança e jovem surdo no Brasil e na França. O segundo estudo trata da ajuda que a informática pode dar a essa aquisição e de como utilizamos os softwares de escrita de língua de sinais em aulas de introdução ao uso do computador e em transcrições da LSF de corpus vídeo para a escrita de língua de sinais. Os resultados sugerem que as crianças evoluem em sua escrita, pois muitos signos que elas escreveram não foram sugeridos pela experimentadora, nem por outro meio, mas surgiram espontaneamente. A introdução de um software como o Sign Writer ou o SW-Edit nas classes para introduzir as TI traz a essas aulas muito maior interesse do que quando usamos um editor de textos na língua oral. Também as produções das crianças são mais sofisticadas. As conclusões indicam que a escrita de língua de sinais incorporada à educação das crianças surdas pode significar um avanço significativo na consolidação de uma educação realmente bilíngüe, na evolução das línguas de sinais e aponta para a possibilidade de novas abordagens ao ensino da língua oral como segunda língua.
Resumo:
O trabalho tem como objetivo estudar as repercussões do emprego de recursos informáticos aplicados ao projeto arquitetônico e da sua interação com o usuário. A relação entre computação gráfica e projeto arquitetônico é um assunto já bastante discutido, seja como a aplicação do potencial matemático da ferramenta para a composição das formas, ou ainda, como experimentações no campo da realidade virtual. No entanto, sob o ponto de vista do projeto arquitetônico e da sua apropriação da ferramenta pouco se tem dito, é nesta lacuna que a dissertação pretende se inserir. Desenvolvo a questão em duas partes principais. A primeira tem o objetivo de situar o leitor no assunto proposto, procurando possíveis repostas para relação entre usuário/projeto/máquina. A segunda parte se concentra no projeto arquitetônico como forma de investigação, amparada em um estudo de caso, resultado da observação do atelier. Procuro tecer as relações entre o projeto dos alunos, como resposta às instruções dos professores, e o uso da computação gráfica na composição do projeto.
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
As imagens, enquanto um conjunto de representações, impressões e convicções que são armazenados de forma holística na memória, são capazes de influenciar e de direcionar o comportamento das pessoas. Ter acesso à imagem que determinado público desenvolve sobre um produto específico, através de um instrumento de fácil aplicação, é uma das ambições dos pesquisadores de Marketing. A presente pesquisa propõe, com esta finalidade, a Técnica de Configuração da Imagem de Produto (TCIP), através dos produtos "vinho" e "telefone celular". Inicialmente, são identificados e organizados, dentro de suas categorias correspondentes, os principais atributos destes produtos, os quais formam a imagem dos produtos na mente dos respondentes; a seguir, os atributos identificados são associados às suas posições relativas, de acordo com a sua maior ou menor proximidade com o estímulo dito "indutor"; logo após, é feita a identificação da importância relativa dos atributos da imagem dos produtos testados; depois disto, são apresentados os subgrupos de atributos mais fortemente relacionados entre si; e então, se apresenta uma forma de visualização da configuração da imagem de produto através do Mapa da Configuração da Imagem de Produto (MCIP). Finalmente, foi testada a validade e a confiabilidade de cada procedimento adotado. A Técnica de Configuração de Imagem de Produto se mostrou, através da presente pesquisa, válida e confiável, se constituindo em uma ferramenta útil, simples e econômica para entender melhor as imagens de produto construídas por seu público-alvo. A partir destes resultados, esta passa a ser apresentada como uma importante ferramenta para o direcionamento estratégico das ações de comunicação de um produto. O que diferencia a TCIP das demais técnicas é a sua facilidade de aplicação
Resumo:
Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
A prolactina (PRL) é um hormônio peptídico sintetizado e secretado, principalmente, pelas células lactotróficas da glândula hipófise anterior, tendo como principal função a indução e manutenção da lactação. Existem três formas moleculares de PRL na circulação: PRL monomérica (little prolactin) com massa molecular de cerca de 23KDa, PRL dimérica (big prolactin) com 45 a 50KDa, e macroprolactina (big big prolactin) maior do que 150KDa. Esta última está geralmente ligada a imunoglobulinas G. Em condições normais, ou em pacientes com hiperprolactinemia sintomática, predomina em circulação a forma monomérica. A hiperprolactinemia é uma das disfunções endócrinas hipotálamo-hipofisárias mais comuns em mulheres em idade reprodutiva. Ocorre mais freqüentemente por adenomas hipofisários (prolactinomas) e secundária ao uso de drogas com ação central. Na ausência de causas conhecidas, a hiperprolactinemia é considerada como idiopática. Finalmente, pode estar associada ao predomínio de macroprolactina no soro, sendo denominada macroprolactinemia. A suspeita de macroprolactinemia ocorre quando um paciente com hiperprolactinemia não apresenta os sintomas típicos e/ou não tem evidências radiográficas de tumor na hipófise, embora a macroprolactinemia possa estar ocasionalmente associada a prolactinomas. Os objetivos deste trabalho foram: avaliar a freqüência de macroprolactinemia, através da precipitação com PEG, numa amostra de mulheres com hiperprolactinemia; descrever associações da macroprolactinemia com variáveis clínicas, hormonais e de imagem da hipófise; e caracterizar a evolução clínica e dos níveis de prolactina durante o seguimento desta coorte. Realizou-se um estudo descritivo, onde foi estudada uma coorte de pacientes do sexo feminino (n = 32), consultando no HCPA de 1989 a 2005, com diagnóstico de hiperprolactinemia (>26ng/mL) e seguimento com agonistas da dopamina. Após um período de 3 meses sem tratamento (washout), as pacientes dosaram prolactina para investigação dos níveis séricos e presença de macroprolactina, e foram classificadas como aquelas que normalizaram os níveis séricos de prolactina durante estes anos de seguimento (Grupo Hprl prévia) e as que continuaram hiperprolactinêmicas. Estas foram reclassificadas como grupo de hiperprolactinêmicas cuja forma circulante predominante é a prolactina monomérica (Grupo Hprl mono) e o grupo de hiperprolactinêmicas com predominância de macroprolactina (Grupo Hprl macro). O percentual de macroprolactina foi calculado através dos valores de PRL totais obtidos das amostras íntegras em comparação com os níveis de PRL encontrados nas amostras precipitadas com PEG. Recuperações de prolactina monomérica > 50% classificaram a amostra como tendo predomínio de formas monoméricas, o percentual de recuperação 40% foi considerado como predomínio de formas de alto peso molecular (macroprolactinemia), e recuperação entre 40 e 50% indicou indefinição da forma predominante de PRL. A freqüência de macroprolactina foi de 28,1% (n = 32). Pacientes hiperprolactinêmicas com macroprolactinemia são significativamente mais jovens do que as hiperprolactinêmicas com a forma monomérica. Como esperado, tanto as pacientes do grupo Hprl macro como Hprl mono apresentam níveis de prolactina significativamente mais elevados que as pacientes Hprl prévia. Através do método de precipitação com PEG, identificou-se a forma predominante de prolactina na circulação em 71,8% dos casos (n = 32). Verificamos ainda que as pacientes com predominância de macroprolactina não apresentam os sintomas da síndrome hiperprolactinêmica, e na maioria dos casos, possuem exames de imagem por TC normal.
Resumo:
Introdução: Embora a imagem com segunda harmônica esteja largamente disponível na maioria dos aparelhos de ultra-sonografia, sua acurácia para avaliar a morfologia e a função do apêndice atrial esquerdo (AAE) permanece precariamente caracterizada. Objetivos: Explorar o desempenho diagnóstico da ecocardiografia transtorácica com segunda harmônica (ETTsh) na avaliação do AAE após eventos neurológicos agudos. Métodos: Realizamos um estudo transversal em pacientes com eventos neurológicos isquêmicos agudos, encaminhados para realização de ETTsh e Ecocardiografia Transesofágica (ETE). As análises da área longitudinal máxima e do pico da velocidade de esvaziamento de fluxo do AAE foram realizadas por observadores cegos. Resultados: Foram avaliados 51 pacientes (49% femininas, 62 ± 12 anos) com eventos neurológicos isquêmicos agudos. Contraste ecocardiográfico espontâneo foi observado em 11 (22%) pacientes no AE, em 7(14%) no AAE e em 3 (6%) na aorta torácica descendente. Trombo no AAE foi identificado em apenas 2 (4%) pacientes. O mapeamento e a análise do AAE foi factível na maioria dos casos (98%), tanto para o estudo com Doppler quanto para avaliação da área do AAE. Observamos uma associação positiva e significativa entre o ETTsh e o ETE, tanto para a avaliação das velocidades máximas de esvaziamento do AAE (r=0,63; p<0,001) quanto para a área longitudinal máxima do AAE (r=0,73; p<0,001). Ademais, todos os pacientes com trombos no AAE ou contraste espontâneo (n=7) tiveram velocidade de esvaziamento inferior a 50 cm/s no mapeamento transtorácico (valor preditivo negativo de 100%). Na análise multivariada ajustada para diversos potenciais preditores transtorácicos de risco, a velocidade máxima de esvaziamento do AAE permaneceu independentemente associada com trombos no AAE ou contraste espontâneo. Conclusão: ETTsh pode fornecer informações relevantes a respeito da morfologia e dinâmica do AAE. Em particular, pacientes com velocidades altas de esvaziamento do AAE podem não necessitar de avaliação adicional com ETE.
Resumo:
Resumo não disponível.
Resumo:
Vários resultados na literatura fornecem fortes evidências de que o processamento de memórias requerem a participação da proteína cinase C (PKC) em estruturas sabidamente necessárias para este processamento, como o hipocampo, a amígdala basolateral (ABL) e o córtex parietal posterior (CPP). Neste trabalho mostramos que o inibidor seletivo das isoformas cálcio-dependentes da PKC, Go 6976, produz um efeito amnésico dosedependente sobre a consolidação de memória espacial de longa duração em ratos submetidos ao treino no labirinto aquático de Morris (LAM), quando infundido na região CA1 do hipocampo dorsal 15 minutos pré-treino, imediatamente pós-treino ou 15 minutos pré-teste para esta tarefa, sem alterar a atividade locomotora dos animais. Ainda na tarefa do LAM, o Go 6976 também apresentou este efeito amnésico sobre a reconsolidação de memórias espaciais de longa duração recentes e antigas, bem como sobre a consolidação da memória espacial de longa duração relativa ao treino reverso no LAM, mas não teve efeito sobre a memória espacial de curta duração nem sobre a extinção da memória espacial de longa duração. Já na tarefa de esquiva inibitória (EI) o Go 6976 produziu um efeito amnésico quando infundido na ABL imediatamente ou 30 minutos pós-treino, ou no CPP 270 ou 360 minutos pós-treino, enquanto o inibidor não-seletivo das isoformas da PKC, Go 7874, produziu os mesmos efeitos, exceto por, no CPP, causar amnésia quando infundido 180 ao invés de 270 minutos pós-treino. Estes resultados indicam que as PKCs, sobretudo as cálcio-dependentes, são importantes para o processamento de memórias espaciais e aversivas, apresentando na consolidação de memórias aversivas distintos tempos críticos de ativação em diferentes estruturas cerebrais, e sendo necessárias para a aquisição, consolidação, evocação e reconsolidação de memórias espaciais.