1000 resultados para mapeamento automático
Resumo:
A perceção tridimensional é uma área em crescente desenvolvimento. Não existindo uma tecnologia ideal capaz de percecionar todo o tipo de cenários, têm surgido estudos sobre a aplicabilidade de diferentes tecnologias de forma a obter modelos que melhor se aproximem da realidade. Propõe-se nesta dissertação o desenvolvimento de um sistema de baixo-custo de percepção tridimensional que seja portátil e acessível na sua aplicabilidade, de forma a ter a capacidade de percecionar tridimensionalmente espaços interiores com pouca iluminação, tais como as divisões de um edifício ou os canais de uma mina subterrânea. Utilizou-se a triangulação entre uma câmara digital, os pontos de uma linha laser e um emissor laser para a obtenção dos dados tridimensionais do cenário. Para isso, recorreu-se a metodologias de processamento digital de imagens para a construção dos modelos dos cenários. Para se obter a validação desta dissertação, realizaram-se testes do protótipo de forma a determinar as suas capacidades percecionais. Em primeiro lugar realizou-se uma bateria de testes de calibração onde, repetidamente, se estudaram isoladamente pontos do cenário para verificar a precisão do sensor. Após esta calibração, estudou-se a capacidade de transformação de uma linha laser projetada num conjunto de coordenadas. Finalmente testou-se a capacidade de perceção tridimensional por rotação do sensor, de forma a realizar a transformação de múltiplas projeções de linhas laser num conjunto de coordenadas em torno do sensor. Verificou-se: no teste de calibração, a obtenção de distâncias com erro médio relativo inferior a 1%; no teste da linha laser, a capacidade de perceção de profundidade de múltiplos pontos ao longo da mesma; no teste de rotação, a aquisição de múltiplos conjuntos de linhas de profundidade no cenário, por rotação do sensor. Os resultados dos testes de validação permitiram concluir a viabilidade de utilizar a triangulação na aquisição de conjuntos de coordenadas de espaços interiores.
Resumo:
O mapeamento do uso da terra é fundamental para o entendimento dos processos de mudanças globais, especialmente em regiões como a Amazônia que estão sofrendo grande pressão de desenvolvimento. Tradicionalmente estes mapeamentos têm sido feitos utilizando técnicas de interpretação visual de imagens de satélites, que, embora de resultados satisfatórios, demandam muito tempo e alto custo. Neste trabalho é proposta uma técnica de segmentação da imagens com base em um algoritmo de crescimento de regiões, seguida de uma classificação não-supervisionada por regiões. Desta forma, a classificação temática se refere a um conjunto de elementos (pixels da imagem), beneficiando-se portanto da informação contextual e minimizando as limitações das técnicas de processamento digital baseadas em análise pontual (pixel-a-pixel). Esta técnica foi avaliada numa área típica da Amazônia, situada ao norte de Manaus, AM, utilizando imagens do sensor "Thematic Mapper" - TM do satélite Landsat, tanto na sua forma original quanto decomposta em elementos puros como vegetação verde, vegetação seca (madeira), sombra e solo, aqui denominada imagem misturas. Os resultados foram validados por um mapa de referência gerado a partir de técnicas consagradas de interpretação visual, com verificação de campo, e indicaram que a classificação automática é viável para o mapeamento de uso da terra na Amazônia. Testes estatísticos indicaram que houve concordância significativa entre as classificações automáticas digitais e o mapa de referência (em tomo de 95% de confiança).
Resumo:
Técnicas de sensoriamento remoto são fundamentais para o monitoramento das mudanças de uso da terra, principalmente em áreas extensas como a Amazônia. O mapeamento de uso da terra, geralmente é realizado por métodos de classificação manual ou digital pixel a pixel, os quais consomem muito tempo. Este estudo aborda a aplicação do modelo linear de mistura em uma imagem Landsat-TM segmentada para o mapeamento das classes de uso da terra na região do reservatório de Tucuruí-PA para os anos de 1996 e 2001.
Resumo:
O presente trabalho tem como objetivo analisar o potencial de imagens SAR polarimétricas do sensor TerraSAR-X, no modo StripMap, para mapear o uso e cobertura da terra na região sudoeste da Amazônia brasileira. No procedimento metodológico imagens de amplitude nas polarizações A HH e A VV, A
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
El objetivo de este proyecto, enmarcado en el área de metodología de análisis en bioingeniería-biotecnología aplicadas al estudio del cancer, es el análisis y caracterización a través de perfiles de expresión de proteínas y genes de las vías metabolicas asociadas a progresión tumoral. Dicho estudio se llevará a cabo mediante la utilización de tecnologías de alto rendimiento. Las mismas permiten evaluar miles de genes/proteínas en forma simultánea, generando así una gran cantidad de datos de expresión. Se hipotetiza que para un análisis e interpretación de la información subyacente, caracterizada por su abundancia y complejidad, podría realizarse mediante técnicas estadístico-computacionales eficientes en el contexto de modelos mixtos y técnias de aprendizaje automático. Para que el análisis sea efectivo es necesario contemplar los efectos ocasionados por los diferentes factores experimentales ajenos al fenómeno biológico bajo estudio. Estos efectos pueden enmascarar la información subycente y así perder informacion relavante en el contexto de progresión tumoral. La identificación de estos efectos permitirá obtener, eficientemente, los perfiles de expresión molecular que podrían permitir el desarrollo de métodos de diagnóstico basados en ellos. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, herramientas y procedimientos de análisis que maximicen la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos/proteómicos que permitan extraer información biológica relevante pertinente al análisis, clasificación o predicción de cáncer, el diseño de tratamientos y terapias específicos y el mejoramiento de los métodos de detección como así tambien aportar al entendimieto de la progresión tumoral mediante análisis computacional intensivo
Resumo:
OBJETIVOS: Avaliar a ativação elétrica cardíaca usando Mapeamento Eletrocardiográfico de Superfície (MES), em pacientes com ICC e bloqueio de ramo esquerdo [BRE] submetidos a terapia de ressincronização cardíaca (CRT) com implante de marca-passo átrio-biventricular (MP-BIV). MÉTODOS: Foram analisados os tempos médios de ativação elétrica cardíaca no ventrículo direito (tempo médio de ativação do VD [mVD]), área ântero-septal (mAS), e ventrículo esquerdo (mVE), de 28 pacientes (idade média 61,2±9,5 anos, ICC classe III-IV NYHA, fração de ejeção <40%, BRE com QRS médio 181,2±19,4ms, SÂQRS= -8,5º±68,6º), mostrados nos mapas de linhas isócronas do MES, antes e após implante de marca-passo átrio-biventricular, e comparados a valores obtidos em um grupo controle composto de indivíduos normais [GNL], em três situações: (1) BRE nativo, (2) estimulação do VD; e (3) estimulação átrio-biventricular. RESULTADOS: situação (1): mVD e mAS foram semelhantes (41,0±11,8ms x 43,6±13,4ms), com mVE tardio (81,0±12,5ms, p<0,01) perdendo o sincronismo com o VD e a área ântero-septal; situação (2): mVD foi maior que no GNL (86,8±22,9ms, p<0,001), com maior diferença entre mAS e mVE (63,4±20,7ms x 102,7±20,3ms; p<0,001); situação (3): mVE e mVD foram semelhantes (72,0±32,0ms x 71,6±32,3ms), mVD foi maior que no GNL e BRE nativo (71,6±32,3ms x 35,1±10,9ms e 41,0±11,8ms; p<0,001), mAS se aproximou do GNL e BRE nativo (51,3±32,8ms x 50,1±11,4ms e 43,6±13,4ms). CONCLUSÃO: Pelo mapeamento eletrocardiográfico de superfície, tempos de ativação semelhantes no VD e VE e próximos daqueles da região ântero-septal indicam padrões de ativação ventricular sincronizada em portadores de ICC e BRE durante estimulação átrio-biventricular.
Resumo:
FUNDAMENTO: Através de mapeamento espectral-(ME) endocárdico em ritmo sinusal, observam-se dois tipos de miocárdio atrial: o compacto de espectro liso e o fibrilar de espectro segmentado ("Ninho de FA" [NFA]). Durante a FA o compacto tem ativação organizada e baixa freqüência (passivo) enquanto o fibrilar apresenta ativação bastante desorganizada e alta freqüência (ativo/ressonante) sendo ambos ativados por uma taquicardia protegida de alta freqüência, taquicardia de background (TB). OBJETIVO: Descrever o tratamento da FA pela ablação dos NFA e da TB. MÉTODOS: 1) Ablação por cateter-RF [4/8mm-60º/30-40J/30s] dos NFA guiada por ME em ritmo sinusal, fora das veias pulmonares; 2) Estimulação atrial-300ppm; 3) Ablação adicional de NFA se induzida FA; 4) Ablação focal se induzida TB e/ou Flutter; 5) Seguimento clínico+ECG+Holter. RESULTADOS: Foram tratados 50±18 NFA/paciente. Após 11,3±8m 81p (88%) estavam sem FA (28,3% com antiarrítmico). Após a ablação dos NFA: a FA não foi reinduzida em 61p(71%); TB foi induzida e tratada em 24p(26%). Ocorreram 2 sangramentos pericárdicos (1 tratado clinicamente e 1 cirurgicamente) ocasionados por bainhas não mais utilizadas. CONCLUSÃO: O ME em ritmo sinusal ablaciona os NFA. Durante a FA os NFA apresentam um padrão reativo-ressonante e o miocárdio compacto apresenta-se passivo, estimulados pela alta freqüência da TB. Após a ablação dos NFA e da TB não foi possível reinduzir FA sustentada. A ablação dos NFA fora das VP se mostrou segura e altamente eficiente para a cura e/ou o controle clínico da FA.
Resumo:
El objetivo de este proyecto, enmarcado en el área de metodología de análisis en bioingeniería-biotecnología aplicadas al estudio del cáncer, es el análisis y caracterización a través de perfiles de expresión de proteínas y genes de las vías metabólicas asociadas a progresión tumoral. Dicho estudio se llevará a cabo mediante la utilización de tecnologías de alto rendimiento. Las mismas permiten evaluar miles de genes/proteínas en forma simultánea, generando así una gran cantidad de datos de expresión. Se hipotetiza que para un análisis e interpretación de la información subyacente, caracterizada por su abundancia y complejidad, podría realizarse mediante técnicas estadístico-computacionales eficientes en el contexto de modelos mixtos y técnicas de aprendizaje automático. Para que el análisis sea efectivo es necesario contemplar los efectos ocasionados por los diferentes factores experimentales ajenos al fenómeno biológico bajo estudio. Estos efectos pueden enmascarar la información subyacente y así perder informacion relevante en el contexto de progresión tumoral. La identificación de estos efectos permitirá obtener, eficientemente, los perfiles de expresión molecular que podrían permitir el desarrollo de métodos de diagnóstico basados en ellos. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, herramientas y procedimientos de análisis que maximicen la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos/proteómicos que permitan extraer información biológica relevante pertinente al análisis, clasificación o predicción de cáncer, el diseño de tratamientos y terapias específicos y el mejoramiento de los métodos de detección como así tambien aportar al entendimiento de la progresión tumoral mediante análisis computacional intensivo.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
FUNDAMENTO: A complexidade dos circuitos reentrantes relacionados às taquicardias ventriculares diminui os índices de sucesso dos procedimentos de ablação por radiofrequência. OBJETIVO: Avaliar se o mapeamento epicárdico com múltiplos eletrodos realizado simultaneamente com o mapeamento endocárdico auxilia na ablação da taquicardia ventricular (TV) sustentada em pacientes com cardiopatia não isquêmica. MÉTODOS: Vinte e seis pacientes com TV sustentada recorrente, sendo 22 (84,6%) com cardiopatia chagásica crônica, dois (7,7%) com cardiomiopatia dilatada idiopática e dois (7,7%) portadores de displasia arritmogênica do ventrículo direito, foram submetidos a mapeamento epicárdico com dois ou três microcateteres, com 8 eletrodos cada, simultaneamente ao mapeamento endocárdico convencional. Utilizou-se cateter com ponta de 4 mm para ablação com radiofrequência (RF) realizada durante a TV induzida. RESULTADOS: Das 33 TVs induzidas, 25 foram mapeadas e 20 tiveram sua origem definida. Onze com origem epicárdica e 9 endocárdica. A estimulação ventricular programada não induziu TV sustentada em 11 (42,0%) dos 26 pacientes após a ablação. Eventos como recorrência da TV e morte ocorreram em 10,0% dos pacientes submetidos à ablação com sucesso, e em 59,0% dos insucessos, em seguimento ambulatorial médio de 357 ± 208 dias. CONCLUSÃO: Circuitos subepicárdicos são frequentes em pacientes com cardiopatia não isquêmica. O mapeamento epicárdico com múltiplos cateteres realizado simultaneamente com o mapeamento endocárdico contribui para a identificação destes circuitos em um mesmo procedimento.
As linhas virtuais criadas com o sistema de mapeamento eletroanatômico ensite são de fato contínuas?
Resumo:
FUNDAMENTO: O sistema de mapeamento eletro anatômico Ensite Navx é muito usado na ablação por radiofrequência (RF) da fibrilação atrial, ajudando na confecção de lesões lineares. Contudo, a correspondência da linha virtual criada pelo Ensite com a lesão patológica ainda não foi avaliada. OBJETIVO: Avaliar a continuidade da linha virtual criada pelo Ensite em modelo suíno. MÉTODOS: Realizamos ablação linear por RF (cateter de 8 mm e irrigado) em ambos os átrios de 14 suínos (35 kg) guiada pelo EnSite. Os animais foram sacrificados 14 dias pós-ablação para análise macroscópica e histológica. RESULTADOS: Foram confeccionadas 23 lesões lineares em átrio direito e 21 em átrio esquerdo dos 14 animais. A potência, temperatura e impedância médias das aplicações foram de 56 W, 54 ºC e 231 Ω para o cateter de 8mm, e de 39 W, 37 ºC e 194 Ω para o cateter irrigado. Todas (100%) as linhas foram identificadas nas faces epicárdica e endocárdica, denotando transmuralidade. À macroscopia, as lesões eram extensas e pálidas, com 3,61 cm de comprimento e 0,71 cm de profundidade e contínuas. A transmuralidade das lesões foi confirmada pela microscopia. Houve correspondência na localização das linhas do mapa virtual com as da peça anatômica em 21 das 23 (91,3%) das linhas do átrio direito e 19/21 (90,4%) do átrio esquerdo. CONCLUSÃO: Nesse modelo, as linhas criadas no mapa virtual pelo sistema EnSiteNavX se correlacionam a lesões lineares transmurais contínuas na peça anatômica, sugerindo que esse método é adequado para a ablação linear da fibrilação atrial.
Resumo:
FUNDAMENTO: A ablação por cateter possibilita tratamento curativo para diversas arritmias cardíacas. A fluoroscopia é utilizada para localizar e direcionar os cateteres aos pontos causadores de arritmias. Contudo, a fluoroscopia apresenta diversos riscos. O mapeamento eletroanatômico (MEA) apresenta imagem tridimensional sem utilizar raios X, reduzindo os riscos da fluoroscopia. OBJETIVO: Descrevemos uma série de pacientes nos quais foi realizada ablação de arritmias cardíacas com o uso exclusivo de MEA. MÉTODOS: Foram selecionados prospectivamente, de março de 2011 a março de 2012, pacientes com arritmias cardíacas refratárias ao tratamento farmacológico para realização de ablação de arritmias com o uso exclusivo de MEA. Não participaram aqueles com indicação de estudo eletrofisiológico diagnóstico e ablação de fibrilação atrial, taquiarritmias de átrio esquerdo e arritmia ventricular hemodinamicamente instável. Observamos tempo total de procedimento, taxa de sucesso, complicações e se ocorreu necessidade de uso de fluoroscopia durante o procedimento. RESULTADOS: Participaram 11 pacientes, sendo sete do sexo feminino (63%), com idade média de 50 anos (DP ± 16,5). As indicações dos procedimentos foram quatro casos (35%) de flutter atrial, três casos (27%) de síndrome de pré-excitação, dois casos (19%) de taquicardia supraventricular paroxística e dois casos (19%) de extrassístoles ventriculares. A média de duração do procedimento foi de 86,6 min (DP ± 26 min). O sucesso imediato (na alta hospitalar) do procedimento ocorreu em nove pacientes (81%). Não houve complicações durante os procedimentos. CONCLUSÃO: Neste estudo, foi demonstrado que é viável a realização de ablação de arritmias apenas com o uso do MEA, com resultados satisfatórios.
Resumo:
Fundamento: A ablação por cateter de radiofrequência guiada por mapeamento eletroanatômico é, atualmente, uma importante opção terapêutica para o tratamento da fibrilação atrial. A complexidade do procedimento, as diferentes técnicas e a diversidade de pacientes dificultam a reprodução dos resultados bem como a indicação do procedimento. Objetivo: Avaliar a eficácia e os fatores relacionados à recorrência de fibrilação atrial. Métodos: Estudo de coorte prospectivo com pacientes consecutivos submetidos ao tratamento de fibrilação atrial por ablação e mapeamento eletroanatômico. Foram incluídos os seguintes pacientes: idade acima de 18 anos; portadores de fibrilação atrial paroxística, persistente ou persistente de longa duração; com registro de fibrilação atrial em eletrocardiograma, Holter ou ergometria (duração > 15 minutos); com sintomas associados aos episódios de fibrilação atrial; e apresentando refratariedade a, pelo menos, duas drogas antiarrítmicas (entre elas amiodarona) ou impossibilidade do uso de drogas antiarrítmicas. Resultados: Foram incluídos 95 pacientes (idade 55 ± 12 anos, 84% homens, CHADS2 médio = 0,8) que realizaram 102 procedimentos com seguimento mediano de 13,4 meses. A taxa livre de recorrência após o procedimento foi de 75,5% após 12 meses. Os pacientes portadores de fibrilação atrial paroxística e fibrilação atrial persistente apresentaram recorrência de 26,9% versus 45,8% dos pacientes portadores de fibrilação atrial persistente de longa duração (p = 0,04). Das variáveis analisadas, o tamanho do átrio esquerdo demonstrou ser preditor independente de recorrência de fibrilação atrial após o procedimento (HR = 2,58, IC95% = 1,36-4,89). Houve complicações em 4,9% dos procedimentos. Conclusão: A ablação de fibrilação atrial guiada por mapeamento eletroanatômico demonstrou ser um procedimento com boa eficácia. O aumento do tamanho do átrio esquerdo foi associado à recorrência de fibrilação atrial.