1000 resultados para Anàlisi espectral
Resumo:
Objectivo: Avaliar a espessura da coróide na área macular em doentes com oclusão de ramo venoso da retina (ORVR) unilateral através de tomografia de coerência óptica de domínio espectral (SD-OCT) em modo enhanced depth imaging (EDI). Material e Métodos: Estudo retrospectivo não randomizado que incluiu 34 olhos de 17 doentes com ORVR unilateral (média de idade 68,6 ± 11,2 anos). Foi realizada análise estatística para comparar a espessura da coróide através de 3 medições (subfoveal e 750 µm temporal e nasal à fóvea) em cada uma de 7 linhas nos 15⁰x5⁰ centrais à fóvea para cada um dos olhos afectados e adelfos (21 medições em cada). Foi ainda realizada comparação entre a espessura macular central da retina e a espessura da coróide, para além da relação entre esta última e o tempo de evolução. Relacionou-se ainda a idade com a espessura da coróide no grupo controlo. Resultados: A média da espessura da coróide nos 17 olhos com ORVR foi de 211,8 ±55,97µm, o que foi superior à média verificada nos 17 olhos adelfos (185,7±46,1µm), sendo a diferença estatisticamente significativa (p⁼0,019). A coróide foi mais espessa a nível subfoveal (197,5±40,3µm) e mais delgada a nível nasal (176,9±54,9µm) no grupo controlo. Não se demonstrou haver relação entre o tempo de evolução e a espessura da coróide nos olhos com ORVR. Por outro lado houve relação entre a espessura da coróide e a espessura macular central (r⁼0,6; r²⁼0,36). Verificou-se uma correlação negativa, embora fraca, entre a idade e a espessura da coróide no grupo controlo (r⁼⁻0,022). Conclusões: A espessura da coróide pode ser avaliada através do EDI SD-OCT. Segundo alguns relatos, a mesma parece diminuir com a idade, tendência essa que se revelou também neste estudo. Tal como verificado na única publicação sobre a espessura da coróide na OVCR, demonstrou-se haver alteração na espessura da coróide na área macular em olhos com ORVR. Contudo são necessários mais estudos, com amostras maiores, que confirmem a alteração desta camada em olhos com ORVR e investiguem a sua influência na fisiopatologia da doença, no prognóstico visual e na resposta ao tratamento.
Resumo:
Dissertação apresentada à Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Doutor em Engenharia Civil
Resumo:
Dissertação de Mestrado em Gestão do Território, Especialização em Detecção Remota e Sistemas de Informação Geográfica
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica
Resumo:
Dissertação para obtenção do Grau de Mestre em Energias Renováveis – Conversão Eléctrica e Utilização Sustentável
Resumo:
Os desenvolvimentos dos sistemas de comunicação sem fios apontam para transmissões de alta velocidade e alta qualidade de serviço com um uso eficiente de energia. Eficiência espectral pode ser obtida por modulações multinível, enquanto que melhorias na eficiência de potência podem ser proporcionadas pelo uso de códigos corretores de erros. Os códigos Low-Density Parity-Check (LDPC), devido ao seu desempenho próximo do limite de Shannon e baixa complexidade na implementação e descodificação são apropriados para futuros sistemas de comunicações sem fios. Por outro lado, o uso de modulações multinível acarreta limitações na amplificação. Contudo, uma amplificação eficiente pode ser assegurada por estruturas de transmissão onde as modulações multinível são decompostas em submodulações com envolvente constante que podem ser amplificadas por amplificadores não lineares a operar na zona de saturação. Neste tipo de estruturas surgem desvios de fase e ganho, produzindo distorções na constelação resultante da soma de todos os sinais amplificados. O trabalho foca-se no uso dos códigos LDPC em esquemas multiportadora e monoportadora, com especial ênfase na performance de uma equalização iterativa implementada no domínio da frequência por um Iterative Block-Decision Feedback Equalizer (IB-DFE). São analisados aspectos como o impacto do número de iterações no processo de descodificação dentro das iterações do processo de equalização. Os códigos LDPC também serão utilizados para compensar os desvios de fase em recetores iterativos para sistemas baseados em transmissores com vários ramos de amplificação. É feito um estudo sobre o modo como estes códigos podem aumentar a tolerância a erros de fase que incluí uma análise da complexidade e um algoritmo para estimação dos desequilíbrios de fase.
Resumo:
O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.
Classificação da ocupação do solo através da segmentação de uma imagem de satélite de alta resolução
Resumo:
Este caso de estudo tem como objetivo demonstrar a utilidade da utilização de imagens de satélite de alta resolução para a produção de cartografia temática em áreas urbanas, bem como, experimentar a extracção de elementos de uma imagem de alta resolução a partir de protocolos de segmentação, aplicando uma abordagem orientada por regiões, e recorrendo a dados de uma cena do satélite WorldView2 com as suas novas 4 bandas adicionais. Definiu-se uma nomenclatura de ocupação de solo com base na fotointerpretação da imagem, criou-se uma legenda hierarquizada por 3 níveis de desagregação. No primeiro nível incluiu-se sete classes, no segundo nível as classes foram classificadas pelo nome dos objetos identificados na fotointerpretação, e o terceiro nível foram classificados pelas características dos objetos definidos no nível anterior. Foram criados segmentos de treino através do algoritmo da segmentação, que tem como função criar segmentos vetoriais com base na similaridade espectral e no valor espectral dos conjuntos dos pixéis vizinhos, testou-se varios parâmetros de segmentação de modo a obter o nível de segmentação que visivelmente na imagem se aproximasse mais aos objetos reconhecidos, para assim se gerar as assinaturas espectrais dos objetos representados pela segmentação, procedendo-se à classificação de ocupação de solo baseada nos segmentos.
Resumo:
A utilização dos carvões activados na remoção compostos poluentes dos efluentes urbanos tem demonstrado ser um processo cada vez mais económico e eficaz, sendo por isso muito utilizado no sector de tratamento e purificação de águas de abastecimento. O principal objectivo desta dissertação foi aplicar espectroscopia UV-Vis in situ no processo de adsorção em fase líquida de PPCP’s, nomeadamente cafeína e paracetamol. Nesta nova abordagem de medição e procedimento experimental, tiveram de se ter em conta vários factores e estudar o seu efeito durante o processo de adsorção. Um destes factores é a presença do carvão durante a medição da absorvância em espectroscopia. Deste modo, foram realizadas medições ao longo do tempo em soluções de carvão activado para determinar qual a sua interferência na medição e os motivos de tal comportamento. Verificou-se também que a forma, a quantidade e a agitação do carvão também influenciam os resultados de espectroscopia. Aplicando este novo método de medição, foi necessário adaptar a lei de Lambert-Beer para calcular os valores de concentração das espécies em solução, eliminando o erro na medição, provocado pela presença do carvão. Deste modo, o método de decomposição espectral foi aplicado e verificou-se que apenas as concentrações de carvão calculadas não correspondem aos valores reais em solução, apenas a sua variação demostra a evolução da interferência do adsorvente na medição dos valores de absorvância. No estudo cinético de adsorção dos solutos foi usado um carvão comercial tanto em pó como em formato granular. Durante o processo de adsorção em carvão granular verificou-se que a velocidade de adsorção foi menor, provavelmente devido à maior dificuldade de acesso aos poros, provocada pela complexidade da estrutura. Contudo, registou-se sempre uma remoção completa do soluto neste carvão, uma vez que a quantidade mínima possível nestes ensaios de carvão NOG é de 2,5mg, sendo uma quantidade relativamente superior à necessária para remover o soluto completamente da solução. Num pequeno estudo de adsorção de cafeína em carvões de diferentes origens confirmou-se que a eficiência de remoção do soluto é proporcional ao volume total de poros e deduz-se que a sua velocidade de adsorção está relacionada com a presença de mesoporosidade. Comparando a eficiência de remoção e a velocidade de adsorção dos dois solutos pelo mesmo carvão, observou-se que a adsorção da cafeína é mais rápida. Apesar dos valores de solubilidade e de volume molecular não justificarem de imediato este resultado, a cafeína tem maior afinidade com o carvão comercial, sugerindo a existência de propriedades químicas e texturais do carvão que levam a estes resultados. Por último, efectuou-se um estudo de adsorção de misturas para verificar a hipótese de adsorção competitiva entre os solutos. Após a realização dos ensaios verificou-se que não existe competição significativa entre a cafeína e o paracetamol.
Resumo:
Este estudo avaliou a concordância entre o diagnóstico clínico e o diagnóstico laboratorial da hanseníase, utilizando os resultados de biópsias dos laboratórios A e B e o teste ML-Flow. A concordância diagnóstica clínico-histopatológica foi de 67,6%. Os laboratórios apresentaram um índice de concordância de 73,7% em relação ao índice baciloscópico, e o laboratório B detectou 25,4% a mais de casos positivos. A maior concordância foi obtida para a forma V, e a menor para a forma I. A maior discrepância diagnóstica ocorreu para a forma DD. A concordância clínico-laboratorial foi de 41,3% para o laboratório A e 54% para o B. O teste ML-Flow reclassificou 10,7% dos pacientes. A classificação espectral é importante para o melhor entendimento da doença e para seu tratamento adequado, mas não é utilizada em centros de saúde, que adotam os critérios simplificados da OMS, que poderiam ser complementados pelo teste ML-Flow. Tal simplificação é inaceitável para os Centros de Referência em assistência, ensino e pesquisa em hanseníase, de modo que é recomendada a padronização pela classificação de Ridley-Jopling.
Resumo:
A hanseníase é uma doença infectocontagiosa espectral que acompanha-se por uma série de eventos imunológicos desencadeados pela resposta do hospedeiro frente ao agente etiológico, o Mycobacterium leprae. Evidências sugerem que a indução e manutenção da resposta imune/inflamatória na hanseníase estão vinculadas a interações de múltiplas células e fatores solúveis, particularmente através da ação de citocinas. Nesse estudo, foram mensurados níveis de IL-1β e IL-1Ra de 37 casos novos de hanseníase acompanhados ao longo do tratamento e 30 controles sadios pelo teste ELISA. A coleta de sangue periférico foi realizada em quatro tempos para os casos de hanseníase (pré-tratamento com PQT, 2ª dose, 6ª dose e pós-PQT) e em único momento para os controles. Na comparação dos níveis das moléculas de casos no pré-PQT e controles, houve diferença estatisticamente significativa somente para IL-1β. Nossos resultados sugerem a participação dessa citocina no processo imune/inflamatório.
Resumo:
O aumento do volume de tráfego gerado em redes sem fios e a elevada taxa de ocupação do espectro Rádio-Eléctrico tem levado à procura e desenvolvimento de sistemas de elevada eficiência espectral. Recentemente, diversos grupos de investigação têm abordado a possibilidade de um dispositivo sem fios transmitir e receber dados em simultâneo na mesma banda. Estes dispositivos enquadram-se nos denominados “sistemas de comunicação Full-Duplex”, os quais, no limite, podem duplicar a capacidade da rede, quando comparados aos sistemas Half-Duplex. A grande dificuldade de implementação destes sistemas está associada ao cancelamento da auto-interferência. Esta interferência é provocada pela transmissão do próprio nó e, uma vez que apresenta uma potência muito superior à do sinal transmitido por outro dispositivo, impossibilita a captura desse sinal. Para permitir a transmissão e recepção de dados em simultâneo, os dispositivos Full-Duplex utilizam mecanismos de cancelamento do sinal auto-interferente, reduzindo-o para valores de potência próximos do nível de ruído. Nesta dissertação são abordados diversos tipos de mecanismos de redução da autointerferência, caracterizando as suas vantagens, desvantagens e limitações de utilização. De forma a estudar o funcionamento dos sistemas Full-Duplex, é caracterizado o efeito residual do cancelamento da auto-interferência e a capacidade de transmissão deste tipo de sistemas, incluindo a capacidade de recepção de múltiplos pacotes. Por fim, é proposto um protocolo de acesso ao meio para cenários onde vários dispositivos desejam comunicar com um nó receptor, utilizando um sistema de comunicação Full-Duplex.
Resumo:
Os sistemas de comunicação sem fios são sistemas de difusão por natureza. Devido a essa sua natureza, um dos problemas inerentes à mesma deve-se à segurança e ao secretismo, pois se o canal é partilhado a informação facilmente é obtida por um utilizador não autorizado, ao contrário dos sistemas de comunicação com fios. Tradicionalmente, a introdução de segurança em sistemas de comunicação, resulta na encriptação da informação, resultante de protocolos de encriptação. No entanto, a segurança através da criptografia baseia-se na premissa de que o utilizador não autorizado tem uma capacidade de processamento limitada, pois senão poderia simplesmente tentar todas as combinações possíveis e obter a chave de encriptação. Como a capacidade de processamento tem crescido exponencialmente, este tipo de sistemas tem se tornado cada vez mais complexos para não se tornarem obsoletos. A introdução de segurança na camada física torna-se então uma opção apelativa pois pode servir como um complemento, visto que os sistemas de criptografia funcionam em camadas superiores independentes da camada fisica, apresentando assim uma abordagem multi-camada em termos de segurança. Tipicamente as técnicas de segurança no nível físico podem se agrupar em 2 tipos: técnicas que se baseiam em códigos, ou técnicas que exploram variações temporais e espaciais do canal. As primeiras diminuem a eficiência espectral do sistema, e as segundas apresentam bons resultados em ambientes dinâmicos, mas em ambientes estáticos não são muito promissores. Há também a necessidade de aumentar as taxas de transmissão nos próximos sistemas de comunicação. Devido a estes requisitos, uma das tecnologias propostas para a nova geração de comunicações, é uma tecnologia baseada numa arquitectura Multiple-Input-Multiple-Output(MIMO). Esta tecnologia é promissora e consegue atingir taxas de transferências que correspondem aos requisitos propostos. Apresenta-se assim uma nova técnica de segurança no nível físico, que explora as caracteristicas físicas do sistema, como um complemento a outras medidas de segurança em camadas mais altas. Esta técnica não provoca diminuição da eficiência espectral e é independente do canal, o que tenta solucionar os problemas das restantes técnicas já existentes.
Resumo:
A técnica de análise derivativa de dados espectrais foi usada para estudar a variação dos constituintes opticamente ativos (COAs) na água, por meio de dados de campo e de imagens do sensor orbital Hyperion/EO-1. A imagem Hyperion usada neste estudo foi adquirida no dia 23 de junho de 2005, no final do período de cheia. Uma campanha de campo foi realizada entre 23 e 29 de junho de 2005, para coletar dados espectrais e limnológicos in situ. A imagem foi pré-processada visando eliminar faixas de pixels anômalos e convertida de valores de radiância para reflectância de superfície, portanto, corrigidos dos efeitos de absorção e espalhamento atmosféricos. Uma análise da correlação foi realizada para examinar a associação da reflectância e de sua primeira derivada espectral com as concentrações dos COAs. Melhores resultados foram obtidos após a diferenciação dos espectros, o que ajudou a reduzir a influência de efeitos indesejáveis, provindos de diferentes fontes de radiância, sobre as medidas de reflectância da superfície da água realizadas em ambos os níveis de aquisição de dados. Por meio de ajustes de regressões empíricas, considerando o conjunto de dados Hyperion, a primeira derivada espectral em 711 nm explicou 86% da variação da concentração de sedimentos inorgânicos em suspensão (µg.l-1) e a primeira derivada espectral em 691 nm explicou 73% da variação na concentração da clorofila-alfa (µg.l-1). As relações de regressão foram não-lineares, pois, em geral, as águas que se misturam na planície de inundação Amazônica se tornam opticamente complexas. A técnica de análise derivativa hiperespectral demonstrou potenciais para mapear a composição dessas águas.
Resumo:
OBJETIVO: Em ausência de alterações estruturais miocárdicas (AEM), avaliar se o bloqueio de ramo direito (BRD) gera potenciais fragmentados (PF) e turbulência espectral (TE) no eletrocardiograma de alta resolução (ECGAR). MÉTODOS: Doze crianças com comunicação inter-atrial (CIA) e bloqueio incompleto do ramo direito (BIRD) sem AEM (Grupo I), foram comparadas com 17 crianças com tetralogia de Fallot (TF) operada, BCRD e AEM, 5 com extra sístoles ventriculares e 2 com taquicardia ventricular sustentada (Grupo II). Todas fizeram ECGAR nos domínios do tempo (DT) e da freqüência (DF), com cinco variáveis analisadas. RESULTADOS: Os pacientes do grupo I tiveram as variáveis normais apesar do BIRD. No grupo II, 4 das cinco variáveis foram anormais, sugerindo a presença de PF e TE atribuíveis a AEM inerentes à malformação e ao ato cirúrgico. CONCLUSÃO: Na CIA o BIRD não complicado de AEM não gera PF e TE, não constituindo fator de risco para taquicardia ventricular sustentada.