999 resultados para Bancos - Processamento de dados


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia de Eletrónica e Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução – A cintigrafia de perfusão do miocárdio (CPM) desempenha um importante papel no diagnóstico, avaliação e seguimento de pacientes com doença arterial coronária, sendo o seu processamento realizado maioritariamente de forma semiautomática. Uma vez que o desempenho dos técnicos de medicina nuclear (TMN) pode ser afetado por fatores individuais e ambientais, diferentes profissionais que processem os mesmos dados poderão obter diferentes estimativas dos parâmetros quantitativos (PQ). Objetivo – Avaliar a influência da experiência profissional e da função visual no processamento semiautomático da CPM. Analisar a variabilidade intra e interoperador na determinação dos PQ funcionais e de perfusão. Metodologia – Selecionou-se uma amostra de 20 TMN divididos em dois grupos, de acordo com a sua experiência no software Quantitative Gated SPECTTM: Grupo A (GA) – TMN ≥600h de experiência e Grupo B (GB) – TMN sem experiência. Submeteram-se os TMN a uma avaliação ortóptica e ao processamento de 21 CPM, cinco vezes, não consecutivas. Considerou-se uma visão alterada quando pelo menos um parâmetro da função visual se encontrava anormal. Para avaliar a repetibilidade e a reprodutibilidade recorreu-se à determinação dos coeficientes de variação, %. Na comparação dos PQ entre operadores, e para a análise do desempenho entre o GA e GB, aplicou-se o Teste de Friedman e de Wilcoxon, respetivamente, considerando o processamento das mesmas CPM. Para a comparação de TMN com visão normal e alterada na determinação dos PQ utilizou-se o Teste Mann-Whitney e para avaliar a influência da visão para cada PQ recorreu-se ao coeficiente de associação ETA. Diferenças estatisticamente significativas foram assumidas ao nível de significância de 5%. Resultados e Discussão – Verificou-se uma reduzida variabilidade intra (<6,59%) e inter (<5,07%) operador. O GB demonstrou ser o mais discrepante na determinação dos PQ, sendo a parede septal (PS) o único PQ que apresentou diferenças estatisticamente significativas (zw=-2,051, p=0,040), em detrimento do GA. No que se refere à influência da função visual foram detetadas diferenças estatisticamente significativas apenas na fração de ejeção do ventrículo esquerdo (FEVE) (U=11,5, p=0,012) entre TMN com visão normal e alterada, contribuindo a visão em 33,99% para a sua variação. Denotaram-se mais diferenças nos PQ obtidos em TMN que apresentam uma maior incidência de sintomatologia ocular e uma visão binocular diminuída. A FEVE demonstrou ser o parâmetro mais consistente entre operadores (1,86%). Conclusão – A CPM apresenta-se como uma técnica repetível e reprodutível, independente do operador. Verificou-se influência da experiência profissional e da função visual no processamento semiautomático da CPM, nos PQ PS e FEVE, respetivamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Mestre Adalmiro Álvaro Malheiro de Castro Andrade Pereira.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os sensores hiperespectrais que estão a ser desenvolvidos para aplicações em detecção remota, produzem uma elevada quantidade de dados. Tal quantidade de dados obriga a que as ferramentas de análise e processamento sejam eficientes e tenham baixa complexidade computacional. Uma tarefa importante na detecção remota é a determinação das substâncias presentes numa imagem hiperespectral e quais as suas concentrações. Neste contexto, Vertex component analysis (VCA), é um método não-supervisionado recentemente proposto que é eficiente e tem a complexidade computacional mais baixa de todos os métodos conhecidos. Este método baseia-se no facto de os vértices do simplex corresponderem às assinaturas dos elementos presentes nos dados. O VCA projecta os dados em direcções ortogonais ao subespaço gerado pelas assinaturas das substâncias já encontradas, correspondendo o extremo desta projecção à assinatura da nova substância encontrada. Nesta comunicação apresentam-se várias optimizações ao VCA nomeadamente: 1) a introdução de um método de inferência do sub-espaço de sinal que permite para além de reduzir a dimensionalidade dos dados, também permite estimar o número de substâncias presentes. 2) projeção dos dados é executada em várias direcções para garantir maior robustez em situações de baixa relação sinal-ruído. As potencialidades desta técnica são ilustradas num conjunto de experiências com dados simulados e reais, estes últimos adquiridos pela plataforma AVIRIS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Civil

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivos: Os objetivos deste estudo incluem (1) encontrar a prevalência da PDC em crianças com diagnóstico de PHDA entre os 7 e os 14 anos, com recurso ao BOTMP e ao DCDQ’07; (2) analisar o desempenho de crianças com PHDA ao nível da velocidade de processamento e controlo inibitório e comparar o desempenho entre as crianças que só apresentam PHDA e aquelas que apresentam também PDC; (3) verificar se a ocorrência de PDC é agravada pela presença de alterações da velocidade de processamento e controlo inibitório e se estes podem ser considerados fatores de risco para a ocorrência de PDC. Métodos: A amostra foi composta por 37 crianças entre 7 e 14 anos, com PHDA. Os dados foram recolhidos na ULSNE num único momento de avaliação utilizando como instrumentos de avaliação o BOTMP, DCDQ’07, WISC (subteste pesquisa de símbolos e código), Stroop e FAB (prova Go-no-Go); Resultados: A Prevalência da PDC em crianças com PHDA foi de 51.4%, sendo a toma da medicação e o nascimento a termo fatores de proteção. As crianças apresentaram mais dificuldades no controlo inibitório que na velocidade de processamento, sendo este um fator de agravamento para o desenvolvimento da PDC em crianças com PHDA. Verificou-se ainda que crianças com PHDA com comorbilidade de PDC têm pior resultados na velocidade de processamento e no controlo inibitório do que quando apenas há PHDA. Conclusão: Podemos concluir que as crianças com PHDA apresentam, na sua maioria, dificuldades motoras, havendo uma comorbilidade elevada com PDC. Os défices na velocidade de processamento e controlo inibitório poderão ser causa das dificuldades apresentadas por estas crianças no domínio motor. Existe a necessidade de novas perspetivas de programas de reabilitação que deem ênfase ao domínio motor em crianças com perturbação do desenvolvimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Efetuaram os autores investigação preliminar sobre a utilidade selecionadora, em Bancos de Sangue, da reação sérica de imunofluorescência indireta para o diagnóstico da malária, relativamente ao reconhecimento de doadores eventualmente capazes de transmitir essa infecção, através da hemoterapia. O estudo correspondeu à execução da citada prova laboratorial com o soro de 192 pessoas não selecionadas e que se apresentaram á doação. O confronto dos resultados com as informações prestadas pelos indivíduos em questão, indicou especificidade destacável, paralelamente à sensibilidade não integral, pelo menos com base nos dados fornecidos a próposito dos interrogatórios. Salientaram a conveniência de realizar pesquisa mais intensiva e profunda sobre o assunto, a fim de que possam ficar melhor e mais detalhadamente avaliados os fatos registrados na análise sumária que levaram a efeito.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica