999 resultados para Matematica - Processamento de dados


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Civil

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivos: Os objetivos deste estudo incluem (1) encontrar a prevalência da PDC em crianças com diagnóstico de PHDA entre os 7 e os 14 anos, com recurso ao BOTMP e ao DCDQ’07; (2) analisar o desempenho de crianças com PHDA ao nível da velocidade de processamento e controlo inibitório e comparar o desempenho entre as crianças que só apresentam PHDA e aquelas que apresentam também PDC; (3) verificar se a ocorrência de PDC é agravada pela presença de alterações da velocidade de processamento e controlo inibitório e se estes podem ser considerados fatores de risco para a ocorrência de PDC. Métodos: A amostra foi composta por 37 crianças entre 7 e 14 anos, com PHDA. Os dados foram recolhidos na ULSNE num único momento de avaliação utilizando como instrumentos de avaliação o BOTMP, DCDQ’07, WISC (subteste pesquisa de símbolos e código), Stroop e FAB (prova Go-no-Go); Resultados: A Prevalência da PDC em crianças com PHDA foi de 51.4%, sendo a toma da medicação e o nascimento a termo fatores de proteção. As crianças apresentaram mais dificuldades no controlo inibitório que na velocidade de processamento, sendo este um fator de agravamento para o desenvolvimento da PDC em crianças com PHDA. Verificou-se ainda que crianças com PHDA com comorbilidade de PDC têm pior resultados na velocidade de processamento e no controlo inibitório do que quando apenas há PHDA. Conclusão: Podemos concluir que as crianças com PHDA apresentam, na sua maioria, dificuldades motoras, havendo uma comorbilidade elevada com PDC. Os défices na velocidade de processamento e controlo inibitório poderão ser causa das dificuldades apresentadas por estas crianças no domínio motor. Existe a necessidade de novas perspetivas de programas de reabilitação que deem ênfase ao domínio motor em crianças com perturbação do desenvolvimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação apresenta o estudo de dois carbonizados, provenientes da gasificação (CG) e co-pirólise (CP) de resíduos da cultura e processamento de arroz, no processo de remoção de Cr3+ presente em meio líquido. Os materiais de partida – casca de arroz (CA) e polietileno (PE) – utilizados nos ensaios de gasificação e co-pirólise, e os carbonizados resultantes destes processos térmicos, foram caracterizados através de ensaios físicos, químicos e ecotoxicológicos. O elemento químico com maior concentração, em todos os materiais, foi o Si. Nenhum dos eluatos revelou ecotoxicidade. No estudo de remoção de Cr3+ com os dois carbonizados avaliaram-se os efeitos dos seguintes parâmetros: pH inicial da solução, massa de adsorvente, tempo de contacto e concentração inicial de Cr3+. O carbonizado que teve o melhor desempenho na remoção de Cr3+ foi o CG, com remoções de cerca de 100%, devido ao aumento de pH, que provocou a precipitação do Cr. A capacidade de adsorção deste carbonizado variou entre 12 e 26 mg Cr3+.mg-1 CG, para uma concentração inicial aproximada de Cr3+ de 50 mg.L-1, pH inicial de 5, tempo de contacto de 24 horas e razões L/S entre 800 e 1000 mL. g-1. Foram aplicados os modelos cinéticos de pseudo-primeira ordem e pseudo-segunda ordem, e as isotérmicas de Langmuir, Freundlich e Sips. Observou-se um melhor ajustamento da cinética de pseudo-segunda ordem para CG. No CP verificou-se que ambos os modelos cinéticos se ajustavam aos dados experimentais. No CG observou-se que as isotérmicas de Freundlich e Sips apresentaram os melhores ajustamentos. Foi realizado um estudo dos mecanismos de adsorção para o CG e verificou-se que a troca iónica foi o fenómeno predominante. A avaliação ecotoxicológica das soluções contendo Cr, antes e após o ensaio de adsorção, indicou que o CG promoveu uma redução acentuada da ecotoxicidade das soluções até um nível não detetável.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cabo Verde desde do século passado tem envidado esforço na florestação, sobretudo depois de 1975 para atenuar os efeitos da seca e da desertificação criando deste modo grandes áreas arborizadas. Entretanto, à medida que os recursos florestais foram sendo criados, a problemática da sua avaliação e da sua gestão sustentável, passaram a merecer maior atenção das autoridades nacionais. A lei florestal, promulgada em 1998 define como uma das atribuições e acções do Estado, através dos serviços florestais, a elaboração dos planos de gestão das zonas florestais. Este plano de gestão implica a análise e a apreciação de dados concretos e actualizados sobre a situação real das zonas florestais, sendo possível apenas através do inventário florestal nacional (IFN). Neste trabalho é proposta uma metodologia de processamento do IFN em que se utilizam as potencialidades dos Sistemas de Informação Geográfica (SIG). Foram utilizados para este trabalho os programas: ArcGis 9.1, para produção cartográfica, geoprocessamento e análise espacial e o Field-Map 8.1 para a classificação de ortofotos num esquema de classificação hierárquica, em cinco níveis, adaptado a Cabo Verde (classes de uso do solo adoptado ao esquema de classificação do território europeu – CORINE Land Cover e da Organização das Nações Unidas para a Agricultura e Alimentação (FAO). Os dados utilizados foram compilados no âmbito do projecto do inventário florestal. Os resultados obtidos, para a Ilha de Santiago, constituem uma base cartográfica para o IFN com diversos temas cartográficos, nomeadamente, mapas das zonas florestadas, mapas de ocupação do solo e mapas de amostras inventariáveis cuja metodologia de elaboração poderá ser facilmente replicada para as restantes ilhas do arquipélago

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cabo Verde desde do século passado tem envidado esforço na florestação, sobretudo depois de 1975 para atenuar os efeitos da seca e da desertificação criando deste modo grandes áreas arborizadas. Entretanto, à medida que os recursos florestais foram sendo criados, a problemática da sua avaliação e da sua gestão sustentável, passaram a merecer maior atenção das autoridades nacionais. A lei florestal, promulgada em 1998 define como uma das atribuições e acções do Estado, através dos serviços florestais, a elaboração dos planos de gestão das zonas florestais. Este plano de gestão implica a análise e a apreciação de dados concretos e actualizados sobre a situação real das zonas florestais, sendo possível apenas através do inventário florestal nacional (IFN). Neste trabalho é proposta uma metodologia de processamento do IFN em que se utilizam as potencialidades dos Sistemas de Informação Geográfica (SIG). Foram utilizados para este trabalho os programas: ArcGis 9.1, para produção cartográfica, geoprocessamento e análise espacial e o Field-Map 8.1 para a classificação de ortofotos num esquema de classificação hierárquica, em cinco níveis, adaptado a Cabo Verde (classes de uso do solo adoptado ao esquema de classificação do território europeu – CORINE Land Cover e da Organização das Nações Unidas para a Agricultura e Alimentação (FAO). Os dados utilizados foram compilados no âmbito do projecto do inventário florestal. Os resultados obtidos, para a Ilha de Santiago, constituem uma base cartográfica para o IFN com diversos temas cartográficos, nomeadamente, mapas das zonas florestadas, mapas de ocupação do solo e mapas de amostras inventariáveis cuja metodologia de elaboração poderá ser facilmente replicada para as restantes ilhas do arquipélago.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo permitiu reforçar o conhecimento de que a informação é de facto um elemento de extrema importância para qualquer organização. Actualmente vivemos numa sociedade com uma acelerada produção e disseminação de informação a que muitos designam de Sociedade de Informação. Portanto, torna-se necessário que as organizações adoptem por “novas” formas de encarar a realidade. As TI desempenham um papel fundamental no processo de tomada de decisão nas organizações. Na perspectiva de Pinheiro (2006), a TI é uma combinação de processamento, procedimentos, pessoas e comunicações organizados, com o intuito de obter uma informação que atenda os objectivos da organização. A tecnologia de BD vem contribuir para a viabilização dos requisitos de correcção e actualização das informações, fornecendo meios e ferramentas para a extração de informação relevante, no tempo oportuno e em formato adequado, permitindo o melhor funcionamento dos SI. A tecnologia Web tem servido como um mecanismo de acesso à informação e serviços a escala mundial. Potenciam o desenvolvimento de SIW; sistemas que utilizam a Internet como um meio de acesso para utilizadores devidamente credenciados/autorizados de uma forma rápida, comoda, facilitando realizações de transacções, obtenção de serviços tanto a nível do sector privado como público, gerando mais oportunidades para todos os envolventes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A agilidade e eficiência de um bando de informação de um jornal são fundamentais para assegurar a atualidade e credibilidade do próprio jornal. Este artigo tem a finalidade de apresentar e descrever o funcionamento do Banco de Dados do jornal Zero Hora. Usando tecnologia avançada, seus sistemas de processamento, armazenamento, controle, recuperação e disseminação da informação permitem gerenciar as bases de dados e material informacional em texto e imagem