1000 resultados para Computação
Resumo:
Pretende-se, na presente dissertação, descrever o trabalho desenvolvido e os conhecimentos adquiridos no decorrer do projeto “iCOPE”, realizado no âmbito do curso de Mestrado em Engenharia de Computação e Instrumentação Médica. O projeto consistiu no desenvolvimento de um sistema aplicacional para o auxílio à prestação de serviços e cuidados de saúde a pacientes com doenças psicóticas tanto através de ferramentas de autogestão, como por funcionalidades que permitirão a um terapeuta monitorizar as ocorrências comunicadas pelos respetivos pacientes atribuídos. As tarefas à responsabilidade do autor desta dissertação compreenderam o levantamento e especificação de requisitos funcionais, o desenvolvimento das funcionalidades e interfaces de gestão de utilizadores e administração do sistema, o desenvolvimento das funcionalidades e interfaces para utilização pelos terapeutas e a criação de ferramentas para a instalação do servidor aplicacional central, existindo ainda cooperação no desenvolvimento de funcionalidades e interfaces para utilização pelos pacientes, nomeadamente ao nível da modelização da base de dados e na realização de testes e deteção de erros. Os resultados da avaliação das interfaces desenvolvidas, obtidos por meio da análise de respostas dadas por um grupo de potenciais utilizadores a um inquérito de usabilidade anónimo, demonstraram que estes estão satisfeitos com a solução implementada, havendo, no entanto, margem para futuros melhoramentos e incremento de funcionalidades.
Resumo:
BACKGROUND: Wireless capsule endoscopy has been introduced as an innovative, non-invasive diagnostic technique for evaluation of the gastrointestinal tract, reaching places where conventional endoscopy is unable to. However, the output of this technique is an 8 hours video, whose analysis by the expert physician is very time consuming. Thus, a computer assisted diagnosis tool to help the physicians to evaluate CE exams faster and more accurately is an important technical challenge and an excellent economical opportunity. METHOD: The set of features proposed in this paper to code textural information is based on statistical modeling of second order textural measures extracted from co-occurrence matrices. To cope with both joint and marginal non-Gaussianity of second order textural measures, higher order moments are used. These statistical moments are taken from the two-dimensional color-scale feature space, where two different scales are considered. Second and higher order moments of textural measures are computed from the co-occurrence matrices computed from images synthesized by the inverse wavelet transform of the wavelet transform containing only the selected scales for the three color channels. The dimensionality of the data is reduced by using Principal Component Analysis. RESULTS: The proposed textural features are then used as the input of a classifier based on artificial neural networks. Classification performances of 93.1% specificity and 93.9% sensitivity are achieved on real data. These promising results open the path towards a deeper study regarding the applicability of this algorithm in computer aided diagnosis systems to assist physicians in their clinical practice.
Resumo:
Computação gráfica um campo que tem vindo a crescer bastante nos últimos anos, desde áreas como cinematográficas, dos videojogos, da animação, o avanço tem sido tão grande que a semelhança com a realidade é cada vez maior. Praticamente hoje em dia todos os filmes têm efeitos gerados através de computação gráfica, até simples anúncios de televisão para não falar do realismo dos videojogos de hoje. Este estudo tem como objectivo mostrar duas alternativas no mundo da computação gráfica, como tal, vão ser usados dois programas, Blender e Unreal Engine. O cenário em questão será todo modelado de raiz e será o mesmo nos dois programas. Serão feitos vários renders ao cenário, em ambos os programas usando diferentes materiais, diferentes tipos de iluminação, em tempo real e não de forma a mostrar as várias alternativas possíveis.
Resumo:
Os Sistemas de Apoio à Tomada de Decisão em Grupo (SADG) surgiram com o objetivo de apoiar um conjunto de decisores no processo de tomada de decisão. Uma das abordagens mais comuns na literatura para a implementação dos SADG é a utilização de Sistemas Multi-Agente (SMA). Os SMA permitem refletir com maior transparência o contexto real, tanto na representação que cada agente faz do decisor que representa como no formato de comunicação utilizado. Com o crescimento das organizações, atualmente vive-se uma viragem no conceito de tomada de decisão. Cada vez mais, devido a questões como: o estilo de vida, os mercados globais e o tipo de tecnologias disponíveis, faz sentido falar de decisão ubíqua. Isto significa que o decisor deverá poder utilizar o sistema a partir de qualquer local, a qualquer altura e através dos mais variados tipos de dispositivos eletrónicos tais como tablets, smartphones, etc. Neste trabalho é proposto um novo modelo de argumentação, adaptado ao contexto da tomada de decisão ubíqua para ser utilizado por um SMA na resolução de problemas multi-critério. É assumido que cada agente poderá utilizar um estilo de comportamento que afeta o modo como esse agente interage com outros agentes em situações de conflito. Sendo assim, pretende-se estudar o impacto da utilização de estilos de comportamento ao longo do processo da tomada de decisão e perceber se os agentes modelados com estilos de comportamento conseguem atingir o consenso mais facilmente quando comparados com agentes que não apresentam nenhum estilo de comportamento. Pretende-se ainda estudar se o número de argumentos trocados entre os agentes é proporcional ao nível de consenso final após o processo de tomada de decisão. De forma a poder estudar as hipóteses de investigação desenvolveu-se um protótipo de um SADG, utilizando um SMA. Desenvolveu-se ainda uma framework de argumentação que foi adaptada ao protótipo desenvolvido. Os resultados obtidos permitiram validar as hipóteses definidas neste trabalho tendo-se concluído que os agentes modelados com estilos de comportamento conseguem na maioria das vezes atingir um consenso mais facilmente comparado com agentes que não apresentam nenhum estilo de comportamento e que o número de argumentos trocados entre os agentes durante o processo de tomada de decisão não é proporcional ao nível de consenso final.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Trabalho de Projeto apresentado como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ciências da Comunicação, variante de Cultura Contemporânea e Novas Tecnologias
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Hidrolases englobam um grupo de enzimas que catalisam a quebra de ligações covalentes em reação com água; entre elas estão as proteases, amilases, lipases, pectinases, celulases e catalases. Essas enzimas são muito importantes, com ampla utilização na indústria em geral. O solo é um ambiente muito rico e diverso em microrganismos, sendo considerado a maior fonte para obtenção de substâncias, enzimas e antibióticos, por exemplo. Com a metagenômica, passou a ser possível acessar melhor esse potencial microbiano, permitindo a descoberta de novos genes e biomoléculas. Neste estudo foram coletadas amostras de solos (0-10 cm de profundidade) do norte do Paraná visando buscar hidrolases microbianas funcionais. Foi realizada a extração do DNA de um Latossolo Vermelho Eutroférrico sob quatro manejos de solo e de culturas distintos e as amostras foram submetidas ao sequenciamento utilizando a plataforma 454 (Applied Science). As sequências de DNA foram comparadas com o banco de dados não redundante (NR) do NCBI (National Center for Biotechnology Information) e KEGG (Kyoto Encyclopedia of Genes and Genomes) para busca de similaridade com proteases, amilases, lipases, pectinases, celulases e catalases. A partir do DNA total foram realizadas reações de PCR (Polymerase Chain Reaction) com primers degenerados direcionados para a amplificação de pectinases, celulases e lacases e os produtos de PCR foram purificados com Purelink kit (Invitrogen®) e sequenciados (ABI 3500xL, Aplied Biosystems®). A comparação com as sequências do NCBI e KEGG resultou na identificação de 1.137 sequências com grande similaridade com a enzima lacase; 16.883 sequências para celulase; 2.001 para pectinase; 1.006 para amilase; e 3.725 para lipase. Esses resultados mostram que esses solos agrícolas representam uma fonte importante de recursos biológicos para aplicação industrial, principalmente de enzimas celulases. Até o presente momento, o sequenciamento de 26 produtos amplificados por PCR apresentou identidade para uma amostra, que foi identificada como a enzima celulase.
Resumo:
Tese de Doutoramento em Ciências da Comunicação
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
A Diabetes Mellitus Tipo2 é uma doença crónica que afecta sobretudo a população adulta e é responsável por mais de 90% dos casos de diabetes. A sua prevalência tem aumentado rapidamente, implicando elevados custos em saúde. Está normalmente associada a várias co-morbilidades e complicações, constituindo-se uma das principais causas de morbilidade e mortalidade no mundo. Em Portugal, dados dos Observatório Nacional da Diabetes revelam que, em 2012, cerca de 13% da população adulta sofria de diabetes (aproximadamente um milhão de pessoas), sendo a taxa de incidência anual de 500 novos casos por cada 100 000 habitantes. A amostra do estudo incluiu os doentes com DM2 com mais de 20 anos, num total de 205068 utentes registados nos centros de cuidados de saúde primários da ARSLVT e que residem na área de Lisboa e Vale do Tejo. O enfoque desta dissertação não é somente a exploração dos padrões geográficos da DM Tipo2 mas, sobretudo, a análise de sensibilidade e robustez das estatísticas espaciais utilizadas. Os objectivos são fundamentalmente metodológicos e passam pela aplicação de estatísticas espaciais, em ambiente ArcGIS®, GeoDaTM e linguagem de computação estatística R; pela reflexão em torno das medidas de dependência e de heterogeneidade geográfica e ainda pela análise quantitativa da irregularidade da distribuição espacial da DM Tipo2 na região de Lisboa, baseada em decisões decorrentes do estudo da sensibilidade e da robustez das estatísticas espaciais. A estrutura espacial dos dados foi estudada segundo matrizes de vizinhos mais próximos, fazendo variar o número de vizinhos (1 a 20). Uma vez definida a estrutura de vizinhança procurou-se traduzir o grau de similaridade espacial que existe entre áreas que são próximas, utilizando como medida o Índice Global de Moran. A identificação dos clusters espaciais foi feita através da aplicação das estatísticas de Anselin Local Moran´s I e Getis-Ord Gi*. Após aplicação das estatísticas referidas procurou-se avaliar, ao longo dos testes realizados, a percentagem de permanência das freguesias num cluster espacial. Da análise dos resultados, e tendo em conta os objectivos propostos, concluiu-se que o mapeamento de padrões espaciais é pouco sensível à variação dos parâmetros utilizados. As duas ferramentas de análise espacial utilizadas (análise de cluster e outlier - Anselin´s Local Moran´s I e análises de Hot spot - Getis-Ord Gi*), embora muito distintas, geraram resultados muito similares em termos de identificação da localização geográfica dos clusters para todas as variáveis. Desta forma, foi possível identificar alguns clusters, ainda que de um modo geral exista uma aleatoriedade espacial nos dados.