1000 resultados para Computação em nuvem


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hidrolases englobam um grupo de enzimas que catalisam a quebra de ligações covalentes em reação com água; entre elas estão as proteases, amilases, lipases, pectinases, celulases e catalases. Essas enzimas são muito importantes, com ampla utilização na indústria em geral. O solo é um ambiente muito rico e diverso em microrganismos, sendo considerado a maior fonte para obtenção de substâncias, enzimas e antibióticos, por exemplo. Com a metagenômica, passou a ser possível acessar melhor esse potencial microbiano, permitindo a descoberta de novos genes e biomoléculas. Neste estudo foram coletadas amostras de solos (0-10 cm de profundidade) do norte do Paraná visando buscar hidrolases microbianas funcionais. Foi realizada a extração do DNA de um Latossolo Vermelho Eutroférrico sob quatro manejos de solo e de culturas distintos e as amostras foram submetidas ao sequenciamento utilizando a plataforma 454 (Applied Science). As sequências de DNA foram comparadas com o banco de dados não redundante (NR) do NCBI (National Center for Biotechnology Information) e KEGG (Kyoto Encyclopedia of Genes and Genomes) para busca de similaridade com proteases, amilases, lipases, pectinases, celulases e catalases. A partir do DNA total foram realizadas reações de PCR (Polymerase Chain Reaction) com primers degenerados direcionados para a amplificação de pectinases, celulases e lacases e os produtos de PCR foram purificados com Purelink kit (Invitrogen®) e sequenciados (ABI 3500xL, Aplied Biosystems®). A comparação com as sequências do NCBI e KEGG resultou na identificação de 1.137 sequências com grande similaridade com a enzima lacase; 16.883 sequências para celulase; 2.001 para pectinase; 1.006 para amilase; e 3.725 para lipase. Esses resultados mostram que esses solos agrícolas representam uma fonte importante de recursos biológicos para aplicação industrial, principalmente de enzimas celulases. Até o presente momento, o sequenciamento de 26 produtos amplificados por PCR apresentou identidade para uma amostra, que foi identificada como a enzima celulase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento em Ciências da Comunicação

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Diabetes Mellitus Tipo2 é uma doença crónica que afecta sobretudo a população adulta e é responsável por mais de 90% dos casos de diabetes. A sua prevalência tem aumentado rapidamente, implicando elevados custos em saúde. Está normalmente associada a várias co-morbilidades e complicações, constituindo-se uma das principais causas de morbilidade e mortalidade no mundo. Em Portugal, dados dos Observatório Nacional da Diabetes revelam que, em 2012, cerca de 13% da população adulta sofria de diabetes (aproximadamente um milhão de pessoas), sendo a taxa de incidência anual de 500 novos casos por cada 100 000 habitantes. A amostra do estudo incluiu os doentes com DM2 com mais de 20 anos, num total de 205068 utentes registados nos centros de cuidados de saúde primários da ARSLVT e que residem na área de Lisboa e Vale do Tejo. O enfoque desta dissertação não é somente a exploração dos padrões geográficos da DM Tipo2 mas, sobretudo, a análise de sensibilidade e robustez das estatísticas espaciais utilizadas. Os objectivos são fundamentalmente metodológicos e passam pela aplicação de estatísticas espaciais, em ambiente ArcGIS®, GeoDaTM e linguagem de computação estatística R; pela reflexão em torno das medidas de dependência e de heterogeneidade geográfica e ainda pela análise quantitativa da irregularidade da distribuição espacial da DM Tipo2 na região de Lisboa, baseada em decisões decorrentes do estudo da sensibilidade e da robustez das estatísticas espaciais. A estrutura espacial dos dados foi estudada segundo matrizes de vizinhos mais próximos, fazendo variar o número de vizinhos (1 a 20). Uma vez definida a estrutura de vizinhança procurou-se traduzir o grau de similaridade espacial que existe entre áreas que são próximas, utilizando como medida o Índice Global de Moran. A identificação dos clusters espaciais foi feita através da aplicação das estatísticas de Anselin Local Moran´s I e Getis-Ord Gi*. Após aplicação das estatísticas referidas procurou-se avaliar, ao longo dos testes realizados, a percentagem de permanência das freguesias num cluster espacial. Da análise dos resultados, e tendo em conta os objectivos propostos, concluiu-se que o mapeamento de padrões espaciais é pouco sensível à variação dos parâmetros utilizados. As duas ferramentas de análise espacial utilizadas (análise de cluster e outlier - Anselin´s Local Moran´s I e análises de Hot spot - Getis-Ord Gi*), embora muito distintas, geraram resultados muito similares em termos de identificação da localização geográfica dos clusters para todas as variáveis. Desta forma, foi possível identificar alguns clusters, ainda que de um modo geral exista uma aleatoriedade espacial nos dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, há um aumento evidente dos produtos ou soluções sob medida, com o objectivo de melhor se adaptarem às necessidades dos perfis de clientes. Num outro contexto, existe um largo crescimento da presença da computação informática nas salas de aulas, de maneira a auxiliar o professor a cativar e motivar os alunos, através de jogos educativos. Contudo, nem todos os docentes têm conhecimentos informáticos avançados, então não têm forma de perso-nalizar jogos, o que beneficiaria as crianças com soluções adaptadas às suas necessidades. Com isto, foi idealizado um sistema, que assenta sobre uma framework de criação de jogos, e que possibilite a um utilizador com menos habilidades informáticas a possibilidade de criar um jogo. Apesar de existirem diversos jogos desse tipo, seria vantajoso um professor poder criar um jogo, personalizando-o de acordo com as necessidades do aluno e com as competências que se desejam desenvolver. Este sistema consiste numa interface em que o utilizador segue uma série de passos definidos, do qual resulta um ficheiro com todas as características de jo-go, que será depois importado para uma framework, permitindo assim a criação de diferentes jogos, desde que se enquadrem na mesma mecânica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Programação Genética (PG) é uma técnica de Aprendizagem de Máquina (Machine Learning (ML)) aplicada em problemas de otimização onde pretende-se achar a melhor solução num conjunto de possíveis soluções. A PG faz parte do paradigma conhecido por Computação Evolucionária (CE) que tem como inspiração à teoria da evolução natural das espécies para orientar a pesquisa das soluções. Neste trabalho, é avaliada a performance da PG no problema de previsão de parâmetros farmacocinéticos utilizados no processo de desenvolvimento de fármacos. Este é um problema de otimização onde, dado um conjunto de descritores moleculares de fármacos e os valores correspondentes dos parâmetros farmacocinéticos ou de sua atividade molecular, utiliza-se a PG para construir uma função matemática que estima tais valores. Para tal, foram utilizados dados de fármacos com os valores conhecidos de alguns parâmetros farmacocinéticos. Para avaliar o desempenho da PG na resolução do problema em questão, foram implementados diferentes modelos de PG com diferentes funções de fitness e configurações. Os resultados obtidos pelos diferentes modelos foram comparados com os resultados atualmente publicados na literatura e os mesmos confirmam que a PG é uma técnica promissora do ponto de vista da precisão das soluções encontradas, da capacidade de generalização e da correlação entre os valores previstos e os valores reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na atualidade existe a necessidade de produzir novos aviões de forma rápida, eficiente e económica com o objetivo de abrir novas rotas de voo, expansão das já existentes e substituição de aviões em fim de vida útil. Neste contexto, e sem nunca deixar de cumprir os apertados requisitos do domínio que incluem a exigência de elevada qualidade, a indústria adotou a arquitetura IMA que permite executar várias aplicações aviónicas num único sistema de computação partilhado. Com esta arquitetura, o desenvolvimento do software para as aeronaves ganhou uma elevada relevância, sendo necessário gerar código automaticamente, reutilizar código já testado proveniente de outras aplicações anteriormente desenvolvidas e garantir o mais cedo possível que o software desenvolvido se encontra de acordo com os standards. Apesar da complexidade do domínio, desenvolveu-se uma ferramenta que permite produzir a estrutura do código de novas aplicações para a aviónica. Aferramenta lida com a variabilidade das diversas linhas de produto e reduz o tempo de desenvolvimento. Uma DSL poderia ser uma solução apropriada, pois permite cobrir diversos requisitos exigidos, no entanto, esta solução não é exequível porque seria necessário produzir uma linguagem para cada configuração de software aviónico diferente se pretendêssemos tirar partido da especificidade. Com esta dissertação, solucionou-se esta dificuldade com recurso à noção de família de DSLs. Trata-se de um conjunto de linguagens para um domínio específico, que apresentam um conjunto comum de conceitos chave, mas que adaptam alguns desses conceitos para cumprir a variabilidade dos requisitos. Utilizou-se a abordagem MDD para desenvolver um gerador automático de DSLs que é capaz de produzir a linguagem desejada de acordo com a configuração de software pretendida para a partição pertencente a um módulo aviónico. As linguagens geradas apresentam um nível de usabilidade adequada para o domínio, bem como têm a capacidade de validar as construções efetuadas usando a DSL e produzir os artefactos pretendidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As simulações que pretendam modelar fenómenos reais com grande precisão em tempo útil exigem enormes quantidades de recursos computacionais, sejam estes de processamento, de memória, ou comunicação. Se até há pouco tempo estas capacidades estavam confinadas a grandes supercomputadores, com o advento dos processadores multicore e GPUs manycore os recursos necessários para este tipo de problemas estão agora acessíveis a preços razoáveis não só a investigadores como aos utilizadores em geral. O presente trabalho está focado na otimização de uma aplicação que simula o comportamento dinâmico de materiais granulares secos, um problema do âmbito da Engenharia Civil, mais especificamente na área da Geotecnia, na qual estas simulações permitem por exemplo investigar a deslocação de grandes massas sólidas provocadas pelo colapso de taludes. Assim, tem havido interesse em abordar esta temática e produzir simulações representativas de situações reais, nomeadamente por parte do CGSE (Australian Research Council Centre of Excellence for Geotechnical Science and Engineering) da Universidade de Newcastle em colaboração com um membro da UNIC (Centro de Investigação em Estruturas de Construção da FCT/UNL) que tem vindo a desenvolver a sua própria linha de investigação, que se materializou na implementação, em CUDA, de um algoritmo para GPUs que possibilita simulações de sistemas com um elevado número de partículas. O trabalho apresentado consiste na otimização, assente na premissa da não alteração (ou alteração mínima) do código original, da supracitada implementação, de forma a obter melhorias significativas tanto no tempo global de execução da aplicação, como no aumento do número de partículas a simular. Ao mesmo tempo, valida-se a formulação proposta ao conseguir simulações que refletem, com grande precisão, os fenómenos físicos. Com as otimizações realizadas, conseguiu-se obter uma redução de cerca de 30% do tempo inicial cumprindo com os requisitos de correção e precisão necessários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é a determinação da máxima injeção nodal numa rede de energia elétrica, ou seja, qual o valor total máximo de potência ativa que é possível injetar e qual a sua distribuição pelos diversos nós da rede simultaneamente. Determinámos esta máxima injeção nodal em duas situações distintas: injeção não simultânea, injetando potência em um só nó de cada vez e injeção simultânea, injetando potência em todos os nós da rede simultaneamente. Sendo este um problema de natureza combinatória, utilizámos para esta determinação o algoritmo conhecido como nuvem ou enxame de partículas, adaptando-o ao nosso problema. Desenvolvemos o software na linguagem de programação Python utilizando o ambiente Eclipse. Para resolver o trânsito de energia utilizámos o programa PSSE University.Para os exemplos de aplicação utilizámos duas redes de energia elétrica, uma de 6 e outra de 14 barramentos. Estas redes foram baseadas nas redes IEEE 6 BUS e IEEE 14 BUS respetivamente. Concluímos que o algoritmo nuvem ou enxame de partículas cumpriu o objetivo traçado, obtendo as melhores soluções para cada um dos casos, máxima injeção nodal não simultânea e máxima injeção nodal simultânea. No contexto deste problema, o parâmetro chave do algoritmo, comprovado pelos ensaios feitos, é a velocidade máxima de deslocação das partículas, tomando valores típicos de 7 a 10 para a rede de 6 barramentos e de 20 a 25 para a de 14 barramentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos anos mais recentes tem sido feita investigação no uso da Programação Orientada a Aspectos no suporte a computação paralela, nomeadamente para conseguir guardar as funcionalidades da mesma em módulos, algo que não é possível quando se utiliza Programação Orientada a Objectos. Um resultado desta investigação foi o desenvolvimento de uma aplicação, o ParJECoLi, desenvolvida usando a linguagem Java e recorrendo ao AspectJ para paralelizar a mesma. No entanto, durante essa mesma investigação, chegou-se à conclusão que o AspectJ apresenta algumas limitações na reutilização de módulos. Tendo em conta isso, surgiu a ideia de estudar uma outra linguagem de programação, conceptualmente diferente da usada na investigação. A linguagem Scala é conhecida por ter uma capacidade de composição modular flexível. Como tal parece interessante entender até que ponto é capaz de substituir AspectJ no suporte modular à computação paralela. Este projecto pretende aferir essa capacidade. Neste contexto, pretende-se usar o ParJECoLi como caso de estudo para dirigir comparações entre Scala e AspectJ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na cadeia de produção de cartografia digital, que se encontra implementada no IGeoE, existe a necessidade de efetuar a restituição de objetos através da vetorização 3D. Sendo este processo completamente manual, o operador identifica e adquire os objetos, em ambiente estereoscópico, segundo as regras estabelecidas nas normas de aquisição. A aquisição de construções, nomeadamente os edifícios, são dos objetos que mais recursos consomem devido à sua frequência e dificuldade de restituição. A possibilidade de simplificar esta parte do processo proporciona um beneficio substancial para toda a cadeia de produção. Pretende-se assim detetar edifícios em fotografias aéreas, extraindo a sua informação planimétrica e altimétrica, para posterior inserção num SIG. Para a obtenção da altimetria são utilizados os princípios de fotogrametria analítica através das equações de colinearidade. Este problema torna-se relevante devido ao facto de se pretender retirar informação de fotografias, que possuem bastante informação, com recurso à computação gráfica, através de técnicas de segmentação em vários níveis e fotogrametria, juntando assim duas áreas do saber. Esta solução permite automatizar um processo que é predominantemente manual, contribuindo para melhorar a cadeia de produção sem a alteração de funcionamento da mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alguns jogos têm como objectivo a competição, outros a aprendizagem, uns jogam-se em grupo, outros individualmente. No entanto, todos têm um factor comum, ou seja, a experiência que se retira do momento é única. Seja esta experiência positiva ou negativa vai servir de aprendizagem nem que seja apenas das regras e mecânicas do dispositivo. Os Serious Games simulam situações ou processos do mundo real que são elaborados com o propósito de resolver um problema. Muitas vezes estes sacrificam o divertimento e o entretenimento com o objectivo de alcançar um tipo de progresso desejado para o jogador. Tal como no passado, e tendo em conta o desenvolvimento exponencial da tecnologia, os Serious Games podem agora ter um papel fundamental no desenvolvimento de novas terapias e ferramentas de saúde. É precisamente a olhar para o presente, e com os olhos no futuro dos Serious Games aplicados à saúde, que foi desenvolvida esta investigação. Como complemento, é também apresentado o projecto Typlife. Destinado a jovens com diabetes, é um projecto académico que tem como objectivo o desenvolvimento de uma aplicação para smartphone para o controlo da diabetes, enquanto envolve o utilizador numa experiência interactiva de recompensas pelas boas práticas no dia-a-dia.