1000 resultados para COMPUTAÇÃO GRÁFICA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

No decorrer dos últimos anos tem-se verificado um acréscimo do número de sistemas de videovigilância presentes nos mais diversos ambientes, sendo que estes se encontram cada vez mais sofisticados. Os casinos são um exemplo bastante popular da utilização destes sistemas sofisticados, sendo que vários casinos, hoje em dia, utilizam câmeras para controlo automático das suas operações de jogo. No entanto, atualmente existem vários tipos de jogos em que o controlo automático ainda não se encontra disponível, sendo um destes, o jogo Banca Francesa. A presente dissertação tem como objetivo propor um conjunto de algoritmos idealizados para um sistema de controlo e gestão do jogo de casino Banca Francesa através do auxílio de componentes pertencentes à área da computação visual, tendo em conta os contributos mais relevantes e existentes na área, elaborados por investigadores e entidades relacionadas. No decorrer desta dissertação são apresentados quatro módulos distintos, os quais têm como objetivo auxiliar os casinos a prevenir o acontecimento de fraudes durante o decorrer das suas operações, assim como auxiliar na recolha automática de resultados de jogo. Os quatro módulos apresentados são os seguintes: Dice Sample Generator – Módulo proposto para criação de casos de teste em grande escala; Dice Sample Analyzer – Módulo proposto para a deteção de resultados de jogo; Dice Calibration – Módulo proposto para calibração automática do sistema; Motion Detection – Módulo proposto para a deteção de fraude no jogo. Por fim, para cada um dos módulos, é apresentado um conjunto de testes e análises de modo a verificar se é possível provar o conceito para cada uma das propostas apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ciências da Comunicação. Área de Especialização Estudo dos Media e Jornalismo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lunacloud is a cloud service provider with offices in Portugal, Spain, France and UK that focus on delivering reliable, elastic and low cost cloud Infrastructure as a Service (IaaS) solutions. The company currently relies on a proprietary IaaS platform - the Parallels Automation for Cloud Infrastructure (PACI) - and wishes to expand and integrate other IaaS solutions seamlessly, namely open source solutions. This is the challenge addressed in this thesis. This proposal, which was fostered by Eurocloud Portugal Association, contributes to the promotion of interoperability and standardisation in Cloud Computing. The goal is to investigate, propose and develop an interoperable open source solution with standard interfaces for the integrated management of IaaS Cloud Computing resources based on new as well as existing abstraction libraries or frameworks. The solution should provide bothWeb and application programming interfaces. The research conducted consisted of two surveys covering existing open source IaaS platforms and PACI (features and API) and open source IaaS abstraction solutions. The first study was focussed on the characteristics of most popular open source IaaS platforms, namely OpenNebula, OpenStack, CloudStack and Eucalyptus, as well as PACI and included a thorough inventory of the provided Application Programming Interfaces (API), i.e., offered operations, followed by a comparison of these platforms in order to establish their similarities and dissimilarities. The second study on existing open source interoperability solutions included the analysis of existing abstraction libraries and frameworks and their comparison. The approach proposed and adopted, which was supported on the conclusions of the carried surveys, reuses an existing open source abstraction solution – the Apache Deltacloud framework. Deltacloud relies on the development of software driver modules to interface with different IaaS platforms, officially provides and supports drivers to sixteen IaaS platform, including OpenNebula and OpenStack, and allows the development of new provider drivers. The latter functionality was used to develop a new Deltacloud driver for PACI. Furthermore, Deltacloud provides a Web dashboard and REpresentational State Transfer (REST) API interfaces. To evaluate the adopted solution, a test bed integrating OpenNebula, Open- Stack and PACI nodes was assembled and deployed. The tests conducted involved time elapsed and data payload measurements via the Deltacloud framework as well as via the pre-existing IaaS platform API. The Deltacloud framework behaved as expected, i.e., introduced additional delays, but no substantial overheads. Both the Web and the REST interfaces were tested and showed identical measurements. The developed interoperable solution for the seamless integration and provision of IaaS resources from PACI, OpenNebula and OpenStack IaaS platforms fulfils the specified requirements, i.e., provides Lunacloud with the ability to expand the range of adopted IaaS platforms and offers a Web dashboard and REST API for the integrated management. The contributions of this work include the surveys and comparisons made, the selection of the abstraction framework and, last, but not the least, the PACI driver developed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A racionalização do consumo de energia elétrica é um tema que assume uma importância crescente nos dias de hoje. O elevado consumo de energia, principalmente a nível comercial/industrial, tem motivado o aparecimento de questões políticas, económico-sociais e ambientais que visam a sensibilização dos consumidores para a gestão eficiente dos seus recursos. Neste sentido, as empresas e instituições têm demonstrado interesse em encontrar soluções de gestão nas suas instalações elétricas que permitam a monitorização de indicadores e a previsão de falhas cuja ocorrência acarreta elevados custos de reparação/substituição, de paragem de produção, entre outros. O estudo aqui apresentado surge no âmbito de um projeto académico, cuja finalidade se prende com a implementação de um sistema de monitorização da qualidade e consumo de energia elétrica no Instituto Superior de Engenharia do Porto (ISEP). Baseado numa rede de dispositivos analisadores de parâmetros de energia elétrica, estes equipamentos de medição dispõem de software próprio, o GridVis, que permite o acesso remoto, através de uma rede Ethernet, aos parâmetros de energia (grandezas físicas elétricas). O sistema desenvolvido é capaz de identificar parâmetros de consumo de energia anómalos e emitir alertas, pré-programados em linguagem C++ e diagrama de blocos. Permite, por exemplo, detetar um consumo instantâneo excessivo de energia e alertar a sua ocorrência. As páginas de acesso aos parâmetros medidos por cada dispositivo são acessíveis através de uma interface gráfica desenvolvida em Adobe Flash que inclui, de uma forma simples e organizada, a informação relativa à distribuição dos dispositivos de medição. Num contexto de expansão deste projeto para outros edifícios do ISEP, a solução desenvolvida encontra-se preparada para ser adaptada em qualquer local, desde que reúna certos requisitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projecto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Novos Media e Práticas Web

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta o trabalho realizado no âmbito da unidade curricular de Tese/Dissertação (TEDI), do 2º ano, do Mestrado em Engenharia Eletrotécnica e de Computadores no ramo de Automação e Sistemas. O principal objetivo desta dissertação consiste no desenvolvimento de um sistema que permita efetuar a deteção de um determinado número de anomalias num sinal eletrocardiográfico. O coração é um dos órgãos mais importantes do corpo humano. É ele que recebe e bombeia o sangue pelo organismo. Isto é, recebe sangue pobre em oxigénio, encaminha-o para os pulmões onde será enriquecido em oxigénio. O sangue enriquecido em oxigénio é então encaminhado novamente para o coração que será enviado para todas as partes do corpo humano. O eletrocardiograma desempenha um papel fundamental de modo a diagnosticar eventuais anomalias no correto funcionamento do coração. Estas anomalias podem dever-se a diversos fatores como tabaco, colesterol, pressão sanguínea alta ou diabetes entre outros. As anomalias associadas ao ritmo cardíaco são denominadas de arritmias. As arritmias são fundamentalmente originadas pela alteração da frequência ou do ritmo cardíaco. Utilizando a lógica difusa, pretendeu-se desenvolver um sistema que fizesse a identificação de um determinado número de tipos de batimentos entre os quais: o bloqueio do ramo esquerdo (LBBB), bloqueio do ramo direito (RBBB), contração prematura ventricular (VPC) e contração prematura auricular (APC). Todos os desenvolvimentos efetuados, a nível de programação, são neste documento relatados de forma a constituírem um possível guia para a utilização deste tipo de sistemas. Mais ainda, descrevem-se nele toda a pesquisa efetuada e as alternativas de desenvolvimento selecionadas. O Sistema de Deteção de Arritmias (SDA) desenvolvido mostrou-se eficaz desde que o utilizador consiga identificar corretamente os parâmetros que lhe são pedidos. A interface gráfica desenvolvida permitiu também uma maior facilidade durante a análise do sinal eletrocardiográfico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poster apresentado na segunda Conferência Luso-Brasileira de Acesso Aberto, Rio de Janeiro, Brasil, 24-25 de Novembro 2011

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projeto realizado teve como tema a aplicação das derivadas e integrais fraccionários para a implementação de filtros digitais numa perspetiva de processamento digital de sinais. Numa primeira fase do trabalho, é efetuado uma abordagem teórica sobre os filtros digitais e o cálculo fraccionário. Estes conceitos teóricos são utilizados posteriormente para o desenvolvimento do presente projeto. Numa segunda fase, é desenvolvida uma interface gráfica em ambiente MatLab, utilizando a ferramenta GUIDE. Esta interface gráfica tem como objetivo a implementação de filtros digitais fraccionários. Na terceira fase deste projeto são implementados os filtros desenvolvidos experimentalmente através do ADSP-2181, onde será possível analisar e comparar os resultados experimentais com os resultados obtidos por simulação no MatLab. Como quarta e última fase deste projeto é efetuado uma reflexão sobre todo o desenvolvimento da Tese e o que esta me proporcionou. Com este relatório pretendo apresentar todo o esforço aplicado na realização deste trabalho, bem como alguns dos conhecimentos adquiridos ao longo do curso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A animação de superfícies deformáveis, nomeadamente a modelação de tecidos, atravessa hoje uma época de grande relevância na indústria do cinema e no mundo dos jogos. A grande dedicação a este tema, em termos de investigação e a evolução das capacidades das arquitecturas de computadores no que toca a poder de processamento, tornou hoje possível efectuar este tipo de simulações usando um vasto leque de técnicas com diferentes objectivos. Entre estas técnicas encontra-se a simulação através de modelos discretos. Geralmente, neste tipo de modelação, as características do tecido são discretizadas num sistema de partículas organizadas entre si segundo um esquema de forças ou energias internas. Assim, a simulação pode ser efectuada integrando o sistema de forma a calcular as novas posições das partículas ao longo do tempo. Este tipo de computação é normalmente caracterizado como sendo bastante intensivo. A aceleração da animação de superfícies deformáveis recorrendo ao poder de processamento para além do CPU convencional foi realizada em vários trabalhos. No entanto, apenas uma pequena parte desses artigos está relacionada com a arquitectura Cell/B.E. O Cell/B.E. foi desenvolvido por uma equipa de investigadores vindos da Toshiba, Sony e IBM. Esta equipa tinha como objectivo a criação de uma arquitectura que suportasse um elevado leque de aplicações, incluindo o suporte de uma consola de jogos, de forma eficaz e com baixo consumo de energia. Assim, o processador Cell/B.E. convencional pode ser descrito por um chip multicore heterogéneo composto por um processador PowerPC e oito processadores vectoriais (SIMD) de 128 bits, permitindo assim ao programador uma maior flexibilidade na forma de paralelização de um determinado processamento. O principal objectivo deste trabalho passou pelo estudo desta arquitectura e da forma de a explorar e avaliar as suas capacidades, aplicando-as na aceleração de um simulador de superfícies deformáveis com

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A função de escalonamento desempenha um papel importante nos sistemas de produção. Os sistemas de escalonamento têm como objetivo gerar um plano de escalonamento que permite gerir de uma forma eficiente um conjunto de tarefas que necessitam de ser executadas no mesmo período de tempo pelos mesmos recursos. Contudo, adaptação dinâmica e otimização é uma necessidade crítica em sistemas de escalonamento, uma vez que as organizações de produção têm uma natureza dinâmica. Nestas organizações ocorrem distúrbios nas condições requisitos de trabalho regularmente e de forma inesperada. Alguns exemplos destes distúrbios são: surgimento de uma nova tarefa, cancelamento de uma tarefa, alteração na data de entrega, entre outros. Estes eventos dinâmicos devem ser tidos em conta, uma vez que podem influenciar o plano criado, tornando-o ineficiente. Portanto, ambientes de produção necessitam de resposta imediata para estes eventos, usando um método de reescalonamento em tempo real, para minimizar o efeito destes eventos dinâmicos no sistema de produção. Deste modo, os sistemas de escalonamento devem de uma forma automática e inteligente, ser capazes de adaptar o plano de escalonamento que a organização está a seguir aos eventos inesperados em tempo real. Esta dissertação aborda o problema de incorporar novas tarefas num plano de escalonamento já existente. Deste modo, é proposta uma abordagem de otimização – Hiper-heurística baseada em Seleção Construtiva para Escalonamento Dinâmico- para lidar com eventos dinâmicos que podem ocorrer num ambiente de produção, a fim de manter o plano de escalonamento, o mais robusto possível. Esta abordagem é inspirada em computação evolutiva e hiper-heurísticas. Do estudo computacional realizado foi possível concluir que o uso da hiper-heurística de seleção construtiva pode ser vantajoso na resolução de problemas de otimização de adaptação dinâmica.