957 resultados para Graphic ProcessingUnits, GPUs
Resumo:
Os vídeo jogos ou jogos de computador têm vindo a crescer na sua relação com o público ganhando terreno e credibilidade nos benefícios que os jogadores obtêm quando usam este tipo de software, indo esses benefícios para além do divertimento associado à palavra jogo no seu sentido etimológico. Nos últimos anos cada vez mais o mercado e algumas das mais reputadas instituições de ensino têm dedicado especial atenção a este tipo de software, englobando nesses estudos diversas áreas desde a engenharia à saúde, incluindo ainda, estudos de cariz psicológico e sociológico reveladores de que estas experiências de entretenimento, cada vez mais disponíveis a todos, têm influência na sua envolvente de integração e relação com outros fenómenos de cariz social. Apreciado o estado da arte esta tese tem como principal objetivo servir de guia de iniciação a individuais ou pequenas equipas da área de desenvolvimento de software no caminho para o desenvolvimento de jogos de vídeo independentes, apresentando uma análise cuidada capaz de apoiar as equipas desde o momento zero, estando o mesmo estruturado de forma a refletir o entendimento das bases teóricas em que o desenvolvimento deste tipo de software assenta, o estado da arte sobre plataformas, análise de mercado e indústria, metodologias de desenvolvimento e equipas, e ainda analisadas algumas das mais relevantes ferramentas de desenvolvimento e criação de conteúdos. Como prova de conceito e componente de caráter experimental, este trabalho compreende ainda o desenvolvimento de um jogo de vídeo guiado pelas orientações e lições apreendidas durante o processo de estudo de forma a ser representativo da aplicação dessa aprendizagem, e ainda capaz de detalhar passo a passo cada fase do processo, com o objetivo de apoiar a preparação de pessoas interessadas em iniciar a aventura de desenvolver os seus próprios jogos e quem sabe dar início aos seus próprios negócios e empresas. O jogo desenvolvido replica um recente êxito, o jogo 2048, que apesar da sua mecânica simples revela-se um excelente desafio do ponto de vista da sua implementação, bem como o processo criativo adjacente no transformar algo tão simples e experimentado numa experiência nova capaz de atrair antigos jogadores e interesse de novos. O desenvolvimento e publicação da aplicação experimental, e após análise dos dados recolhidos, mostram-se reveladores de que é de fato possível a programadores independentes entrar num mercado de alto potencial, e que adquiridas as bases de conhecimento expostas no documento estarão em condições mais favoráveis para ultrapassar algumas das mais comuns barreiras no atingir desse objetivo.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação apresentada à Escola Superior de Artes Aplicadas do Instituto Politécnico de Castelo Branco em associação com a Faculdade de Arquitetura da Universidade de Lisboa.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
The Graphics Processing Unit (GPU) is present in almost every modern day personal computer. Despite its specific purpose design, they have been increasingly used for general computations with very good results. Hence, there is a growing effort from the community to seamlessly integrate this kind of devices in everyday computing. However, to fully exploit the potential of a system comprising GPUs and CPUs, these devices should be presented to the programmer as a single platform. The efficient combination of the power of CPU and GPU devices is highly dependent on each device’s characteristics, resulting in platform specific applications that cannot be ported to different systems. Also, the most efficient work balance among devices is highly dependable on the computations to be performed and respective data sizes. In this work, we propose a solution for heterogeneous environments based on the abstraction level provided by algorithmic skeletons. Our goal is to take full advantage of the power of all CPU and GPU devices present in a system, without the need for different kernel implementations nor explicit work-distribution.To that end, we extended Marrow, an algorithmic skeleton framework for multi-GPUs, to support CPU computations and efficiently balance the work-load between devices. Our approach is based on an offline training execution that identifies the ideal work balance and platform configurations for a given application and input data size. The evaluation of this work shows that the combination of CPU and GPU devices can significantly boost the performance of our benchmarks in the tested environments, when compared to GPU-only executions.
Resumo:
Breast cancer is the most common cancer among women, being a major public health problem. Worldwide, X-ray mammography is the current gold-standard for medical imaging of breast cancer. However, it has associated some well-known limitations. The false-negative rates, up to 66% in symptomatic women, and the false-positive rates, up to 60%, are a continued source of concern and debate. These drawbacks prompt the development of other imaging techniques for breast cancer detection, in which Digital Breast Tomosynthesis (DBT) is included. DBT is a 3D radiographic technique that reduces the obscuring effect of tissue overlap and appears to address both issues of false-negative and false-positive rates. The 3D images in DBT are only achieved through image reconstruction methods. These methods play an important role in a clinical setting since there is a need to implement a reconstruction process that is both accurate and fast. This dissertation deals with the optimization of iterative algorithms, with parallel computing through an implementation on Graphics Processing Units (GPUs) to make the 3D reconstruction faster using Compute Unified Device Architecture (CUDA). Iterative algorithms have shown to produce the highest quality DBT images, but since they are computationally intensive, their clinical use is currently rejected. These algorithms have the potential to reduce patient dose in DBT scans. A method of integrating CUDA in Interactive Data Language (IDL) is proposed in order to accelerate the DBT image reconstructions. This method has never been attempted before for DBT. In this work the system matrix calculation, the most computationally expensive part of iterative algorithms, is accelerated. A speedup of 1.6 is achieved proving the fact that GPUs can accelerate the IDL implementation.
Resumo:
The Intel R Xeon PhiTM is the first processor based on Intel’s MIC (Many Integrated Cores) architecture. It is a co-processor specially tailored for data-parallel computations, whose basic architectural design is similar to the ones of GPUs (Graphics Processing Units), leveraging the use of many integrated low computational cores to perform parallel computations. The main novelty of the MIC architecture, relatively to GPUs, is its compatibility with the Intel x86 architecture. This enables the use of many of the tools commonly available for the parallel programming of x86-based architectures, which may lead to a smaller learning curve. However, programming the Xeon Phi still entails aspects intrinsic to accelerator-based computing, in general, and to the MIC architecture, in particular. In this thesis we advocate the use of algorithmic skeletons for programming the Xeon Phi. Algorithmic skeletons abstract the complexity inherent to parallel programming, hiding details such as resource management, parallel decomposition, inter-execution flow communication, thus removing these concerns from the programmer’s mind. In this context, the goal of the thesis is to lay the foundations for the development of a simple but powerful and efficient skeleton framework for the programming of the Xeon Phi processor. For this purpose we build upon Marrow, an existing framework for the orchestration of OpenCLTM computations in multi-GPU and CPU environments. We extend Marrow to execute both OpenCL and C++ parallel computations on the Xeon Phi. We evaluate the newly developed framework, several well-known benchmarks, like Saxpy and N-Body, will be used to compare, not only its performance to the existing framework when executing on the co-processor, but also to assess the performance on the Xeon Phi versus a multi-GPU environment.
Resumo:
Stratigraphic Columns (SC) are the most useful and common ways to represent the eld descriptions (e.g., grain size, thickness of rock packages, and fossil and lithological components) of rock sequences and well logs. In these representations the width of SC vary according to the grain size (i.e., the wider the strata, the coarser the rocks (Miall 1990; Tucker 2011)), and the thickness of each layer is represented at the vertical axis of the diagram. Typically these representations are drawn 'manually' using vector graphic editors (e.g., Adobe Illustrator®, CorelDRAW®, Inskape). Nowadays there are various software which automatically plot SCs, but there are not versatile open-source tools and it is very di cult to both store and analyse stratigraphic information. This document presents Stratigraphic Data Analysis in R (SDAR), an analytical package1 designed for both plotting and facilitate the analysis of Stratigraphic Data in R (R Core Team 2014). SDAR, uses simple stratigraphic data and takes advantage of the exible plotting tools available in R to produce detailed SCs. The main bene ts of SDAR are: (i) used to generate accurate and complete SC plot including multiple features (e.g., sedimentary structures, samples, fossil content, color, structural data, contacts between beds), (ii) developed in a free software environment for statistical computing and graphics, (iii) run on a wide variety of platforms (i.e., UNIX, Windows, and MacOS), (iv) both plotting and analysing functions can be executed directly on R's command-line interface (CLI), consequently this feature enables users to integrate SDAR's functions with several others add-on packages available for R from The Comprehensive R Archive Network (CRAN).
Resumo:
A variação gráfica apresentada por vários topónimos e a escassez de obras que descrevam a problemática da Toponímia da comuna de Ondjiva, município do Kwanyama, Província do Kunene, sul de Angola, levam-nos a proceder a este estudo cujo objectivo consiste em propor uma harmonização da Toponímia local. Para tal, fizemos uma análise dos aspectos gramaticais da língua Oshikwanyama e dos referidos topónimos. A sua relevância consiste no facto de poder esclarecer a problemática da toponímia da região, apresentando subsídios teóricos, práticos e metodológicos que possam contribuir para ultrapassar a questão de variações ortográficas que vários topónimos apresentam e suprir a escassez de ferramentas de consulta sobre a questão. De igual modo, apresentamos uma proposta de construção de uma base de dados toponímica na Administração Municipal do Kwanyama (AMK).
Resumo:
A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.
Resumo:
Esta tese de doutoramento tem como campo de estudo o grafismo e a ilustração produzidos em Portugal durante os anos 40 do século XX. Ela foca a sua análise em quatro áreas de investigação: a) publicidade; b) grafismo e ilustração de jornais, revistas e livros; c) grafismo editorial produzido pelo Secretariado da Propaganda Nacional; d) grafismo de algumas publicações editadas por ocasião das exposições de Paris (1937), Nova Iorque e São Francisco (1939), e a Exposição do Mundo Português (1940). Através da pesquisa de fontes primárias – jornais, revistas, livros, anúncios, cartazes, material publicitário vário – em conjução com textos e artigos da época – procurámos fazer uma História do Design Gráfico em Portugal que tivesse em consideração não só a estética do material gráfico criado mas também a conjuntura histórica, económica, sociológica e ideológica em que esse material apareceu. Comparámos o grafismo realizado para as instituições públicas e aquele feito para as empresas privadas para concluir que há pontos de contacto entre os dois não só por os artistas serem quase sempre os mesmos mas também porque o mesmo discurso ideológico permeava tanto a propaganda do Estado Novo quanto a produção comercial ainda que houvesse a resistência de outras propostas estéticas e imaginários, como o surrealismo e o neo-realismo. António Ferro, director do Secretariado da Propaganda Nacional, soube aproveitar o talento de um núcleo de artistas para a criação de uma identidade visual para Portugal, uma identidade que sintetizasse elementos da arte popular com um enquadramento moderno. Através de múltiplas actividades essa identidade foi sendo desenvolvida e replicada mas é nas oportunidades de trabalho e experimentação dadas aos artistas modernistas portugueses que reside o verdadeiro legado de António Ferro para o Design Gráfico português.
Resumo:
O presente estudo incide sobre obras impressas que tomaram como motivo central as «façanhas» de criminosos com referência histórica celebrizados em Portugal na segunda metade do século XIX e inícios de XX e mostra que, enquanto narrativas elaboradas para o grande público, os textos foram não só um reflexo da popularidade prévia dos famigerados transgressores, como também um fator incontornável da sua «lendarização» ao longo de décadas. São as seguintes as figuras dos infratores que protagonizaram as ficções em apreço: José Joaquim de Sousa Reis, ou «o Remexido» (1797-1838), Diogo Alves, ou «o Pancada» (1810-1841), Francisco de Matos Lobo (1814-1842), José Teixeira da Silva, ou «o José do Telhado» (1816-1875), João Victor da Silva Brandão, ou «o João Brandão de Midões» (1825-1880), e Vicente Urbino de Freitas (1859-1913). A tese agora apresentada aborda um corpus textual de características singulares, nunca antes coligido nem estudado. Comprova que os textos sobre as figuras criminosas tiveram uma função iminentemente noticiosa, pedagógico-edificante e política, apropriando-se de relatos orais, adotando procedimentos de atestação da veracidade (transcrição de documentos na primeira pessoa, referenciação cronológica, espacial, geográfica dos eventos, alusão às fontes) e incorporando diversas fontes do conhecimento dos crimes, quer de origem popular (geralmente designadas de «musa popular», «tradição»), quer de caráter erudito e teórico-científico («estudo», «estudo social»). Assim, foram analisadas as condições históricas excecionais nas quais as ficções emergiram: as características específicas do seu universo editorial, a apropriação a um público amplo (o formato de coleção, uso de sinopses e de outros elementos gráficos), as regularidades discursivas das obras (ocorrência de determinados dispositivos de organização textual), os procedimentos narrativos (recurso abundante a paratextos com intuito explicativo e aproximação a modalidades ficcionais conhecidas do público da época) e, ainda, as configurações imagéticas inspiradas nos discursos oficiais (influência de ciências e doutrinas epocais emergentes, como a criminologia, a antropologia criminal, a frenologia, a psiquiatria, a sociologia). Em suma, estas edições produzidas em diversos contextos e por um elenco autoral heterogéneo não só viveram da relação com as edições predecessoras, ao longo de gerações, como recriaram e ampliaram as «façanhas» dos transgressores em função de diversos propósitos e fontes: ampla divulgação dos casos criminais, condenação pública dos infratores, análise médico-científica dos sujeitos culpados, especulação política, pressão sobre o foro judiciário, edificação moral do público leitor. Trata-se, sem dúvida, de produções únicas, que erigiram a comemoração dos facínoras e sucessivamente reinscreveram as suas histórias reais na problemática do homem criminal e na consciência ética do seu tempo.