927 resultados para graphics processor
Resumo:
This degree project is a study of graphics profiling with a practical application on IUC Dalarna.The competition between companies is getting harder and harder. Competing goods and services hasa tendency to be more and more equal to each other in respect of quality and value. The customer choosesthe Company with a high reputation and confidence. This is one of the reasons why a companyshould strengthen their company profile. The graphic profile is an important part of the company profileand it gives positive signals to the company spirit and customers.The degree project contains a guide to graphics profiling. The different phases are research, analysis,construction of graphic material and presentation. The guide is put into practise at IUC Dalarna andthe result is documented in a graphic manual.
Resumo:
In order to achieve the high performance, we need to have an efficient scheduling of a parallelprogram onto the processors in multiprocessor systems that minimizes the entire executiontime. This problem of multiprocessor scheduling can be stated as finding a schedule for ageneral task graph to be executed on a multiprocessor system so that the schedule length can be minimize [10]. This scheduling problem is known to be NP- Hard.In multi processor task scheduling, we have a number of CPU’s on which a number of tasksare to be scheduled that the program’s execution time is minimized. According to [10], thetasks scheduling problem is a key factor for a parallel multiprocessor system to gain betterperformance. A task can be partitioned into a group of subtasks and represented as a DAG(Directed Acyclic Graph), so the problem can be stated as finding a schedule for a DAG to beexecuted in a parallel multiprocessor system so that the schedule can be minimized. Thishelps to reduce processing time and increase processor utilization. The aim of this thesis workis to check and compare the results obtained by Bee Colony algorithm with already generatedbest known results in multi processor task scheduling domain.
Resumo:
Föreliggande studie har haft för avsikt att genom enkäter undersöka likheter och skillnader mellan branschaktiva 3D-grafikers arbetsprocesser. Målet har varit att öka insikten i den 3D-grafiska arbetsprocessen för visualisering av interiörmiljöer. Studien är tänkt att identifiera vilka arbetsmoment som är mest tidskrävande och varför. En ökad insikt i denna process kan leda till förbättrad kommunikation och förståelse mellan kund och byrå. Respondenternas beskrivningar av arbetsprocessen liknade varandra och stämmer till stor del även med beskrivningar i litteraturen. De flesta av respondenterna upplevde modellering som det mest tidskrävande tekniska momentet. God kommunikation med kunden ansåg respondenterna vara viktigt för att undvika onödig korrektur, vilket beskrevs som problematiskt och tidskrävande. Respondenterna hade erfarenhet från referensmaterial av varierande kvalitet, vilket kan påverka ett projekts tidsåtgång.
Resumo:
As far back as I can remember, I have always been interested in studio art. Whether it be painting, drawing, printmaking, or photography, it has consistently been a part of my life. Upon enrolling in Colby, I became interested in computers and decided to major my undergraduate college career in Computer Science. Not forgetting past interests, I continued my studio art education, taking several classes within the Art department. In due time, I began combining interests and began studying Computer Graphics and Design. With limited resources in this field at Colby, the majority of my computer graphic education and experience has been done on my own time apart from regular classroom work. As time progressed, so did my interests. Starting with simple image manipulation of digitally scanned photographs, I moved on to Web Page design, eventually leading to Desktop Publishing. Ultimately, I wanted to take a step further and expand my overall computer graphic knowledge by learning 3D modeling and animation. With even fewer resources in 3D animation at Colby, I perceived having trouble finding the information and tools I would need to gain the necessary skills for this new field. The Senior Scholars program gave me the opponunity to find and acquire the necessary tools to pursue my interest. This program also allowed me to devote the proper amount of time required for learning these new tools.
Resumo:
128 p. b&w, color photographs TOC: LaGuardia the Man…4/Cooperative Education…12/Faculty and Staff…20/College Wide Events and Activities…37/Recreation…45/Nursery Program…51/Student Government…55/Student Activities…59/Dedication to Graduates…71/Graduates…81 YEARBOOK CREDITS: Project Director, VINCENT BANREY; Committee Chairperson, WALTER JACKSON; Copy /Caption Writer and Editor, UMOJA KWANGUVU; Photographers: ROBERT BROWN, WALTER JACKSON, RANDY FADER-SMITH, MARK SEALY, CLASSIC STUDIOS; Designed by VINCENT BANREY; Layout: VINCENT BANREY, SANDRA BRADLEY, BRIDGET DAVIS, REINALDO DENNY, UMOJA KWANGUVU, KEVIN RILEY; Typesetting, AUDREY WILLIAMS; Typing: SANDRA BRADLEY, TANYA BUSH-CORONA, BRIDGET DAVIS, ROSALIE NIEVES; Graphics: VINCENT BANREY, GEORGE BERMUDEZ, REINALDO DENNY, WALTER JACKSON.
Resumo:
Running hydrodynamic models interactively allows both visual exploration and change of model state during simulation. One of the main characteristics of an interactive model is that it should provide immediate feedback to the user, for example respond to changes in model state or view settings. For this reason, such features are usually only available for models with a relatively small number of computational cells, which are used mainly for demonstration and educational purposes. It would be useful if interactive modeling would also work for models typically used in consultancy projects involving large scale simulations. This results in a number of technical challenges related to the combination of the model itself and the visualisation tools (scalability, implementation of an appropriate API for control and access to the internal state). While model parallelisation is increasingly addressed by the environmental modeling community, little effort has been spent on developing a high-performance interactive environment. What can we learn from other high-end visualisation domains such as 3D animation, gaming, virtual globes (Autodesk 3ds Max, Second Life, Google Earth) that also focus on efficient interaction with 3D environments? In these domains high efficiency is usually achieved by the use of computer graphics algorithms such as surface simplification depending on current view, distance to objects, and efficient caching of the aggregated representation of object meshes. We investigate how these algorithms can be re-used in the context of interactive hydrodynamic modeling without significant changes to the model code and allowing model operation on both multi-core CPU personal computers and high-performance computer clusters.
Resumo:
Audio coding is used to compress digital audio signals, thereby reducing the amount of bits needed to transmit or to store an audio signal. This is useful when network bandwidth or storage capacity is very limited. Audio compression algorithms are based on an encoding and decoding process. In the encoding step, the uncompressed audio signal is transformed into a coded representation, thereby compressing the audio signal. Thereafter, the coded audio signal eventually needs to be restored (e.g. for playing back) through decoding of the coded audio signal. The decoder receives the bitstream and reconverts it into an uncompressed signal. ISO-MPEG is a standard for high-quality, low bit-rate video and audio coding. The audio part of the standard is composed by algorithms for high-quality low-bit-rate audio coding, i.e. algorithms that reduce the original bit-rate, while guaranteeing high quality of the audio signal. The audio coding algorithms consists of MPEG-1 (with three different layers), MPEG-2, MPEG-2 AAC, and MPEG-4. This work presents a study of the MPEG-4 AAC audio coding algorithm. Besides, it presents the implementation of the AAC algorithm on different platforms, and comparisons among implementations. The implementations are in C language, in Assembly of Intel Pentium, in C-language using DSP processor, and in HDL. Since each implementation has its own application niche, each one is valid as a final solution. Moreover, another purpose of this work is the comparison among these implementations, considering estimated costs, execution time, and advantages and disadvantages of each one.
Resumo:
A aquisição do ciclo pressão-volume é de grande importância para diagnóstico de cardiopatias e principalmente para o acompanhamento de intervenções terapêuticas, porém os métodos hoje utilizados são caros e agressivos ao paciente, reduzindo por estes motivos sua aplicação. Este estudo pretende obter, por métodos não-invasivos, o ciclo pressão-volume do ventrículo esquerdo de pacientes humanos. Isto consiste na aquisição dos sinais P(t) e V(t) simultaneamente e a apresentação de um gráfico P(V). Para tanto, após a revisão bibliográfica, decidiu-se utilizar a ecocardiografia com detecção automática de bordos, para obtenção do volume ventricular e a medição da onda de pressão transmitida através da artéria braquial para um manguito inflado com ar, conectado a um transdutor piezo-resistivo em ponte. A aquisição da pressão pelo método não-invasivo é comparada a dados resultantes da aquisição invasiva da pressão arterial por catéter intra-aórtico que é considerado padrãoouro. Os sinais são condicionados e digitalizados em uma placa de aquisição com conversor A/D de 8 bits e micro controlador 80c196. Os dados digitalizados são então enviados serialmente para um computador onde são gerados os gráficos. Obteve-se de cinco pacientes nove aquisições simultâneas da pressão invasiva através de catéter intra-aórtico e do protótipo desenvolvido resultando concordância segundo o método de Bland e Altman (1986) (r=0,989; d + 2s= 6,52; d - 2s =-6,07), comprovando a eficiência do método de aquisição. Obteve-se resultado satisfatório também quanto à operação sistema desenvolvido pois foram realizadas dez aquisições em cinco pacientes, registrando-se gráficos bastante similares aos apresentados na literatura disponível.
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Resumo:
This paper presents a study carried out with customers with credit card of a large retailer to measure the risk of abandonment of a relationship, when this has already purchase history. Two activities are the most important in this study: the theoretical and methodological procedures. The first step was to the understanding of the problem, the importance of theme and the definition of search methods. The study brings a bibliographic survey comprising several authors and shows that the loyalty of customers is the basis that gives sustainability and profitability for organizations of various market segments, examines the satisfaction as the key to success for achievement and specially for the loyalty of customers. To perform this study were adjusted logistic-linear models and through the test Kolmogorov - Smirnov (KS) and the curve Receiver Operating Characteristic (ROC) selected the best model. Had been used cadastral and transactional data of 100,000 customers of credit card issuer, the software used was SPSS which is a modern system of data manipulation, statistical analysis and presentation graphics. In research, we identify the risk of each customer leave the product through a score.
Resumo:
O Setor de Telecomunicações representa um dos segmentos maiS relevantes do sistema social brasileiro. Surgiu, se desenvolveu e alcançou patamares altamente significativos tanto no Brasil como no concerto das nações marcado, sempre, pelo desafio e pela necessidade dos homens de se comunicarem e de se fazerem ouvir a distâncias cada vez maiores. Aos dias de hoje, no momento em que no Brasil o setor vem consolidando o desenho de mais uma etapa da sua evolução, calcado na competição entre organizações, como resultado da recente quebra do monopólio estatal em que se fundamentou durante um largo período de sua existência, cabe pesquisar e buscar compreender o processo de seu desenvolvimento e identificar as diversas mudanças de tendências que se verificaram ao longo desta traj etória. o Contexto Histórico do Processo de Institucionalização das Telecomunicações no Brasil é o tema da presente dissertação que, diferentemente de estudos de Institucionalização relacionados ao desenvolvimento de Organizações individualizadas, trata de um setor como um todo, da dinâmica de suas variáveis internas e do seu relacionamento com a sociedade, beneficiária dos serviços por ele prestados. Neste contexto, aplicam-se pressupostos relacionados a uma visão sistêmica onde o setor se posiciona como um processador que recebe insumos do ambiente externo e devolve resultados em forma de produtos ou serviços. Das inúmeras classificações que vêm servindo para definir o conceito de sistema, este trabalho se concentrará na caracterização do setor de telecomunicações brasileiro como um sistema social, complexo e aberto. Para isso foram estudadas diferentes etapas do seu processo de desenvolvimento institucional, identificando momentos de sua evolução no contexto da interação, política, econômica, social e tecnológica com o conjunto da nação. o objetivo da presente dissertação é descrever este processo de desenvolvimento setorial mediante a utilização de subsídios teóricos e da análise comparativa, subjetiva (empírica), com o desenvolvimento do País. A escolha do tema decorreu da identificação da necessidade de se evoluir de estudos existentes e que refletem meramente relatos históricos para uma abordagem mais ampla, integrada e relacionada, entre outras, às responsabilidades do setor perante o meio ambiente onde ele se insere.
Resumo:
Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
O objetivo deste trabalho é caracterizar o padrão de concorrência no mercado de leite fluido (longa vida e pasteurizado) na cidade de São Paulo a partir de evidências sobre os movimentos de preços no varejo e do comportamento das margens de mercado. Utilizou-se o modelo originalmente proposto por Houck (1977) acrescido das observações feitas por Carman e Sexton (2005). Essa abordagem separa as variáveis explicativas entre aumentos e diminuições de preços pagos ao produtor. Além de maior clareza na sua estrutura, essa construção permite comparar a defasagem entre esses dois movimentos e estudar a estratégia de preços dos agentes a partir das margens dos intermediários. O período analisado foi de dezembro de 1999 à dezembro de 2005, com dados de preços ao consumidor da FIPE e dados de preços ao produtor da CEPEA/ USP. Identificou-se que o padrão de concorrência do leite longa vida é bastante diverso do encontrado para o leite pasteurizado. Enquanto para o longa vida o padrão de concorrência é mais próximo do modelo competitivo, para o leite pasteurizado o padrão encontrado foi de pouca concorrência. Para compreender essas diferenças, foi discutido o aspecto locacional do varejo e a importância do mercado relevante geográfico. Os resultados permitem algumas inferências para análises setoriais e de políticas públicas voltadas à produção leiteira. O vertiginoso crescimento das vendas de leite longa vida, absorvendo grande parte do mercado antes abastecido pelo leite pasteurizado, trouxe maior concorrência nos segmentos de indústria e distribuição, assim como maior velocidade de transmissão de preços ao longo da cadeia produtiva. Entretanto, a precificação com markups com percentual fixo, observada no leite longa vida, indica que indústria e distribuição gozam de algum poder de mercado e que variações de custo da matéria-prima são repassadas mais que proporcionalmente, em termos absolutos, ao consumidor final.
Resumo:
In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).