598 resultados para processor


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The movement of graphics and audio programming towards three dimensions is to better simulate the way we experience our world. In this project I looked to use methods for coming closer to such simulation via realistic graphics and sound combined with a natural interface. I did most of my work on a Dell OptiPlex with an 800 MHz Pentium III processor and an NVIDlA GeForce 256 AGP Plus graphics accelerator -high end products in the consumer market as of April 2000. For graphics, I used OpenGL [1], an open·source, multi-platform set of graphics libraries that is relatively easy to use, coded in C . The basic engine I first put together was a system to place objects in a scene and to navigate around the scene in real time. Once I accomplished this, I was able to investigate specific techniques for making parts of a scene more appealing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Audio coding is used to compress digital audio signals, thereby reducing the amount of bits needed to transmit or to store an audio signal. This is useful when network bandwidth or storage capacity is very limited. Audio compression algorithms are based on an encoding and decoding process. In the encoding step, the uncompressed audio signal is transformed into a coded representation, thereby compressing the audio signal. Thereafter, the coded audio signal eventually needs to be restored (e.g. for playing back) through decoding of the coded audio signal. The decoder receives the bitstream and reconverts it into an uncompressed signal. ISO-MPEG is a standard for high-quality, low bit-rate video and audio coding. The audio part of the standard is composed by algorithms for high-quality low-bit-rate audio coding, i.e. algorithms that reduce the original bit-rate, while guaranteeing high quality of the audio signal. The audio coding algorithms consists of MPEG-1 (with three different layers), MPEG-2, MPEG-2 AAC, and MPEG-4. This work presents a study of the MPEG-4 AAC audio coding algorithm. Besides, it presents the implementation of the AAC algorithm on different platforms, and comparisons among implementations. The implementations are in C language, in Assembly of Intel Pentium, in C-language using DSP processor, and in HDL. Since each implementation has its own application niche, each one is valid as a final solution. Moreover, another purpose of this work is the comparison among these implementations, considering estimated costs, execution time, and advantages and disadvantages of each one.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Setor de Telecomunicações representa um dos segmentos maiS relevantes do sistema social brasileiro. Surgiu, se desenvolveu e alcançou patamares altamente significativos tanto no Brasil como no concerto das nações marcado, sempre, pelo desafio e pela necessidade dos homens de se comunicarem e de se fazerem ouvir a distâncias cada vez maiores. Aos dias de hoje, no momento em que no Brasil o setor vem consolidando o desenho de mais uma etapa da sua evolução, calcado na competição entre organizações, como resultado da recente quebra do monopólio estatal em que se fundamentou durante um largo período de sua existência, cabe pesquisar e buscar compreender o processo de seu desenvolvimento e identificar as diversas mudanças de tendências que se verificaram ao longo desta traj etória. o Contexto Histórico do Processo de Institucionalização das Telecomunicações no Brasil é o tema da presente dissertação que, diferentemente de estudos de Institucionalização relacionados ao desenvolvimento de Organizações individualizadas, trata de um setor como um todo, da dinâmica de suas variáveis internas e do seu relacionamento com a sociedade, beneficiária dos serviços por ele prestados. Neste contexto, aplicam-se pressupostos relacionados a uma visão sistêmica onde o setor se posiciona como um processador que recebe insumos do ambiente externo e devolve resultados em forma de produtos ou serviços. Das inúmeras classificações que vêm servindo para definir o conceito de sistema, este trabalho se concentrará na caracterização do setor de telecomunicações brasileiro como um sistema social, complexo e aberto. Para isso foram estudadas diferentes etapas do seu processo de desenvolvimento institucional, identificando momentos de sua evolução no contexto da interação, política, econômica, social e tecnológica com o conjunto da nação. o objetivo da presente dissertação é descrever este processo de desenvolvimento setorial mediante a utilização de subsídios teóricos e da análise comparativa, subjetiva (empírica), com o desenvolvimento do País. A escolha do tema decorreu da identificação da necessidade de se evoluir de estudos existentes e que refletem meramente relatos históricos para uma abordagem mais ampla, integrada e relacionada, entre outras, às responsabilidades do setor perante o meio ambiente onde ele se insere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é caracterizar o padrão de concorrência no mercado de leite fluido (longa vida e pasteurizado) na cidade de São Paulo a partir de evidências sobre os movimentos de preços no varejo e do comportamento das margens de mercado. Utilizou-se o modelo originalmente proposto por Houck (1977) acrescido das observações feitas por Carman e Sexton (2005). Essa abordagem separa as variáveis explicativas entre aumentos e diminuições de preços pagos ao produtor. Além de maior clareza na sua estrutura, essa construção permite comparar a defasagem entre esses dois movimentos e estudar a estratégia de preços dos agentes a partir das margens dos intermediários. O período analisado foi de dezembro de 1999 à dezembro de 2005, com dados de preços ao consumidor da FIPE e dados de preços ao produtor da CEPEA/ USP. Identificou-se que o padrão de concorrência do leite longa vida é bastante diverso do encontrado para o leite pasteurizado. Enquanto para o longa vida o padrão de concorrência é mais próximo do modelo competitivo, para o leite pasteurizado o padrão encontrado foi de pouca concorrência. Para compreender essas diferenças, foi discutido o aspecto locacional do varejo e a importância do mercado relevante geográfico. Os resultados permitem algumas inferências para análises setoriais e de políticas públicas voltadas à produção leiteira. O vertiginoso crescimento das vendas de leite longa vida, absorvendo grande parte do mercado antes abastecido pelo leite pasteurizado, trouxe maior concorrência nos segmentos de indústria e distribuição, assim como maior velocidade de transmissão de preços ao longo da cadeia produtiva. Entretanto, a precificação com markups com percentual fixo, observada no leite longa vida, indica que indústria e distribuição gozam de algum poder de mercado e que variações de custo da matéria-prima são repassadas mais que proporcionalmente, em termos absolutos, ao consumidor final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho objetiva analisar e contribuir com o gerenciamento de riscos de preços dentro da indústria sucroenergética brasileira, mais especificamente da região Centro-Sul do país, que é a maior processadora de cana-de-açúcar de todo o mundo. Esta indústria tem características peculiares, tanto quanto às formas de comercialização de seus produtos finais – notadamente o açúcar e o etanol – quanto de sua estrutura de custos, onde a cana-de-açúcar representa algo da ordem de 70% do custo total de produção destes produtos. Assim, a proposição aqui implícita passa por uma abordagem específica para o gerenciamento de riscos de preços destas empresas, definindo como principal fator de risco o distanciamento entre os preços das vendas de açúcar travados em mercado organizado de futuros frente aos preços do açúcar apurados dentro da metodologia Consecana e que formam os preços do principal insumo produtivo destas empresas, a cana-de-açúcar. Assim, com uma abordagem empírica é feita uma análise sobre uma amostra de 1.138 ações de fixações de preços ocorridas durante o ano-safra 2012-13, revelando um comportamento de atuação no mercado futuro por parte destas empresas de maximização do valor da firma. Além disso, serão identificados os principais fatores idiossincráticos e sistêmicos que influenciam o retorno que estas empresas obtêm da comercialização de açúcar para o exterior, bem como os fatores que influenciam a tomada de decisão por parte destas empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The evolution of wireless communication systems leads to Dynamic Spectrum Allocation for Cognitive Radio, which requires reliable spectrum sensing techniques. Among the spectrum sensing methods proposed in the literature, those that exploit cyclostationary characteristics of radio signals are particularly suitable for communication environments with low signal-to-noise ratios, or with non-stationary noise. However, such methods have high computational complexity that directly raises the power consumption of devices which often have very stringent low-power requirements. We propose a strategy for cyclostationary spectrum sensing with reduced energy consumption. This strategy is based on the principle that p processors working at slower frequencies consume less power than a single processor for the same execution time. We devise a strict relation between the energy savings and common parallel system metrics. The results of simulations show that our strategy promises very significant savings in actual devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The transport of fluids through pipes is used in the oil industry, being the pipelines an important link in the logistics flow of fluids. However, the pipelines suffer deterioration in their walls caused by several factors which may cause loss of fluids to the environment, justifying the investment in techniques and methods of leak detection to minimize fluid loss and environmental damage. This work presents the development of a supervisory module in order to inform to the operator the leakage in the pipeline monitored in the shortest time possible, in order that the operator log procedure that entails the end of the leak. This module is a component of a system designed to detect leaks in oil pipelines using sonic technology, wavelets and neural networks. The plant used in the development and testing of the module presented here was the system of tanks of LAMP, and its LAN, as monitoring network. The proposal consists of, basically, two stages. Initially, assess the performance of the communication infrastructure of the supervisory module. Later, simulate leaks so that the DSP sends information to the supervisory performs the calculation of the location of leaks and indicate to which sensor the leak is closer, and using the system of tanks of LAMP, capture the pressure in the pipeline monitored by piezoresistive sensors, this information being processed by the DSP and sent to the supervisory to be presented to the user in real time

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study developed software rotines, in a system made basically from a processor board producer of signs and supervisory, wich main function was correcting the information measured by a turbine gas meter. This correction is based on the use of an intelligent algorithm formed by an artificial neural net. The rotines were implemented in the habitat of the supervisory as well as in the habitat of the DSP and have three main itens: processing, communication and supervision

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In academia, it is common to create didactic processors, facing practical disciplines in the area of Hardware Computer and can be used as subjects in software platforms, operating systems and compilers. Often, these processors are described without ISA standard, which requires the creation of compilers and other basic software to provide the hardware / software interface and hinder their integration with other processors and devices. Using reconfigurable devices described in a HDL language allows the creation or modification of any microarchitecture component, leading to alteration of the functional units of data path processor as well as the state machine that implements the control unit even as new needs arise. In particular, processors RISP enable modification of machine instructions, allowing entering or modifying instructions, and may even adapt to a new architecture. This work, as the object of study addressing educational soft-core processors described in VHDL, from a proposed methodology and its application on two processors with different complexity levels, shows that it s possible to tailor processors for a standard ISA without causing an increase in the level hardware complexity, ie without significant increase in chip area, while its level of performance in the application execution remains unchanged or is enhanced. The implementations also allow us to say that besides being possible to replace the architecture of a processor without changing its organization, RISP processor can switch between different instruction sets, which can be expanded to toggle between different ISAs, allowing a single processor become adaptive hybrid architecture, which can be used in embedded systems and heterogeneous multiprocessor environments

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo constante de avaliação técnica e econômica dos sistemas de colheita de madeira é intrínseco às empresas florestais, devido ao fato de corresponder a uma fase de suma importância que despende elevado investimento financeiro. No experimento deste trabalho, estudaram-se o rendimento operacional e custos operacionais e de produção do processador florestal Hypro. A análise técnica englobou estudos de tempos e movimentos pelo método de tempo contínuo. O rendimento operacional foi determinado através do volume, em metros cúbicos de madeira processada. A análise econômica incorporou os parâmetros do custo operacional, custo de processamento da madeira e rendimento energético. A análise dos dados evidenciou que o rendimento operacional por hora efetiva de trabalho foi de 38 árvores e, em metros cúbicos sem casca por hora efetiva de trabalho, de 11,68 m³ h-1, com custo de processamento de madeira sem casca de US$ 6.85 por metro cúbico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RFID (Radio Frequency Identification) identifies object by using the radio frequency which is a non-contact automatic identification technique. This technology has shown its powerful practical value and potential in the field of manufacturing, retailing, logistics and hospital automation. Unfortunately, the key problem that impacts the application of RFID system is the security of the information. Recently, researchers have demonstrated solutions to security threats in RFID technology. Among these solutions are several key management protocols. This master dissertations presents a performance evaluation of Neural Cryptography and Diffie-Hellman protocols in RFID systems. For this, we measure the processing time inherent in these protocols. The tests was developed on FPGA (Field-Programmable Gate Array) platform with Nios IIr embedded processor. The research methodology is based on the aggregation of knowledge to development of new RFID systems through a comparative analysis between these two protocols. The main contributions of this work are: performance evaluation of protocols (Diffie-Hellman encryption and Neural) on embedded platform and a survey on RFID security threats. According to the results the Diffie-Hellman key agreement protocol is more suitable for RFID systems

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Embedded systems are widely spread nowadays. An example is the Digital Signal Processor (DSP), which is a high processing power device. This work s contribution consist of exposing DSP implementation of the system logic for detecting leaks in real time. Among the various methods of leak detection available today this work uses a technique based on the pipe pressure analysis and usesWavelet Transform and Neural Networks. In this context, the DSP, in addition to do the pressure signal digital processing, also communicates to a Global Positioning System (GPS), which helps in situating the leak, and to a SCADA, sharing information. To ensure robustness and reliability in communication between DSP and SCADA the Modbus protocol is used. As it is a real time application, special attention is given to the response time of each of the tasks performed by the DSP. Tests and leak simulations were performed using the structure of Laboratory of Evaluation of Measurement in Oil (LAMP), at Federal University of Rio Grande do Norte (UFRN)