927 resultados para graphics processor
Resumo:
Este trabalho objetiva analisar e contribuir com o gerenciamento de riscos de preços dentro da indústria sucroenergética brasileira, mais especificamente da região Centro-Sul do país, que é a maior processadora de cana-de-açúcar de todo o mundo. Esta indústria tem características peculiares, tanto quanto às formas de comercialização de seus produtos finais – notadamente o açúcar e o etanol – quanto de sua estrutura de custos, onde a cana-de-açúcar representa algo da ordem de 70% do custo total de produção destes produtos. Assim, a proposição aqui implícita passa por uma abordagem específica para o gerenciamento de riscos de preços destas empresas, definindo como principal fator de risco o distanciamento entre os preços das vendas de açúcar travados em mercado organizado de futuros frente aos preços do açúcar apurados dentro da metodologia Consecana e que formam os preços do principal insumo produtivo destas empresas, a cana-de-açúcar. Assim, com uma abordagem empírica é feita uma análise sobre uma amostra de 1.138 ações de fixações de preços ocorridas durante o ano-safra 2012-13, revelando um comportamento de atuação no mercado futuro por parte destas empresas de maximização do valor da firma. Além disso, serão identificados os principais fatores idiossincráticos e sistêmicos que influenciam o retorno que estas empresas obtêm da comercialização de açúcar para o exterior, bem como os fatores que influenciam a tomada de decisão por parte destas empresas.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
A visualização de conjuntos de dados volumétricos é comum em diversas áreas de aplicação e há já alguns anos os diversos aspectos envolvidos nessas técnicas vêm sendo pesquisados. No entanto, apesar dos avanços das técnicas de visualização de volumes, a interação com grandes volumes de dados ainda apresenta desafios devido a questões de percepção (ou isolamento) de estruturas internas e desempenho computacional. O suporte do hardware gráfico para visualização baseada em texturas permite o desenvolvimento de técnicas eficientes de rendering que podem ser combinadas com ferramentas de recorte interativas para possibilitar a inspeção de conjuntos de dados tridimensionais. Muitos estudos abordam a otimização do desempenho de ferramentas de recorte, mas muito poucos tratam das metáforas de interação utilizadas por essas ferramentas. O objetivo deste trabalho é desenvolver ferramentas interativas, intuitivas e fáceis de usar para o recorte de imagens volumétricas. Inicialmente, é apresentado um estudo sobre as principais técnicas de visualização direta de volumes e como é feita a exploração desses volumes utilizando-se recorte volumétrico. Nesse estudo é identificada a solução que melhor se enquadra no presente trabalho para garantir a interatividade necessária. Após, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para determinar as possíveis técnicas de interação mais fáceis de serem utilizadas por ferramentas de recorte. A partir desse embasamento, este trabalho apresenta o desenvolvimento de três ferramentas de recorte genéricas implementadas usando-se duas metáforas de interação distintas que são freqüentemente utilizadas por usuários de aplicativos 3D: apontador virtual e mão virtual. A taxa de interação dessas ferramentas é obtida através de programas de fragmentos especiais executados diretamente no hardware gráfico. Estes programas especificam regiões dentro do volume a serem descartadas durante o rendering, com base em predicados geométricos. Primeiramente, o desempenho, precisão e preferência (por parte dos usuários) das ferramentas de recorte volumétrico são avaliados para comparar as metáforas de interação empregadas. Após, é avaliada a interação utilizando-se diferentes dispositivos de entrada para a manipulação do volume e ferramentas. A utilização das duas mãos ao mesmo tempo para essa manipulação também é testada. Os resultados destes experimentos de avaliação são apresentados e discutidos.
Resumo:
A presente pesquisa apresentou como seu objetivo principal verificar as relações entre valores, atitude em relação ao empreendedorismo (AE) e intenção empreendedora (IE) em um estudo comparativo com universitários de graduação em Administração das Cinco Regiões Brasileiras e Cabo Verde. O instrumento de pesquisa foi composto por um questionário sócio demográfico, a escala de Valores Humanos – Questionário de Perfis de Valores de Schwartz(2001) e o Questionário de Intenção Empreendedora de Liñán & Chen (2009). Após o consentimento livre e informado, os alunos responderam o instrumento de pesquisa, perfazendo um total de 1561 respostas válidas. Os dados foram tabulados e analisados nos Softwares: SPSS 21 e AMOS 21 para a produção de Estatísticas Descritivas, Análises de Confiabilidade, Análises de Correlação, Análise de Variância (ANOVA), Gráficos, Análise Fatorial Confirmatória e Modelagem de Equações Estruturais (SEM). Os modelos utilizaram a Teoria de Ação Racional (FISHBEIN & AJZEN,1971) e Teoria do Comportamento Planejado(AJZEN,1991), testando o impacto dos valores nas atitudes e intenções. Os resultados indicaram que os valores de Estimulação, Poder e Hedonismo foram tiveram os maiores efeitos na IE e na AE. Diferenças significativas foram encontradas entre os gêneros, com os homens apresentando maior IE e AE. Diferenças regionais foram encontradas. Limitações, implicações práticas e teóricas, além de sugestões para pesquisas futuras são apresentadas.
Resumo:
This thesis aims to explore the concept of impression management from the financial analysts’ point of view. Impression management is the definition of the act of an agent manipulating an impression that another person have of this agent, in the context of this thesis it happens when a company make graphics to disclosure financial-accounting information in order to manipulate the market’s perception of their performance. Three types of impression management were analyzed: presentation enhancement (color manipulation), measurement distortion (scale manipulation) and selectivity (the disclosure of positive information only). While presentation enhancement improved only the most impulsive financial analysts’ perception of firm’s performance, the measurement distortion improved the perception of performance for both groups of financial analysts (impulsive and reflective). Finally, selectivity improved the financial analysts’ perception of firm’s performance for both groups (impulsive and reflective), although impulsive financial analysts assigned lower ratings when compared to their reflective peers, on average, to a hypothetical company.
Resumo:
This thesis describes all process of the development of music visualization, starting with the implementation, followed by realization and then evaluation. The main goal is to have to knowledge of how the audience live performance experience can be enhanced through music visualization. With music visualization is possible to give a better understanding about the music feelings constructing an intensive atmosphere in the live music performance, which enhances the connection between the live music and the audience through visuals. These visuals have to be related to the live music, furthermore has to quickly respond to live music changes and introduce novelty into the visuals. The mapping between music and visuals is the focus of this project, in order to improve the relationship between the live performance and the spectators. The implementation of music visualization is based on the translation of music into graphic visualizations, therefore at the beginning the project was based on the existent works. Later on, it was decided to introduce new ways of conveying music into visuals. Several attempts were made in order to discover the most efficient mapping between music and visualization so people can fully connect with the performance. Throughout this project, those attempts resulted in several music visualizations created for four live music performances, afterwards it was produced an online survey to evaluate those live performances with music visualization. In the end, all conclusions are presented based on the results of the online survey, and also is explained which music elements should be depicted in the visuals, plus how those visuals should respond to the selected music elements.
Resumo:
The evolution of wireless communication systems leads to Dynamic Spectrum Allocation for Cognitive Radio, which requires reliable spectrum sensing techniques. Among the spectrum sensing methods proposed in the literature, those that exploit cyclostationary characteristics of radio signals are particularly suitable for communication environments with low signal-to-noise ratios, or with non-stationary noise. However, such methods have high computational complexity that directly raises the power consumption of devices which often have very stringent low-power requirements. We propose a strategy for cyclostationary spectrum sensing with reduced energy consumption. This strategy is based on the principle that p processors working at slower frequencies consume less power than a single processor for the same execution time. We devise a strict relation between the energy savings and common parallel system metrics. The results of simulations show that our strategy promises very significant savings in actual devices.
Resumo:
The present paper has aimed the analysis of a real instrument which offers great impact in the ICMS revenue: The Fiscal Voucher Emitting Equipment (ECF). In this sense, the effects of the commercial automation process in Rio Grande do Norte s ICMS revenue between 2000 and 2006 were investigated. Based on this goal, the methodology adopted was characterized as a study of quantitative, exploratory-qualitative nature, through the collecting of secondary data, provided by the State Taxation Bureau (SET). In the absence of a statistic model in the existing literature about the approached theme, we decided for the elaboration of a suitable model, with tables and graphics. As a way to observe the effects of these programs on the revenue, the comparison between the ECF users and non users, in the same period, has proved to be of great importance. We reached the conclusion that even though the growth rates amongst the activities that use the ECF had ascended in tributary revenue in the related years, from 2004 on, with the introduction of TEF, this participation presented a higher growth, which leads us to suppose that the use of this recent instrument provides a significant impact in the State effective revenue. We stand out that the collected amounts could have been even higher, if the level of adhesion to the instrument had not been so low, mainly amongst the minor entrepreneurs, which may mean a rooted defraudation in the system. In short, through the set of data obtained, it is possible to conclude that the ECF and the recent TEF have significantly influenced the ICMS revenue in the entire State all over the period that was analyzed
Resumo:
The transport of fluids through pipes is used in the oil industry, being the pipelines an important link in the logistics flow of fluids. However, the pipelines suffer deterioration in their walls caused by several factors which may cause loss of fluids to the environment, justifying the investment in techniques and methods of leak detection to minimize fluid loss and environmental damage. This work presents the development of a supervisory module in order to inform to the operator the leakage in the pipeline monitored in the shortest time possible, in order that the operator log procedure that entails the end of the leak. This module is a component of a system designed to detect leaks in oil pipelines using sonic technology, wavelets and neural networks. The plant used in the development and testing of the module presented here was the system of tanks of LAMP, and its LAN, as monitoring network. The proposal consists of, basically, two stages. Initially, assess the performance of the communication infrastructure of the supervisory module. Later, simulate leaks so that the DSP sends information to the supervisory performs the calculation of the location of leaks and indicate to which sensor the leak is closer, and using the system of tanks of LAMP, capture the pressure in the pipeline monitored by piezoresistive sensors, this information being processed by the DSP and sent to the supervisory to be presented to the user in real time
Resumo:
Activities that have fuel subterranean storage system are considered potentially polluting fuels by CONAMA Resolution 273, due to the possibility of leak, outpouring and overflow of fuel into the ground. Being even more worrying when contaminate groundwater for public supply, as the case of Natal City. For this reason, the Public Ministry/RN, in partnership with UFRN, developed the project environmental suitability of Gas stations in Natal, of which 36% showed evidence of contamination. This paper describes the four stages of the management of contaminated areas: preliminary assessment of environmental liabilities, detailed confirmatory investigation of the contamination, risk analysis to human health (RBCA), as well as the remediation plan of degraded areas. Therefore it is presented a case study. For the area investigated has been proposed a mathematical method to estimate the volume of LNAPL by a free CAD software (ScketchUp) and compare it with the partition method for grid area. Were also performed 3D graphics designs of feathers contamination. Research results showed that passive benzene contamination in groundwater was 2791.77 μg/L, when the maximum allowed by CONAMA Resolution 420 is 5 μg/L which is the potability standards. The individual and cumulative risks were calculated from 4.4 x10-3, both above the limits of 1.0 x10-5 or by RBCA 1.0 x10-6 by the Public Ministry/RN. Corrective action points that remediation of dissolved phase benzene is expected to reach a concentration of 25 μg/L, based on carcinogenic risk for ingestion of groundwater by residents residential, diverging legislation. According to the proposed model, the volume of LNAPL using the ScketchUp was 17.59 m3, while by the grid partitioning method was 14.02 m3. Because of the low recovery, the expected removal of LNAPL is 11 years, if the multiphase extraction system installed in the enterprise is not optimized