959 resultados para Computação reconfigurável
Resumo:
Reverberation is caused by the reflection of the sound in adjacent surfaces close to the sound source during its propagation to the listener. The impulsive response of an environment represents its reverberation characteristics. Being dependent on the environment, reverberation takes to the listener characteristics of the space where the sound is originated and its absence does not commonly sounds like “natural”. When recording sounds, it is not always possible to have the desirable characteristics of reverberation of an environment, therefore methods for artificial reverberation have been developed, always seeking a more efficient implementations and more faithful to the real environments. This work presents an implementation in FPGAs (Field Programmable Gate Arrays ) of a classic digital reverberation audio structure, based on a proposal of Manfred Schroeder, using sets of all-pass and comb filters. The developed system exploits the use of reconfigurable hardware as a platform development and implementation of digital audio effects, focusing on the modularity and reuse characteristics
Resumo:
This work aims to understand how cloud computing contextualizes the IT government and decision agenda, in the light of the multiple streams model, considering the current status of public IT policies, the dynamics of the agenda setting for the area, the interface between the various institutions, and existing initiatives on the use of cloud computing in government. Therefore, a qualitative study was conducted through interviews with a group of policy makers and the other group consists of IT managers. As analysis technique, this work made use of content analysis and analysis of documents, with some results by word cloud. As regards the main results to overregulation to the area, usually scattered in various agencies of the federal government, which hinders the performance of the managers. Identified a lack of knowledge of standards, government programs, regulations and guidelines. Among these he highlighted a lack of understanding of the TI Maior Program, the lack of effectiveness of the National Broadband Plan in view of the respondents, as well as the influence of Internet Landmark as an element that can jam the advances in the use of computing cloud in the Brazilian government. Also noteworthy is the bureaucratization of the acquisition of goods to IT services, limited, in many cases, technological advances. Regarding the influence of the actors, it was not possible to identify the presence of a political entrepreneur, and it was noticed a lack of political force. Political flow was affected only by changes within the government. Fragmentation was a major factor for the theme of weakening the agenda formation. Information security was questioned by the respondents pointed out that the main limitation coupled with the lack of training of public servants. In terms of benefits, resource economy is highlighted, followed by improving efficiency. Finally, the discussion about cloud computing needs to advance within the public sphere, whereas the international experience is already far advanced, framing cloud computing as a responsible element for the improvement of processes, services and economy of public resources
Resumo:
This work proposes the use of the behavioral model of the hysteresis loop of the ferroelectrics capacitor as a new alternative to the usually costly techniques in the computation of nonlinear functions in artificial neurons implemented on reconfigurable hardware platform, in this case, a FPGA device. Initially the proposal has been validated by the implementation of the boolean logic through the digital models of two artificial neurons: the Perceptron and a variation of the model Integrate and Fire Spiking Neuron, both using the model also digital of the hysteresis loop of the ferroelectric capacitor as it’s basic nonlinear unit for the calculations of the neurons outputs. Finally, it has been used the analog model of the ferroelectric capacitor with the goal of verifying it’s effectiveness and possibly the reduction of the number of necessary logic elements in the case of implementing the artificial neurons on integrated circuit. The implementations has been carried out by Simulink models and the synthesizing has been done through the DSP Builder software from Altera Corporation.
Resumo:
This Thesis main objective is to implement a supporting architecture to Autonomic Hardware systems, capable of manage the hardware running in reconfigurable devices. The proposed architecture implements manipulation, generation and communication functionalities, using the Context Oriented Active Repository approach. The solution consists in a Hardware-Software based architecture called "Autonomic Hardware Manager (AHM)" that contains an Active Repository of Hardware Components. Using the repository the architecture will be able to manage the connected systems at run time allowing the implementation of autonomic features such as self-management, self-optimization, self-description and self-configuration. The proposed architecture also contains a meta-model that allows the representation of the Operating Context for hardware systems. This meta-model will be used as basis to the context sensing modules, that are needed in the Active Repository architecture. In order to demonstrate the proposed architecture functionalities, experiments were proposed and implemented in order to proof the Thesis hypothesis and achieved objectives. Three experiments were planned and implemented: the Hardware Reconfigurable Filter, that consists of an application that implements Digital Filters using reconfigurable hardware; the Autonomic Image Segmentation Filter, that shows the project and implementation of an image processing autonomic application; finally, the Autonomic Autopilot application that consist of an auto pilot to unmanned aerial vehicles. In this work, the applications architectures were organized in modules, according their functionalities. Some modules were implemented using HDL and synthesized in hardware. Other modules were implemented kept in software. After that, applications were integrated to the AHM to allow their adaptation to different Operating Context, making them autonomic.
Resumo:
This work presents an application of a hybrid Fuzzy-ELECTRE-TOPSIS multicriteria approach for a Cloud Computing Service selection problem. The research was exploratory, using a case of study based on the actual requirements of professionals in the field of Cloud Computing. The results were obtained by conducting an experiment aligned with a Case of Study using the distinct profile of three decision makers, for that, we used the Fuzzy-TOPSIS and Fuzzy-ELECTRE-TOPSIS methods to obtain the results and compare them. The solution includes the Fuzzy sets theory, in a way it could support inaccurate or subjective information, thus facilitating the interpretation of the decision maker judgment in the decision-making process. The results show that both methods were able to rank the alternatives from the problem as expected, but the Fuzzy-ELECTRE-TOPSIS method was able to attenuate the compensatory character existing in the Fuzzy-TOPSIS method, resulting in a different alternative ranking. The attenuation of the compensatory character stood out in a positive way at ranking the alternatives, because it prioritized more balanced alternatives than the Fuzzy-TOPSIS method, a factor that has been proven as important at the validation of the Case of Study, since for the composition of a mix of services, balanced alternatives form a more consistent mix when working with restrictions.
Resumo:
Launching centers are designed for scientific and commercial activities with aerospace vehicles. Rockets Tracking Systems (RTS) are part of the infrastructure of these centers and they are responsible for collecting and processing the data trajectory of vehicles. Generally, Parabolic Reflector Radars (PRRs) are used in RTS. However, it is possible to use radars with antenna arrays, or Phased Arrays (PAs), so called Phased Arrays Radars (PARs). Thus, the excitation signal of each radiating element of the array can be adjusted to perform electronic control of the radiation pattern in order to improve functionality and maintenance of the system. Therefore, in the implementation and reuse projects of PARs, modeling is subject to various combinations of excitation signals, producing a complex optimization problem due to the large number of available solutions. In this case, it is possible to use offline optimization methods, such as Genetic Algorithms (GAs), to calculate the problem solutions, which are stored for online applications. Hence, the Genetic Algorithm with Maximum-Minimum Crossover (GAMMC) optimization method was used to develop the GAMMC-P algorithm that optimizes the modeling step of radiation pattern control from planar PAs. Compared with a conventional crossover GA, the GAMMC has a different approach from the conventional one, because it performs the crossover of the fittest individuals with the least fit individuals in order to enhance the genetic diversity. Thus, the GAMMC prevents premature convergence, increases population fitness and reduces the processing time. Therefore, the GAMMC-P uses a reconfigurable algorithm with multiple objectives, different coding and genetic operator MMC. The test results show that GAMMC-P reached the proposed requirements for different operating conditions of a planar RAV.
Resumo:
Este trabalho tem por objetivo relatar os resultados preliminares de uma experiência de integração curricular, em andamento na Escola de Informática da UCPel, na área de fundamentos matemáticos da Ciência da Computação. A concepção curricular da experiência está baseada nas idéias de Basil Bernstein sobre currículos de coleção e/ou integração, na idéia de desenvolvimento autônomo do aluno e na organização do ensino em forma semi-presencial (com apoio da Internet) e cooperativa (com apoio de softwares matemáticos).
Resumo:
A constante evolução da tecnologia disponibilizou, atualmente, ferramentas computacionais que eram apenas expectativas há 10 anos atrás. O aumento do potencial computacional aplicado a modelos numéricos que simulam a atmosfera permitiu ampliar o estudo de fenômenos atmosféricos, através do uso de ferramentas de computação de alto desempenho. O trabalho propôs o desenvolvimento de algoritmos com base em arquiteturas SIMT e aplicação de técnicas de paralelismo com uso da ferramenta OpenACC para processamento de dados de previsão numérica do modelo Weather Research and Forecast. Esta proposta tem forte conotação interdisciplinar, buscando a interação entre as áreas de modelagem atmosférica e computação científica. Foram testadas a influência da computação do cálculo de microfísica de nuvens na degradação temporal do modelo. Como a entrada de dados para execução na GPU não era suficientemente grande, o tempo necessário para transferir dados da CPU para a GPU foi maior do que a execução da computação na CPU. Outro fator determinante foi a adição de código CUDA dentro de um contexto MPI, causando assim condições de disputa de recursos entre os processadores, mais uma vez degradando o tempo de execução. A proposta do uso de diretivas para aplicar computação de alto desempenho em uma estrutura CUDA parece muito promissora, mas ainda precisa ser utilizada com muita cautela a fim de produzir bons resultados. A construção de um híbrido MPI + CUDA foi testada, mas os resultados não foram conclusivos.
Resumo:
Advances in FPGA technology and higher processing capabilities requirements have pushed to the emerge of All Programmable Systems-on-Chip, which incorporate a hard designed processing system and a programmable logic that enable the development of specialized computer systems for a wide range of practical applications, including data and signal processing, high performance computing, embedded systems, among many others. To give place to an infrastructure that is capable of using the benefits of such a reconfigurable system, the main goal of the thesis is to implement an infrastructure composed of hardware, software and network resources, that incorporates the necessary services for the operation, management and interface of peripherals, that coompose the basic building blocks for the execution of applications. The project will be developed using a chip from the Zynq-7000 All Programmable Systems-on-Chip family.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015.
Resumo:
Têm-se notado nos últimos anos um crescimento na adoção de tecnologias de computação em nuvem, com uma adesão inicial por parte de particulares e pequenas empresas, e mais recentemente por grandes organizações. Esta tecnologia tem servido de base ao aparecimento de um conjunto de novas tendências, como a Internet das Coisas ligando os nossos equipamentos pessoais e wearables às redes sociais, processos de big data que permitem tipificar comportamentos de clientes ou ainda facilitar a vida ao cidadão com serviços de atendimento integrados. No entanto, tal como em todas as novas tendências disruptivas, que trazem consigo um conjunto de oportunidades, trazem também um conjunto de novos riscos que são necessários de serem equacionados. Embora este caminho praticamente se torne inevitável para uma grande parte de empresas e entidades governamentais, a sua adoção como funcionamento deve ser alvo de uma permanente avaliação e monitorização entre as vantagens e riscos associados. Para tal, é fundamental que as organizações se dotem de uma eficiente gestão do risco, de modo que possam tipificar os riscos (identificar, analisar e quantificar) e orientar-se de uma forma segura e metódica para este novo paradigma. Caso não o façam, os riscos ficam evidenciados, desde uma possível perda de competitividade face às suas congéneres, falta de confiança dos clientes, dos parceiros de negócio e podendo culminar numa total inatividade do negócio. Com esta tese de mestrado desenvolve-se uma análise genérica de risco tendo como base a Norma ISO 31000:2009 e a elaboração de uma proposta de registo de risco, que possa servir de auxiliar em processos de tomada de decisão na contratação e manutenção de serviços de Computação em Nuvem por responsáveis de organizações privadas ou estatais.
Resumo:
O objetivo do presente trabalho é comparar, do ponto de vista elétrico, a membrana do neurônio ganglionar com a da célula de neuroblastoma, analisando os efeitos das cargas fixas sobre o potencial elétrico nas superfícies da bicamada lipídica e também sobre o comportamento do perfil de potencial através da membrana, considerando as condiçõesfísico-químicas do estado de repouso e do estado de potencial de ação. As condições para a ocorrência dos referidos estados foram baseadas em valores numéricos de parâmetros elétricos e químicos, característicos dessas células, obtidos na literatura. O neurônio ganglionar exemplifica um neurônio sadio, e a célula de neuroblastoma, que é uma célula tumoral, exemplifica um neurônio patológico, alterado por esta condição. O neuroblastoma é um tumor que se origina das células da crista neural (neuroblastos), que é uma estrutura embrionária que dá origem a muitas partes do sistema nervoso, podendo surgir em diversos locais do organismo, desde a região do crânio até a área mais inferior da coluna. O modelo adotado para simular a membrana de neurônio inclui: (a) as distribuições espaciais de cargas elétricas fixas no glicocálix e na rede de proteínas citoplasmáticas; (b) as distribuições de cargas na solução eletrolítica dos meios externo e interno; e (c) as cargas superficiais da bicamada lipídica. Os resultados que obtivemos mostraram que, nos estados de repouso e de ação, os potenciais superficiais da bicamada interno (ÁSbc) e externo (ÁSgb) da célula de neuroblastoma não sofrem alteração mensurável, quando a densidade de carga na superfície interna (QSbc) torna-se 50 vezes mais negativa, tanto para uma densidade de carga na superfície externa da bicamada nula (QSgb = 0), como para um valor de QSgb 6= 0. Porém, no estado de repouso, uma leve queda em ÁSbc do neur^onio ganglionar pode ser observada com este nível de variação de carga, sendo que ÁSgb do neurônio ganglionar é mais negativo quando QSgb = 1=1100 e/A2. No estado de ação, para QSgb = 0, o aumento da negatividade de QSbc não provoca alteração detectável de ÁSbc e ÁSgb para os dois neurônios. Quando consideramos QSgb = 1=1100 e/A2, ÁSgb do neurônio ganglionar se torna mais negativo, não se observando variações detectáveis nos potenciais superficiais da célula de neuroblastoma. Tanto no repouso quanto no estado de ação, ÁSgb das duas células não sofre variação sensível com o aumento da negatividade da carga fixa distribuída espacialmente no citoplasma. Já a ÁSbc sofre uma queda gradativa nos dois tipos celulares; porém, no estado de ação, esta queda é mais rápida. Descobrimos diferenças importantes nos perfis de potencial das duas células, especialmente na região do glicocálix.
Resumo:
Nesta dissertação é apresentada uma modelagem analítica para o processo evolucionário formulado pela Teoria da Evolução por Endossimbiose representado através de uma sucessão de estágios envolvendo diferentes interações ecológicas e metábolicas entre populações de bactérias considerando tanto a dinâmica populacional como os processos produtivos dessas populações. Para tal abordagem é feito uso do sistema de equações diferenciais conhecido como sistema de Volterra-Hamilton bem como de determinados conceitos geométricos envolvendo a Teoria KCC e a Geometria Projetiva. Os principais cálculos foram realizados pelo pacote de programação algébrica FINSLER, aplicado sobre o MAPLE.
Resumo:
O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.
Resumo:
Este trabalho teve como objetivos identificar e analisar fatores associados ao aleitamento materno exclusivo, com significância estatística, em crianças menores de quatro meses residentes em Juiz de Fora, Minas Gerais. Fornece informações básicas para planejamento de política de amamentação neste município, estudando fatores influentes no desmame e criando Banco de Dados em Aleitamento Materno no Centro de Computação do Núcleo de Assessoria Técnica aos Estudos em Saúde da Universidade Federal de Juiz de Fora, disponível pára uso público. Compara os resultado desta pesquisa aos de outras cidades brasileiras com estudo de metodologia semelhante. Para atingir os objetivos propostos foi realizada pela autora desta tese uma pesquisa no período de 10 de agosto a 13 de setembro de 2002, época da campanha de vacinação na cidade, em uma amostra por conglomerado, tendo sido entrevistadas 1859 pessoas, sendo 625 mães e acompanhantes de crianças menores de 4 meses, em 24 postos de vacinação. A terminologia empregada deu-se de acordo com a recomendação da OMS (1991). Aplicou-se um questionário por intermédio de 268 entrevistadores voluntários, previamente treinados, incluindo estudantes da área de saúde. A pesquisa fez parte de um estudo multicêntrico em conjunto com o Núcleo de Pesquisas Epidemiológicas em Nutrição e Saúde da Universidade de São Paulo e do Núcleo de Investigação em Saúde da Mulher e da Criança, Instituto de Saúde, Secretaria Estadual de Saúde de São Paulo denominado Avaliação das práticas alimentares no primeiro ano de vida em dias nacionais de vacinação. A análise dos dados foi processada utilizando-se o programa Statiscal Package for The Social Sciences (SPSS) e os resultados foram descritos utilizando-se o teste do qui-quadrado para verificar a significância estatística da associação dos fatores independentes com o fator de desfecho aleitamento materno exclusivo. Para estudar possíveis fatores de confusão foi aplicada a técnica de análise de regressão logística. A pesquisa evidenciou que a prevalência de Aleitamento Materno Exclusivo aos 4 meses é baixa, sendo que esta é menor que as taxas da maioria das capitais brasileiras, com exceção de Cuiabá. Os hábitos de usar chupetas e mamadeiras são muito freqüentes no município. Os fatores de risco para interrupção do aleitamento materno exclusivo até os quatro meses encontrados foram: primiparidade, nascimento em hospital público ou público-privado, não disponibilidade para amamentar, uso de chupetas ou mamadeiras. A maioria das crianças inicia a amamentação no primeiro dia de vida em casa mas não de forma exclusiva. À medida que a idade aumenta, o índice de amamentação vai diminuindo progressivamente, indicando a necessidade urgente de programas de apoio e incentivo ao aleitamento materno, em especial de sua forma exclusiva, bem como de promoção do mesmo no município. Deve ser dada ênfase nesta atenção às mulheres primíparas e àquelas mulheres cujos partos ocorreram em hospitais públicos ou públicos-privados, que não tenham disponibilidade para amamentar e que utilizam mamadeiras ou chupetas para seus filhos.