1000 resultados para Computação reconfigurável


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma investigação sobre algumas operações categoriais baseadas em grafos e a aplicação das mesmas a uma área específica da Ciência da Computação, a saber, animações computacionais baseadas em autômatos finitos com saída. As operações categoriais estudadas neste trabalho são: Produto, Coproduto, Soma Amalgamada e Produto Fibrado. O modelo AGA (Animação Gráfica baseada em Autômatos finitos) foi o escolhido para ser utilizado como base desta dissertação. Inspirado nestes estudos, o trabalho contém uma proposta de como aplicar tais operações com o objetivo de definir animações aparentemente complexas, de forma simples, precisa e de fácil implementação. O enfoque está baseado em J. Stoy que diz que um dos objetivos para o uso da semântica formal de teoria das categorias é “sugerir meios ou formas para o projetista desenvolver sistemas melhores, mais elegantes (“limpos”) e com descrições formais mais simples”. Entretanto, não é objetivo deste trabalho verificar se a utilização destas operações é ou não melhor do que a utilização de qualquer outra solução para criar novas animações. Esta dissertação traz uma nova versão do modelo AGA, denominada AGANd (Animação Gráfica baseada em Autômatos finitos Não determinísticos), sendo que o AGA utiliza apenas autômatos finitos determinísticos para criar os atores de uma animação. Com a utilização do AGANd obtém-se animações mais realistas e mais flexíveis. A aplicação destas operações se dá nos dois modelos, os resultados obtidos a partir de cada uma das operações sobre os mesmos são apresentados de forma detalhada e ilustrados com os autômatos resultantes no decorrer do trabalho. É apresentada uma sugestão de implementação para cada uma das operações, visando estender o protótipo já implementado do modelo AGA. Isso faz com que o leitor seja estimulado a aplicar estas e outras operações categoriais em novas animações baseadas ou não nos modelos apresentados, despertando até mesmo para seu uso em outras áreas da Ciência da Computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar e estudar a aplicação de uma ferramenta chamada PCP – Pseudo-Compilador Portugol, criada para auxiliar estudantes de programação a aprimorar o raciocínio lógico e a criar programas estruturados, sem que precisem se preocupar com comandos e instruções em Inglês ou tenham conhecimento de uma linguagem de programação específica. Por ser uma ferramenta que usa somente palavras do nosso idioma, os alunos podem direcionar todo o seu raciocínio no entendimento e resolução do problema em forma de algoritmo. O estudo experimental realizado neste trabalho pretende analisar e comparar o aprendizado entre grupos de alunos de disciplinas de programação utilizando e não utilizando esta ferramenta. Além de acompanhar o desempenho dos alunos, pretende também coletar informações durante as baterias de testes e obter as opiniões dos mesmos em relação ao PCP, no que se refere às facilidades, dificuldades, pontos positivos e falhas apresentadas. Este estudo é apresentado em duas etapas, com oito baterias de teste em cada uma. Na primeira etapa foram selecionados alunos do Curso de Ciência da Computação da UNIGRAN, em Dourados-MS; na segunda etapa foram selecionados alunos da Escola Anglo Decisivo. Estas duas etapas possibilitam a análise do aprendizado proporcionado pela ferramenta com alunos que já têm alguma noção de programação e com alunos que não tiveram nenhum contato com o desenvolvimento de programas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este projeto de pesquisa teve por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas estão se utilizando da Internet e outras tecnologias da informação para agregar valor e/ou reduzir custos para os seus clientes, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com fornecedores e outros parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. O objetivo principal foi verificar se o modelo preliminar proposto explicava o comportamento das empresas industriais de São Paulo, permitindo uma reflexão sobre eventuais discrepâncias e o aprimoramento do modelo, além da recomendação de linhas de ação para as empresas. Procurou-se, ainda, determinar se os usos feitos da Internet pelas empresas envolvidas na pesquisa, assim como as transformações por elas realizadas em seu ambiente empresarial em virtude da disponibilização das novas tecnologias, eram extensíveis a outros segmentos do mercado, além dos que representaram o objeto de estudo imediato deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The new economy stimulated by the bigger Internet participation as an interaction mean between people and business has been changing the companies¿ management routine. Nowadays, Internet access goes through telephones, in the houses and offices, or through nets of the Intranet kind, with the users in their working settings. The Internet personal access added, with mobility, surely will bring changes to our contacting form to the outside world as well as it will create a possibility of giving the customers a bigger variety of products and services. The present study aims are: (i) to verify the customers behaviours related to this new media, presented in the mobiles digital screens; (ii) to explore some of their main features, and (iii) to compare them with the other media features, as the radio and the TV ones. The applied research methodology was the data collecting through phone interviews. To obtain a Confidence Interval of 95%, 470 WAP, Internet, radio and TV current users¿ answers were gotten. To compare the media, the Fishbein multi-attributes model was used what possibilities to form comparative scores of the attributes built for the research. To mark the discussion concerning the public behaviour related to the differentiated use of the mentioned media out, the study produced uses the McLuhan theoretical reference (1969), specially concerning to his theoretical building, denominated hot and cold means. But this referential theoretic mark could not be supported by the accomplished quantitative study result. The comparison of built attribute scores averages has differentiated the hot media WAP, like radio, as well as the cold media one, like TV. This way, showing that the access new technology appearance, WAP, not only enlarges the Internet use, but also appoints to a new theoretic classification possibility to this new media. The accomplished quantitative research revealed that, through the user point of view, the ¿Contents¿ category is considered as one of the most important WAP aspects. The TV and the radio received significantly lower grades in this subject. The public considers that is important that the WAP information is ¿trustworthy¿, ¿easy¿ to find, ¿available¿, ¿sufficient¿ and that attends the ¿urgency¿ expected by the user. It was observed that the WAP score ¿emotion¿ is inferior to the radio and TV and superior to the Internet ones. But, the differences found are not significant. Considering the low score of importance given to the attributes group ¿emotion¿, is not recommended the WAP use as media when the emotional users aspects are wanted to be reached.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this study is to investigate, under the perspective of the investor, the determinant factors for the success of the stock brokerage process over the Web, through financial portals in the Brazilian Internet. This study is based on a theoretical framework which shows the evolution of the electronic commerce all over the world, and, specially, in Brazil; analyses the role of intermediation, desintermediation and reintermediation in the electronic commerce; stresses the differences between the traditional stocks brokerage process and the one made possible by the Internet; and, finally, describes the profile of the investors which operates their investments in the financial markets over the Web.The conclusions of this study are obtained based on a field study, conducted with Brazilian investors that operate using Internet based financial portals for the intermediation of their stock operations. The findings obtained where analyzed under the perspective brought by the theoretical reference framework, and, based on this approach, the critical aspects for the success of stock brokerage over the Internet, under the vision of the investor, could be deducted and discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work has as main objective the development of a key factors¿ model for the quality of Home Broker systems. An explanatory research was performed, based on a quantitative approach. To achieve this goal, some theoretical models of technology acceptance (TAM, TRA, TPB and IDT), reliability and quality of service were reviewed. It was proposed an extended key factors¿ model and developed a questionnaire, which was the research instrument used in this study. The questionnaire was applied over the Internet, from which was obtained a participation of 113 valid respondents, all of them users of Home Broker system. Once performed the data collection, statistical tests were used for the Factorial Analysis in order to achieve a definitive model. The key factors found were Perceived Usefulness, Perceived Ease of Use, Subjective Norms, Compatibility, Reliability and Relative Advantage. Some hypotheses from the model were also tested to investigate the relationship between the importance given to the factors and the resulting degree of satisfaction about quality of service. As a result of the study, a key factors¿ model for the quality of Home Broker systems was established, and identified that the factor Compatibility" has more explanatory power than the others."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation seeks to recognize the factors, which are relevant to the construction of the processes Government-to-Government (G2G), and how these factors influence the success of those processes. For this research, two existing cases in Banco Central do Brasil (Bacen) were used: i) the Banco Central do Brasil (BACEN) X Senado Federal case; and the Bacen x Poder Judiciário case. The framework of this dissertation is based on the methodology of multiple study cases described by Robert Yin (2001). This work analyzed separately each of the cases and compared the results obtained in each analysis. In this way, this research aimed at analyzing the reasons that led these cases to gain such distinct outcomes, despite the existing potential benefits in each one of them. The obtained results suggest that three factors influence the success of G2G processes in a relevant way: computational safety; the culture of the organizations involved; and the capacitation of people involved. Each of these factors, according to what results showed, bring a set of considerations which should be observed by the public administrator in relation to the strategies of implementation of G2G processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O relatório social, instrumento importante para gestão social, prestação de contas dessa gestão, análise e estudos sobre a RSE, é publicado cada vez com mais freqüência[ABF1] na Internet, levando as questões sociais da empresa para o espaço público, potencializando, com isso, sua divulgação e seu uso. No entanto, a tecnologia da informação oferece recursos para que essas ações possam ir além da divulgação. Diante desta premissa, o estudo se propõe[ABF2] a analisar o aproveitamento desses recursos pela área de responsabilidade social da empresa. A partir de um levantamento realizado nos sites de 139 empresas, são observadas aquelas[ABF3] que divulgaram o relatório social e quais os seus interesses, projetos e ações sócio-ambientais, assim como os recursos tecnológicos que viabilizam a interação e a comunicação com stakeholders. Num segundo momento, busca-se a interação com as empresas via e-mail e realizam-se pesquisas de campo para examinar o uso da tecnologia pela área de responsabilidade social de duas empresas participantes do levantamento. Por um lado, há o desejo de diálogo e de maior proximidade com o público, sobretudo quando estão em pauta temas relacionados com o meio ambiente, a cidadania e ações comunitárias. Por outro, porém, alguns passos -ainda que curtos -são dados em direção à divulgação de informações relevantes para a sociedade (atingindo universos mais remotos).A comunicação, a interação e as práticas que permitem maior participação e integração com stakeholders carecem de maior empenho e aproveitamento dos recursos tecnológicos voltados para esses fins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The electronic commerce has become a channel of advertising, commercialization and distribution of products and services, continuously increasing it¿s importance in terms of both physical and financial volumes, but still exist many gaps in the knowledge about the choice process of sales channels in the electronic commerce. The objective of this work is to raise and quantify the relevant factors in the choice of these channels in Brazil. The identification of the relevant factors was made through depth interviews with consumers, users of electronic commerce, as well as through the existing theoretical referential on the subject. The quantification of these factors was carried out with book purchasers by electronic commerce, through quantitative research, using the methodology of conjoint analysis, where the price was the most important factor, followed by delivery time, positive experience on previous purchase, usability of the site, positive recommendation of friends and the site brand. These results indicate as important attributes: price, confidence, usability and brand.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho contempla a interpretação e quantificação das relações entre a alocação da demanda e da oferta de equipamentos de ensino em um sistema local, instrumentado a partir de modelo de oportunidade espacial. Avalia o desempenho de equipamentos escolares baseado na descrição detalhada da configuração espacial e abordagem probabilística para a escolha do usuário em potencial. Constitui objetivo principal medir o desempenho de equipamentos escolares, considerando a configuração espacial urbana, a demanda qualificada representada pelos diversos usuários em potencial e a distribuição dos equipamentos na cidade, verificando a possibilidade teórica de avaliar a qualidade do serviço em função de sua localização, utilizando como variáveis a acessibilidade, a eficiência e equidade espacial. Neste sentido, o método adotado compreende a introdução de variáveis físicas, sociais e econômicas associadas a modelos configuracionais para análise entre as diferentes medidas, adaptado a partir do conceito de oportunidade espacial. Utiliza a medida de Convergência Espacial, definida como uma particularidade do conceito de Centralidade Espacial Os resultados esperados, tendo em vista os propósitos da pesquisa, deverão conduzir a verificação das seguintes hipóteses: a) Do ponto de vista do sistema educacional e habitacional existente, a avaliação do desempenho do sistema escolar pode ser obtida considerando uma combinação de variáveis locais (tipo de demanda e tipo/tamanho de oferta de escolas) e variáveis globais (posição relativa no espaço); b) Do ponto de vista das políticas públicas, a avaliação de impactos de novos equipamentos/serviços de educação pode ser simulada através da medida de Convergência Urbana, desta vez considerando localizações prováveis; A utilização dos modelos propostos neste estudo resultaria da manipulação de variáveis de oferta de serviços de ensino através da computação e associação de dados para cada caso em particular obter-se-ia atributo ao qual estariam relacionadas a eficiência do equipamento, além dos fatores de tamanho, tipo e localização e de variáveis de demanda. Apresentado como instrumento de suporte à decisão a convergência espacial dá avaliação sistemática de situações urbanas, bem como uma performance esperada de situações virtuais do ponto de vista da distribuição de facilidades urbanas em relação a áreas residenciais.