1000 resultados para Sistema de transação (Sistemas de computação)
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
In this work will applied the technique of Differential Cryptanalysis, introduced in 1990 by Biham and Shamir, on Papílio s cryptosystem, developed by Karla Ramos, to test and most importantly, to prove its relevance to other block ciphers such as DES, Blowfish and FEAL-N (X). This technique is based on the analysis of differences between plaintext and theirs respective ciphertext, in search of patterns that will assist in the discovery of the subkeys and consequently in the discovery of master key. These differences are obtained by XOR operations. Through this analysis, in addition to obtaining patterns of Pap´ılio, it search to obtain also the main characteristics and behavior of Papilio throughout theirs 16 rounds, identifying and replacing when necessary factors that can be improved in accordance with pre-established definitions of the same, thus providing greater security in the use of his algoritm
Resumo:
O uso de computação em nuvem tem se tornado cada vez mais intenso nos últimos anos. Devido principalmente a fatores econômicos, a avaliação de desempenho de sistemas de computação em nuvem, principalmente através de simulação, tem sido amplamente aplicada. Neste trabalho se apresenta a inclusão da funcionalidade de modelagem e simulação de computação em nuvem no simulador de ambientes distribuídos iSPD.
Resumo:
Este trabalho propõe uma abordagem computacional evolutiva para a resolução do problema de alocação de dispositivos indicadores de faltas (IFs) em alimentadores primários de distribuição de energia elétrica. De forma mais específica, o problema de se obter o melhor local de instalação é solucionado por meio da técnica de Algoritmos Genéticos (AGs) que busca obter uma configuração eficiente de instalação de IFs no tronco principal de um alimentador de distribuição. Assim, faz-se a modelagem do mesmo na forma de um problema de otimização orientado à melhoria dos indicadores de qualidade do serviço e ao encontro de uma solução economicamente atraente. Os resultados com dados reais comprovam a eficiência da metodologia proposta.
Resumo:
The increase of capacity to integrate transistors permitted to develop completed systems, with several components, in single chip, they are called SoC (System-on-Chip). However, the interconnection subsystem cans influence the scalability of SoCs, like buses, or can be an ad hoc solution, like bus hierarchy. Thus, the ideal interconnection subsystem to SoCs is the Network-on-Chip (NoC). The NoCs permit to use simultaneous point-to-point channels between components and they can be reused in other projects. However, the NoCs can raise the complexity of project, the area in chip and the dissipated power. Thus, it is necessary or to modify the way how to use them or to change the development paradigm. Thus, a system based on NoC is proposed, where the applications are described through packages and performed in each router between source and destination, without traditional processors. To perform applications, independent of number of instructions and of the NoC dimensions, it was developed the spiral complement algorithm, which finds other destination until all instructions has been performed. Therefore, the objective is to study the viability of development that system, denominated IPNoSys system. In this study, it was developed a tool in SystemC, using accurate cycle, to simulate the system that performs applications, which was implemented in a package description language, also developed to this study. Through the simulation tool, several result were obtained that could be used to evaluate the system performance. The methodology used to describe the application corresponds to transform the high level application in data-flow graph that become one or more packages. This methodology was used in three applications: a counter, DCT-2D and float add. The counter was used to evaluate a deadlock solution and to perform parallel application. The DCT was used to compare to STORM platform. Finally, the float add aimed to evaluate the efficiency of the software routine to perform a unimplemented hardware instruction. The results from simulation confirm the viability of development of IPNoSys system. They showed that is possible to perform application described in packages, sequentially or parallelly, without interruptions caused by deadlock, and also showed that the execution time of IPNoSys is more efficient than the STORM platform
Resumo:
Nowadays, there are many aspect-oriented middleware implementations that take advantage of the modularity provided by the aspect oriented paradigm. Although the works always present an assessment of the middleware according to some quality attribute, there is not a specific set of metrics to assess them in a comprehensive way, following various quality attributes. This work aims to propose a suite of metrics for the assessment of aspect-oriented middleware systems at different development stages: design, refactoring, implementation and runtime. The work presents the metrics and how they are applied at each development stage. The suite is composed of metrics associated to static properties (modularity, maintainability, reusability, exibility, complexity, stability, and size) and dynamic properties (performance and memory consumption). Such metrics are based on existing assessment approaches of object-oriented and aspect-oriented systems. The proposed metrics are used in the context of OiL (Orb in Lua), a middleware based on CORBA and implemented in Lua, and AO-OiL, the refactoring of OIL that follows a reference architecture for aspect-oriented middleware systems. The case study performed in OiL and AO-OiL is a system for monitoring of oil wells. This work also presents the CoMeTA-Lua tool to automate the collection of coupling and size metrics in Lua source code
Resumo:
Sistema-de-sistemas (System-of-Systems - SoS) é um tipo emergente de sistema computacional formado por um grupo de sistemas constituintes, que são independentes e heterogêneos e se unem para compor um sistema de larga escala visando alcançar uma missão global. Cada sistema constituinte possui seus próprios objetivos, missões individuais, e colaboram para a realização da missão do SoS, chamada missão global. Existe uma complexidade inerente no conjunto de missões que estão envolvidas em um SoS, esse deve-se principalmente à natureza independente dos sistemas constituintes, que tendem a evoluir independentemente, potencialmente mantidos por organizações distintas, além dos conflitos de interesse que podem surgir com essa evolução. Com isso, torna-se essencial prover uma linguagem bem definida para descrição e avaliação dessas missões, relacionando-as entre si e provendo um documento comum que possa ser utilizado por todas as partes envolvidas. Essa linguagem deve ser capaz de expressar as missões individuais e globais, dando suporte a todos os relacionamentos existentes entre essas missões, além de expressar informações relacionadas a realização dessas missões. O objetivo desse trabalho é apresentar e avaliar uma linguagem para descrição de missões. Visando a definição dessa linguagem, esse trabalho apresenta um mapeamento sistemático acerca dos mecanismos existentes para descrição de missões em SoS, identificando os elementos-chave que compõem a descrição de uma missão nesse contexto. A partir desse mapeamento, propõe-se um modelo conceitual para missões e uma linguagem para descrição de missões. Essa linguagem independe de documentos de arquitetura e outros tipos de modelos de software, visando possibilitar a integração da linguagem de definição de missões em diferentes modelos de desenvolvimento.
Resumo:
Este trabalho estã centrado no estudo do caso -- Sistema Comercial da Companhia de Saneamento do Paranã - SANEPAR e consequentemente na apresentação de alternativas organizacionais voltadas para o estabelecimento de coerência entre objetivos, recursos e ambiência que envolvem esse sistema. Foi dese~volvido tendo como base teórica o modelo de anãlise organizacional sustentado por Jay R. Galbraith em ORGANIZATION DESIGN, 1977. Calcado num diagnóstico participativo, foi buscado o alcance de objetivos voltados para o conhecimento de aspectos do sistema, como transação ambiental, a natureza das tarefas, a estrutura e o processo de tomada de decisão. Para tanto, foi recomendado a aplicação de um IIMix Organizacional composto de 6 estrategias basicas, provenientes tanto da administração classica quanto da contingencial/orgânica. Pela situação organizacional encontrada, se concluiu que o Sistema Comercial da SANEPAR apresenta uma administração difusa e, bastante descaracterizada estruturalmente, o que compromete a eficiência de seu desempenho. Sua ãrea de competência/autoridade funcional, estã subordinada a um orgao de planejamento que, alem das suas atividades peculiares, tambem se encarrega da direção do Sistema Comercial. Essa situação incide na qualidade dos resultados finais necessarios, i. e, na eficacia e efetividade dos dois sistemas dentro do contexto em que atuam, visto estarem seus principais recursos, humanos, gerando decisões sem uma base informacional consistente e relevante e, dentro de um desenho estrutural que dificulta a consecução dos resultados. O mix recomendado visa dotar o sistema de maior capacidade de transaçao com o ambiente em geral, via uma administração estrategica calcada num desenho estrutural concebido para propiciar informação precisa, decisao relevante e alcance de resultados necessãrios. r proposto visando subordinar o sistema diretamente a uma Diretoria, emancipando-o da subordinação ao Planejamento e, elevando sua autoridade, ao mesmo nivel de importância dos principais sistemas da Empresa. Dessa forma, foi planejada uma atuação gerencial mais dinâmica e profissional ao sistema via processo de tomada de decisão lógico, releva~ te e conhecido. Assim, objetiva-se reduzir a niveis insignificantes a incerteza constatada, principal causadora dos atrasos e distorções ocorrentes no processo e alcance dos resultados desejados. Esses instrumentos, certamente, facilitarão as relações no interior do sistema e, deste, com o ambiente em geral, garantindo assim, a abertura do caminho rumo ao atinamento da eficácia e efetividade gerencial.
Resumo:
Até recentemente, pesquisas sobre a relação do usuário com o uso de tecnologia focaram sistemas utilitários. Com a popularização dos PCs para uso doméstico e o surgimento da Internet, a interação dos usuários com tecnologia deixou de ser vista apenas de forma utilitária, e passou a ser orientada também ao atendimento de necessidades hedônicas, fazendo com que as pesquisas em Tecnologia e Sistemas de Informação (SI) extrapolassem os limites da empresa. As pesquisas no campo tem dado atenção cada vez maior ao uso de sistemas hedônicos, cujo objetivo é satisfazer necessidades como entretenimento e diversão, ao invés de um valor instrumental. Entre os sistemas hedônicos, um em particular recebe cada vez mais destaque, os videogames. Jogos digitais estão presentes por toda a sociedade, existindo uma crescente adoção, institucionalização e ubiquidade dos videogames na vida diária. A nova geração foi criada com jogos interativos e espera o mesmo tipo de interação nos demais SI. Por serem divertidos e envolventes, organizações de diversos setores estão tentando integrar características dos jogos digitais em sistemas organizacionais, com a expectativa de melhorar a motivação e desempenho dos funcionários e engajar consumidores online. Para analisar a relação do usuário com jogos digitais foram desenvolvidas três pesquisas. A primeira aborda os motivos pelos quais o indivíduo se engaja com o jogo, definindo Engajamento com base em desafio, imersão e curiosidade. Já as motivações dos indivíduos são analisadas pelo divertimento e a competição. A partir do momento em que o indivíduo está engajado, é necessário medir a experiência holística que ele experimenta desta interação. Para tanto, a segunda pesquisa analisa os dois construtos mais utilizados no campo para mensurar tal experiência, Flow e Absorção Cognitiva. A última pesquisa se utiliza dos conceitos explorados nas duas anteriores para desenvolver uma rede nomológica para a predição da intenção comportamental do indivíduo para o uso de jogos digitais. Como resultados temos um esclarecimento sobre os fatores que levam a um comportamento engajado dos jogadores, com maior importância do desafio de dominar o jogo e divertimento em relação a competição com outros jogadores. Outra contribuição é a conclusão que Flow e Absorção Cognitiva, dois dos principais construtos utilizados em SI para medir a experiência hedônica do usuário, não são adequados para mensurar tal experiência para videogames. Por fim existe a proposta de uma rede nomológica em um contexto de utilização de um sistema hedônico interativo, permitindo que novos trabalhos possam se beneficiar.
Resumo:
Attacks to devices connected to networks are one of the main problems related to the confidentiality of sensitive data and the correct functioning of computer systems. In spite of the availability of tools and procedures that harden or prevent the occurrence of security incidents, network devices are successfully attacked using strategies applied in previous events. The lack of knowledge about scenarios in which these attacks occurred effectively contributes to the success of new attacks. The development of a tool that makes this kind of information available is, therefore, of great relevance. This work presents a support system to the management of corporate security for the storage, retrieval and help in constructing attack scenarios and related information. If an incident occurs in a corporation, an expert must access the system to store the specific attack scenario. This scenario, made available through controlled access, must be analyzed so that effective decisions or actions can be taken for similar cases. Besides the strategy used by the attacker, attack scenarios also exacerbate vulnerabilities in devices. The access to this kind of information contributes to an increased security level of a corporation's network devices and a decreased response time to occurring incidents
Resumo:
It bet on the next generation of computers as architecture with multiple processors and/or multicore processors. In this sense there are challenges related to features interconnection, operating frequency, the area on chip, power dissipation, performance and programmability. The mechanism of interconnection and communication it was considered ideal for this type of architecture are the networks-on-chip, due its scalability, reusability and intrinsic parallelism. The networks-on-chip communication is accomplished by transmitting packets that carry data and instructions that represent requests and responses between the processing elements interconnected by the network. The transmission of packets is accomplished as in a pipeline between the routers in the network, from source to destination of the communication, even allowing simultaneous communications between pairs of different sources and destinations. From this fact, it is proposed to transform the entire infrastructure communication of network-on-chip, using the routing mechanisms, arbitration and storage, in a parallel processing system for high performance. In this proposal, the packages are formed by instructions and data that represent the applications, which are executed on routers as well as they are transmitted, using the pipeline and parallel communication transmissions. In contrast, traditional processors are not used, but only single cores that control the access to memory. An implementation of this idea is called IPNoSys (Integrated Processing NoC System), which has an own programming model and a routing algorithm that guarantees the execution of all instructions in the packets, preventing situations of deadlock, livelock and starvation. This architecture provides mechanisms for input and output, interruption and operating system support. As proof of concept was developed a programming environment and a simulator for this architecture in SystemC, which allows configuration of various parameters and to obtain several results to evaluate it
Resumo:
Although some individual techniques of supervised Machine Learning (ML), also known as classifiers, or algorithms of classification, to supply solutions that, most of the time, are considered efficient, have experimental results gotten with the use of large sets of pattern and/or that they have a expressive amount of irrelevant data or incomplete characteristic, that show a decrease in the efficiency of the precision of these techniques. In other words, such techniques can t do an recognition of patterns of an efficient form in complex problems. With the intention to get better performance and efficiency of these ML techniques, were thought about the idea to using some types of LM algorithms work jointly, thus origin to the term Multi-Classifier System (MCS). The MCS s presents, as component, different of LM algorithms, called of base classifiers, and realized a combination of results gotten for these algorithms to reach the final result. So that the MCS has a better performance that the base classifiers, the results gotten for each base classifier must present an certain diversity, in other words, a difference between the results gotten for each classifier that compose the system. It can be said that it does not make signification to have MCS s whose base classifiers have identical answers to the sames patterns. Although the MCS s present better results that the individually systems, has always the search to improve the results gotten for this type of system. Aim at this improvement and a better consistency in the results, as well as a larger diversity of the classifiers of a MCS, comes being recently searched methodologies that present as characteristic the use of weights, or confidence values. These weights can describe the importance that certain classifier supplied when associating with each pattern to a determined class. These weights still are used, in associate with the exits of the classifiers, during the process of recognition (use) of the MCS s. Exist different ways of calculating these weights and can be divided in two categories: the static weights and the dynamic weights. The first category of weights is characterizes for not having the modification of its values during the classification process, different it occurs with the second category, where the values suffers modifications during the classification process. In this work an analysis will be made to verify if the use of the weights, statics as much as dynamics, they can increase the perfomance of the MCS s in comparison with the individually systems. Moreover, will be made an analysis in the diversity gotten for the MCS s, for this mode verify if it has some relation between the use of the weights in the MCS s with different levels of diversity
Resumo:
In this work, we propose a multi agent system for digital image steganalysis, based on the poliginic bees model. Such approach aims to solve the problem of automatic steganalysis for digital media, with a case study on digital images. The system architecture was designed not only to detect if a file is suspicious of covering a hidden message, as well to extract the hidden message or information regarding it. Several experiments were performed whose results confirm a substantial enhancement (from 67% to 82% success rate) by using the multi-agent approach, fact not observed in traditional systems. An ongoing application using the technique is the detection of anomalies in digital data produced by sensors that capture brain emissions in little animals. The detection of such anomalies can be used to prove theories and evidences of imagery completion during sleep provided by the brain in visual cortex areas