71 resultados para Propósito de implementação
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Resumo não diponível.
Resumo:
Este trabalho tem como principal objetivo detalhar uma sistemática para implementação do modelo gerencial da Qualidade Total em empresas da área de manufatura operando no Brasil. Um objetivo secundário é apresentar as principais ferramentas da qualidade aplicadas em processos de Gestão pela Qualidade Total. Primeiramente é desenvolvida uma revisão conceitual, necessária à homogeneização do entendimento sobre o tema Qualidade Total. A revisão começa com um breve histórico da disciplina qualidade chegando até a conformação do sistema gerencial da Qualidade Total, segue pela discussão das possíveis diferenças entre o entendimento do tema no Japão e nos Estados Unidos da América, e finaliza com a conceituação da Qualidade Total e apresentação das principais ferramentas da qualidade. São desenvolvidos três estudos de casos, orientados por um modelo para avaliação de sistemas de gestão (compatíveis com a Qualidade Total) desenvolvido especificamente para essa tarefa. Destes estudos são destacadas as principais ferramentas da qualidade utilizadas em cada empresa, e é detalhado o processo de implementação do sistema de gestão. Finalizando, é apresentada e discutida uma sistemática para implementação da Qualidade Total na indústria de manufatura, pela descrição de um modelo conceitual de referência, ao qual são propostas melhorias identificadas a partir do estudo de casos.
Resumo:
Planejamento, Previsão e Suprimento Integrado (Collaborative Planning Forecasting and Replenisement- CPFR)é um tema que está evoluindo a nível mundial, onde aplicaçõespráticastêm indicadopotencialparapromovera economiae a melhoriano nível de serviço das empresas. O CPFR une a demanda final de produtos com a cadeia produtiva dos mesmos, criando, assim, um processo único em que todos os envolvidos são beneficiados através de relações colaborativas de parceria. A pesquisa apresenta uma revisão teórica sobre o tema, abordando os níveis de colaboração possíveis entre empresas, exemplos de aplicação do CPFR e os resultados obtidos, as diretrizes de implementação com ênfase nos nove passos propostos pela VICS (The Voluntary Interindustry Commerce Standards), os habilitadores necessários para implementação, as etapas envolvidas no desenvolvimento de um projeto piloto e as barreiras para uma implementação. Um estudo de caso é apresentado com uma proposta de aplicação da metodologia CPFR efetuada por uma empresa ligada à produção de insumos para um varejista atuante no mercado moveleiro, onde são destacados os indicadores críticos de performance do processo CPFR. As conclusões obtidas referem-se à aplicabilidade do modelo sugerido pela VICS no Brasil, para a obtenção de resultados semelhantes aos atingidos pelas empresas que já estão utilizando CPFR em seus processos colaborativos de relacionamento.
Resumo:
o presente trabalho aborda a aplicação do método dos elementos de contorno (MEC) para solução de problemas de flexão linear e geometricamente não-linear de placas semiespessas. Os modelos de placa empregados consideraram a influência do cisalhamento através de teorias de primeira ordem, especificamente as de Mindlin e Reissner. Uma formulação integral unificada dos modelos de placa utilizados é desenvolvida para o operador de Navier do problema, onde foram mantidos alguns termos de ordem superior no tensor deformação de Green. A formulação integral do problema de membrana acoplado ao de flexão é igualment desenvolvida, levando a um sistema de equações integrais não-lineares que descreve completamente problemas de placas que envolvem grandes deslocamentos. Estas equações podem ser particularizadas para problemas de flexão linear e estabilidade elástica. Tendo em vista a necessidade de se considerar derivadas dos deslocamentos translacionais, as equações integrais correspondentes ao gradiente dos deslocamentos também foram deduzidas, caracterizando uma formulação hipersingular. o método empregado para solução numérica do sistema de equações integrais foi o método direto dos elementos de contorno. Um tratamento das integrais fortemente singulares presentes nas equações foi realizado, baseado em expansões assint6ticas dos núcleos. Deste procedimento resulta uma abordagem regularizada que emprega apenas quadraturas padrão de Gauss-Legendre.
Resumo:
O processo de demonstração é axial na construção do conhecimento matemático. Na geometria euclidiana, ele é um dos aspectos que apresenta grandes obstáculos aos alunos. Uma das dificuldades aparece na transição, necessária, entre o conhecimento de natureza empírica, já adquirido, e aquele a ser construído: a geometria euclidiana enquanto modelo teórico, organizado em axiomas, teoremas e demonstrações. Os recursos informáticos hoje disponíveis provocam a busca de estratégias pedagógicas favoráveis à construção deste conhecimento. Entender as suas potencialidades torna-se um objeto de investigação: o que acontece com os processos cognitivos quando ao sujeito em interação com a máquina é possibilitada a concretização de seus construtos e ações mentais, e quando, mediante realimentação imediata, ele é levado a novas reelaborações e construções mentais? E como tais processos concorrem para um novo conhecimento? Esta tese propõe uma engenharia didática, em ambiente de geometria dinâmica, que favorece a ascensão dos alunos em patamar de conhecimento — de empírico a hipotético-dedutivo. Toma-se como referencial a teoria piagetiana, bem como a teoria da situação didática em matemática desenvolvida pela escola francesa. A engenharia se desenrola em três níveis: no primeiro, o propósito é a compreensão do significado e da necessidade de demonstração por via de construções geométricas; no segundo nível, pretende-se o desenvolvimento das primeiras habilidades na produção de demonstrações; e, no terceiro, os problemas propostos ao alunos exigem mais de seus funcionamentos cognitivos no tratamento adequado de uma figura geométrica — trata-se das extensões de desenho e concomitantes apreensões operativas responsáveis pela identificação de subconfigurações geométricas que dão suporte à argumentação dedutiva. Análise a posteriori do desenrolar dos trabalhos dos alunos confirma as expectativas anunciadas na análise a priori apresentada na fase de concepção da situação didática cuja implementação é proposta: o progresso dos alunos na construção de conhecimento em geometria, como modelo matemático, foi expressivo.
Resumo:
Este trabalho descreve a aplicação da Programação Genética, uma técnica de Computação Evolucionária, ao problema da Síntese de Fala automática. A Programação Genética utiliza as técnicas da evolução humana para descobrir programas bem adaptados a um problema específico. Estes programas, compostos de instruções, variáveis, constantes e outros elementos que compõe uma linguagem de programação, são evoluídos ao longo de um conjunto de gerações. A Síntese de Fala, consiste na geração automática das formas de ondas sonoras a partir de um texto escrito. Uma das atividades mais importantes, é realizada através da conversão de palavras e letras para os sons da fala elementares (fonemas). Muitos sistemas de síntese são implementados através de regras fixas, escritas por programadores humanos. Um dos mais conhecidos sistemas de síntese é o FESTIVAL, desenvolvido pela Universidade de Edimburgh, usando a linguagem de programação funcional LISP e um número fixo de regras. Neste trabalho, nós exploramos a possibilidade da aplicação do paradigma da Programação Genética, para evoluir automaticamente regras que serão adotadas para implementação do idioma Português na ferramenta FESTIVAL, desenvolvido no projeto SPOLTECH (CNPq – NSF cooperação entre UFRGS e Universidade do Colorado). A modelagem do problema, consiste na definição das regras de pronúncia do Português Brasileiro, que a implementação do sistema FESTIVAL pronuncia erradamente, já que o mesmo foi implementado primariamente para o idioma Inglês. A partir destas regras, o sistema de Programação Genética, desenvolvido neste trabalho, evolui programas que constituem boas soluções para a conversão de letras para fonemas. A descrição dos resultados obtidos, cobre detalhes sobre a evolução das soluções, complexidade e regras implementadas, representadas pelas soluções mais bem adaptadas; mostrando que a Programação Genética, apesar de ser complexa, é bastante promissora.
Resumo:
As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
Resumo:
Nas aplicações do mundo real, os dados mudam com o passar do tempo. Devido à característica dinâmica das aplicações, o esquema conceitual também pode mudar para se adaptar às mudanças que freqüentemente ocorrem na realidade. Para representar esta evolução, uma nova versão do esquema é definida e os dados armazenados são adaptados à nova versão. Entretanto, existem aplicações que precisam acessar também o esquema sob os diversos aspectos de suas mudanças, requerendo o uso de versionamento de esquemas. Durante a evolução do esquema, o versionamento preserva todas as versões deste esquema e seus dados associados, possibilitando a recuperação dos dados através da versão com a qual foram definidos. Ultimamente muitas pesquisas têm sido realizadas envolvendo as áreas de versionamento de esquemas e bancos de dados temporais. Estes bancos de dados provêm suporte ao versionamento de esquemas, pois permitem armazenar e recuperar todos os estados dos dados, registrando sua evolução ao longo do tempo. Apesar de muitos esforços, ainda não existem SGBDs temporais comercialmente disponíveis. A utilização de um modelo de dados temporal para a especificação de uma aplicação não implica, necessariamente, na utilização de um SGBD específico para o modelo. Bancos de dados convencionais podem ser utilizados desde que exista um mapeamento adequado entre o modelo temporal e o SGBD utilizado. Este trabalho apresenta uma abordagem para a implementação de um banco de dados temporal permitindo o versionamento de esquemas, usando um banco de dados relacional, tendo como base o modelo temporal TRM (Temporal Relational Model). Como forma de ilustrar apresenta-se um exemplo de implementação utilizando o SGBD DB2. O principal objetivo é avaliar diferentes técnicas de implementar e gerenciar o versionamento de esquemas em bancos de dados temporais. Para atingir esse objetivo, um protótipo foi desenvolvido para automatizar os mapeamentos do TRM para o DB2 e gerenciar o versionamento de esquemas e dados. Duas experiências de implementação foram realizadas utilizando formas diferentes de armazenar os dados - um repositório e vários repositórios - com o objetivo de comparar os resultados obtidos, considerando um determinado volume de dados e alterações. Um estudo de caso também é apresentado para validar as implementações realizadas.
Resumo:
O Contrato de Gestão é um instrumento que visa rever e corrigir relações de controles ineficazes, bem como obter maior responsibilização por parte da área pública em relação ao atingimento de objetivos predefinidos. Este estudo possui características de uma pesquisa do tipo exploratório-descritiva, tendo como objetivo geral analisar as relações contratuais entre o Governo do Estado do Rio Grande do Sul e três empresas estatais gaúchas no processo de implementação do Contrato de Gestão. Os dados foram coletados por meio de entrevistas semi-estruturadas com servidores das empresas e da Secretaria de Coordenação e Planejamento, que participaram dos estudos e das negociações da implementação dos Contratos de Gestão. Para decomposição dos dados, foi utilizada a metodologia da análise de conteúdo na modalidade de análise temática. Os resultados são apresentados em oito categorias iniciais, três intermediárias e duas finais: Na Implementação dos Contratos e a Manutenção dos Contratos, os resultados colocam em evidência que esses se, originaram de uma decisão política, através de um pacto com o Governo Central, para uma mudança estrutural e filosófica da administração Estadual. A manutenção desses está condicionada ao envolvimento dos mais altos dirigentes políticos, pela não-ingerência administrativa na gestão das empresas, e ao esforço de formação e integração dos funcionários.
Resumo:
Segundo a literatura de administração, o estudo da estratégia sob o enfoque de seu desempenho ao longo do tempo tem merecido pouca atenção por parte dos pesquisadores. Este trabalho trata-se de uma análise longitudinal, que tem por objetivo avaliar o desempenho obtido por uma empresa fabricante de bens de capital sob encomenda, decorridos quatro anos desde a formulação e implementação de uma estratégia de produção, realizada em 1997, na qual foi utilizada uma pesquisa de mercado, que é uma ferramenta de marketing, como fonte de informações para a área de manufatura.O estudo emprega uma abordagem quantitativa com a metodologia de estudo de caso. O trabalho revê inicialmente os conceitos de orientação para o mercado e estratégia baseada em recursos, bem como sua relação com a obtenção de vantagem competitiva por parte das empresas que os adotam. A seguir se busca, através da replicação da pesquisa de importância X desempenho realizada em 1997, obter um quadro comparativo que permita avaliar se a empresa estudada obteve ou não um desempenho superior baseado nas estratégias adotadas, quando comparada com seus concorrentes em dois momentos diferentes. Os resultados desta pesquisa indicam que a utilização dos recursos da empresa orientados de modo a atender às necessidades dos clientes pode tornar-se uma fonte de vantagem competitiva e de desempenho superior para a empresa que utilizar adequadamente e regularmente esta prática.
Resumo:
Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.
Resumo:
Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.
Resumo:
A criptografia assumiu papel de destaque no cotidiano das pessoas, em virtude da necessidade de segurança em inúmeras transações eletrônicas. Em determinadas áreas, a utilização de hardware dedicado à tarefa de criptografia apresenta vantagens em relação à implementação em software, devido principalmente ao ganho de desempenho. Recentemente, o National Institute of Standards and Technology (NIST) publicou o novo padrão norte-americano de criptografia simétrica, chamado de Advanced Encryption Standard (AES). Após um período de aproximadamente 3 anos, no qual várias alternativas foram analisadas, adotou-se o algoritmo Rijndael. Assim, este trabalho apresenta um Soft IP do padrão AES, codificado em VHDL, visando a implementação em FPGA Altera. Todo o projeto foi construído com funções e bibliotecas genéricas, a fim de permitir a posterior implementação sobre outras tecnologias. Foram geradas duas versões: uma priorizando desempenho e outra priorizando a área ocupada nos componentes. Para cada uma das versões, produziu-se um circuito para encriptar e outro para decriptar. O desempenho alcançado em termos de velocidade de processamento superou todos os outros trabalhos publicados na área, sobre a mesma tecnologia. São apresentados os detalhes de implementação, arquiteturas envolvidas e decisões de projeto, bem como todos os resultados. A dissertação contém ainda conceitos básicos de criptografia e uma descrição do algoritmo Rijndael.