1000 resultados para Força e flexibilidade
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Este trabalho apresenta, inicialmente, uma análise comparativa detalhada dos dois padrões, IEEE 802.11a e IEEE802.11b, que foram apresentados recentemente pelo IEEE na área de redes sem fio (wireless). São apresentadas as principais diferenças tecnológicas dos dois padrões, no que se refere, principalmente, à arquitetura, funções de controle, segurança, desempenho e custo de implementação destas duas tecnologias de redes wireless. São avaliados também os aspectos de interoperabilidade, quando estas redes são integradas em redes corporativas fixas, que são baseadas, principalmente, em redes Ethernet, tradicionalmente usadas em redes corporativas. São considerados também, aspectos de custo e flexibilidade de aplicação das duas tecnologias e mostram-se como estas diferenças devem ser levadas em conta em aplicações típicas de um ambiente corporativo. Finalmente, apresenta-se também, como estudo de caso, uma análise focalizada principalmente na integração da tecnologia wireless em aplicações típicas de uma grande empresa local. Consideram-se as vantagens e desvantagens de ambas as tecnologias, como solução para algumas aplicações típicas encontradas nesta empresa, e justifica-se a escolha da solução que foi adotada. Conclui-se com algumas projeções quanto ao futuro da tecnologia wireless no ambiente público e corporativo.
Resumo:
O setor sucroalcooleiro apresenta dois períodos distintos em sua história. O primeiro é a fase onde o Governo ditava as leis de comercialização, estoque e preço de venda. Aos produtores de açúcar e álcool competia apenas produzir. O segundo período iniciou-se na década de 90, onde o Governo saiu de cena deixando que o setor funcionasse em livre mercado. Este estudo buscou resgatar estes dois períodos e identificar quais as mudanças ocorridas referentes às dimensões competitivas da produção nas usinas produtoras de açúcar e álcool do estado do Paraná, antes e depois da desregulamentação do setor. Através de um estudo preliminar das dimensões competitivas da produção (custos, qualidade, confiabilidade, flexibilidade e inovatividade), buscou-se a elas uma aplicabilidade nas usinas produtoras de açúcar e álcool no Estado do Paraná. A coleta de dados primários envolveu duas fases. Na primeira, a investigação valeu-se de entrevistas a autoridades de entidades de classe para a formulação de um questionário a fim de caracterizar de maneira coerente quais as variáveis das dimensões competitivas que são pertinentes ao presente estudo. Na segunda fase, o assunto foi abordado através de entrevistas a 15 das 16 usinas produtoras simultaneamente de álcool e açúcar. Através de análise de conteúdo foram mensuradas percentualmente as mudanças nas dimensões competitivas sofridas com a desregulamentação do setor. Em linhas gerais, os resultados revelaram que a dimensão custos apresentou uma maior mudança com 50,37% ao excluir as variáveis que obtiveram mudanças devido a saída do Governo do mercado. Seguido pela dimensão qualidade, com 44,44%, flexibilidade com 43,33%, inovatividade com 29,52% e confiabilidade com 13,33%.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
O objetivo deste trabalho é propor um modelo de gestão que integre Planejamento Estratégico, Gerenciamento de Processos e Avaliação de Desempenho, visando preencher uma lacuna identificada na gestão empresarial – a falta de integração entre as diretrizes estratégicas e a operação das empresas. Estes módulos são apresentados contemplando uma perspectiva histórica para a contextualização do problema, e suas inter-relações são discutidas. Considerando os indicadores de desempenho como elemento integrador dos outros dois módulos, faz-se a discussão e comparação de diversos modelos que se propõem a atender a necessidade atual de medição do desempenho organizacional. Da interação entre a revisão bibliográfica e aplicações práticas, chega-se ao modelo proposto, apresentando sua estrutura geral e seu procedimento para implantação, denominando-o “MEIO” – Modelo de Estratégia, Indicadores e Operações, com o qual se almeja estar contribuindo para a melhoria potencial da gestão das empresas. Este modelo se caracteriza por sua flexibilidade, permitindo que as empresas construam seu modelo de gestão por partes, começando por qualquer um dos módulos do MEIO, o que é importante dado que elas se encontram em estágios diferentes de desenvolvimento em termos de gestão. Além disso, como característica de sua proposta de integração, o próprio modelo induz a construção das outras partes que porventura não estejam devidamente implantadas ou em uso pela empresa. O modelo é aplicado em três empresas de diferentes segmentos, portes e estágios de maturidade em termos de gestão. Essas aplicações práticas do modelo MEIO, mesmo que parcialmente, mostram resultados quantitativos e qualitativos para as empresas, os quais são analisados e discutidos.
Resumo:
No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.
Resumo:
O modelo numérico GENESIS (Generalized Model for Simulating Shoreline Change) é parte de um sistema de modelagem de linha de praia, o SMS (Shoreline Modeling System), desenvolvido pelo CERC (Coastal Engineering Research Center), U.S.A. É um modelo genérico, determinístico e bidimensional, com grande flexibilidade para ser adaptado a costas abertas, arenosas e sujeitas a intervenção humana. Utilizado na previsão da resposta da linha praia as diversas obras costeiras que podem ser implantadas na mesma. Características estas, que fazem dele uma ferramenta indicada para a o estudo costa do Rio Grande do Sul e para o objetivo deste estudo. A aplicação do modelo de evolução de linha praia – GENESIS neste trabalho, tem como objetivos: calibrar o modelo numérico GENESIS para a costa centro norte do Rio Grande do Sul e avaliar seu uso como ferramenta na previsão de impactos ambientais gerados por obras costeiras, Alem de reproduzir as condições do modelo físico reduzido de 1965 e comparar os resultados entre as simulações matemática e física. O modelo foi aplicado num trecho de linha de praia da região centro norte do Rio Grande do Sul, nas praias de Tramandaí e Imbé. As quais já foram alvo de estudos anteriores através de modelo físico reduzido, em função do desejo deste município em construir molhes na desembocadura do canal da Laguna de Tramandaí. Para implementação do modelo numérico GENESIS foram utilizados dados das posições da linha de praia em três diferentes anos, coletados pelo CECO/UFRGS, dados de onda coletados pelo ondógrafo do IPH/UFRGS, e diversos dados sobre as praias e sua história, retirados da extensa bibliografia publicada sobre a região de estudo. A calibração do modelo foi realizada através das linhas de praia medidas em 1997 e em 2000. O modelo foi considerado calibrado quando o mesmo consegui reproduzir a linha de praia do ano 2000 a partir da linha de 1997, obtendo um erro máximo de 15 m. Foram realizadas simulações que reproduziam as simulações feitas em modelo físico reduzido do IPH em 1965. Através da comparação dos dados de onda utilizados no modelo físico reduzido de 1965 e dos dados de onda coletados pelo ondógrafo em 1996, pudemos observar a importância do uso de um série de dados de onda neste tipo de estudo, bem como, a desenvoltura e limitações do modelo numérico GENESIS na situações geradas.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
Com a abertura do mercado brasileiro e aumento da pressão competitiva, as organizações têm buscado incessantemente a melhoria de desempenho de seus processos produtivos. Dentro deste contexto, surge a Manufatura de Classe Mundial, que se caracteriza pela alta disponibilidade e flexibilidade dos meios de produção. Para o alcance desse estágio na manufatura, a manutenção industrial é um elemento chave, que, adaptada ao ambiente de competição globalizado, caracteriza o que se chama de Manutenção de Classe Mundial (MCM), representando um importante diferencial competitivo. Nas Indústrias de Processamento Contínuo do segmento petroquímico, em particular, a manutenção industrial tem papel ainda mais decisivo, ao assegurar o funcionamento estável e seguro dos equipamentos e instalações a custos otimizados, sem comprometimento da saúde e segurança dos trabalhadores e com respeito ao meio ambiente. Apresenta-se nesta dissertação uma proposta de fundamentos habilitadores para a implantação de um sistema de gerenciamento de manutenção, totalmente integrado com o processo produtivo, desenvolvido e aplicado numa refmaria de petróleo brasileira. Os fundamentos selecionados com base nos princípios da MCM,juntamente com outros temas relevantes como planejamento e gestão estratégica, estrutura e aspectos organizacionais, mapeamento de processo, terceirização, suprimento de materiais e sobressalentes e política de Segurança, Meio Ambiente e Saúde Ocupacional, apresentam-se como decisivos para o sucesso do sistema de manutenção implementado.
Resumo:
Este trabalho é uma contribuição para o conhecimento de metodologias de projeto de estruturas de material composto, aplicando métodos de otimização estrutural a cascas laminadas e apresentando uma estratégia em dois níveis. No primeiro nível é realizada a minimização da flexibilidade da estrutura, tendo como variável de projeto a orientação de cada lâmina da estrutura. Utiliza-se Programação Linear Seqüencial (SLP) e direção de tensão principal para otimização da orientação. No segundo nível minimiza-se o volume de cada lâmina, usando a flexibilidade total da estrutura como restrição e a densidade relativa como variável de projeto, também através de SLP. Para evitar aparecimento de áreas com densidades intermediárias, utiliza-se um Método de Continuação, dividindo o nível de otimização topológica em duas ou mais etapas. As formulações desenvolvidas permitem a solução de problemas com múltiplos casos de carregamento. Para a solução da equação de equilíbrio de casca laminada, utiliza-se um elemento finito de casca degenerado de oito nós com integração explícita na direção da espessura. A implementação desse elemento é feita de modo a facilitar a obtenção das derivadas da matriz de rigidez, necessárias na linearização das funções objetivo e restrições. Evita-se assim o uso de derivadas numéricas. Resultados para vários tipos de estrutura são apresentados, incluindo comparações entre diferentes carregamentos, condições de contorno, número de lâminas, espessuras, etc. As soluções obtidas, formas de análise e possíveis aplicações são discutidas.
Resumo:
Este trabalho apresenta um conjunto de técnicas para a modelagem paramétrica e geração de malhas de superfícies para uso em sistemas de análise e simulações numéricas pelo Método dos Elementos Finitos. Foram desenvolvidos algoritmos para a geração paramétrica de superfícies, para a determinação das curvas de interseções entre superfícies e para a geração de malhas em superfícies curvas e recortadas. Foram implementas linhas e curvas paramétricas básicas, a partir das quais são geradas superfícies paramétricas de vários tipos que proporcionam uma grande flexibilidade de modelamento geométrico. Curvas e superfícies são geradas e manipuladas de forma interativa. São apresentadas técnicas que simplificam a implementação de linhas e superfícies paramétricas. Foi desenvolvido um algoritmo para determinar as curvas de interseção entre superfícies paramétricas, que são utilizadas como linhas de recorte (trimming lines) para obter geometrias complexas e compostas de várias superfícies. O algoritmo desenvolvido emprega técnicas de subdivisão adaptativa, por quadtrees, em função da curvatura local das superfícies. Primeiramente, obtém-se uma aproximação das curvas de interseção no espaço 3D, através da aproximação por triângulos. Os resultados iniciais são refinados e projetados sobre as duas superfícies envolvidas com algoritmos que permitem obter grande precisão. As curvas de interseção finais são mapeadas nos espaços paramétricos das duas superfícies, porém com uma parametrização única, o que facilita a junção com superfícies adjacentes Um algoritmo de geração de malha foi desenvolvido para gerar malhas triangulares de qualidade sobre as superfícies curvas e recortadas. O algoritmo utiliza um processo de subdivisão adaptativa por quadtrees, similar ao utilizado no algoritmo de interseção, para definir tamanhos de elementos em função da curvatura local. Em seguida, aplica-se um algoritmo tipo advancing front para gerar a malha sobre a superfície. Os algoritmos foram implementados e testados em um ambiente gráfico interativo especialmente desenvolvido para este trabalho. São apresentados vários exemplos que comprovam a eficiência das técnicas e algoritmos propostos, incluindo exemplos de matrizes de conformação mecânica para uso com código de análise METAFOR, análise de sensibilidade para otimização de pré-formas e de modelagem de superfícies compostas recortadas com geração de malhas de qualidade, para uso em análise por Elementos Finitos ou como contorno para geração de elementos tridimensionais.
Resumo:
O tema central deste trabalho é a avaliação do valor da opção real de espera do investimento em uma Unidade Separadora de Propeno, em comparação com uma análise estática de Valor Presente Líquido. Para isso, foi exposta a teoria de opções reais, os processos estocásticos para a estimação das suas principais variáveis de incerteza (preço de produto e insumo), bem como a descrição das ferramentas de simulação a serem utilizadas. Com os instrumentos expostos, pretendemos demonstrar aos responsáveis por projetos de investimento que as incertezas podem ser medidas, levando a maior flexibilidade na tomada de decisões. Os resultados obtidos apontam para o exercício imediato da opção pela abordagem de ativos contingentes e resultados divergentes na análise de ativos contingentes em função do diferencial de preços, em função da taxa de dividendos adotada. A influência dos valores da volatilidade e da taxa de dividendos nos resultados também foi avaliada, levando à conclusão de que o primeiro gera impactos maiores no valor da opção do que o segundo.
Resumo:
A presente tese visa contribuir na construção de ambientes de desenvolvimento de software através da proposição de uma arquitetura reflexiva para ambiente de suporte a processo, nomeada WRAPPER (Webbased Reflective Architecture for Process suPport EnviRonment). O objetivo desta arquitetura é prover uma infra-estrutura para um ambiente de suporte a processo de software, integrando tecnologias da World Wide Web, objetos distribuídos e reflexão computacional. A motivação principal para esta arquitetura vem da necessidade de se obter maior flexibilidade na gerência de processo de software. Esta flexibilidade é obtida através do uso de objetos reflexivos que permitem a um gerente de processo obter informações e também alterar o processo de software de forma dinâmica. Para se obter um ambiente integrado, a arquitetura provê facilidades para a agregação de ferramentas CASE de plataformas e fabricantes diversos, mesmo disponibilizadas em locais remotos. A integração de ferramentas heterogêneas e distribuídas é obtida através do uso de tecnologias Web e de objetos distribuídos. Reflexão computacional é usada no ambiente tanto para extrair dados da execução do processo, quanto para permitir a adaptação do mesmo. Isto é feito através da introdução e controle de meta-objetos, no metanível da arquitetura, que podem monitorar e mesmo alterar os objetos do nível base. Como resultado, a arquitetura provê as seguintes características: flexibilidade na gerência de processo, permitindo o controle e adaptação do processo; distribuição do ambiente na Web, permitindo a distribuição de tarefas do processo de software e a integração de ferramentas em locais remotos; e heterogeneidade para agregar componentes ao ambiente, permitindo o uso de ferramentas de plataformas e fornecedores diversos. Neste contexto, o presente trabalho apresenta a estrutura da arquitetura reflexiva, bem como os mecanismos usados (e suas interações) para a modelagem e execução de processo dentro do ambiente de suporte ao processo de software.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
A presente tese aborda o tema sobre a dinâmica de complementaridade de conhecimentos entre Pequenas e Médias Empresas (PME) em um contexto em rede. Partindo da revisão analítica das teorias de redes interorganizacionais, de criação e gestão do conhecimento e dos processos de inovação, buscou-se a compreensão da relevância estratégica das redes, sobretudo para o desenvolvimento das PME. A partir das evidências teóricas, a questão de pesquisa confrontada foi compreender como ocorre a dinâmica de complementaridade de conhecimentos em um contexto em rede. Para aprofundar tal problemática, tentou-se, a partir de evidências empíricas, construir um esquema conceitualanalítico com a finalidade de auxiliar na compreensão do funcionamento de empresas organizadas em rede. A pesquisa empírica foi conduzida por meio de entrevistas com os dirigentes de empresas e instituições localizadas na AGIVEST (Brasil), na Tecnópole do Futuroscope (França) e no Pólo de Informática de São Leopoldo (Brasil). Os resultados da pesquisa levaram às seguintes evidências: a) as pressões contingenciais, como, por exemplo, necessidade, assimetria, reciprocidade, competitividade, legitimidade, flexibilidade e eficiência, exercem influência na formação, no funcionamento e na complementaridade de conhecimentos entre as empresas em um contexto em rede; b) a dinâmica de complementaridade de conhecimentos em um contexto em rede é diretamente influenciada pelos níveis de coerência e de conectividade entre as empresas; c) a quantidade e a qualidade das situações de interação existentes no contexto de uma rede exercerão influência nos níveis de conectividade entre as empresas; d) os mecanismos de coordenação utilizados para facilitar a governança exercem influência nos níveis de coerência entre as empresas; e) o nível de complementaridade de conhecimentos em um contexto em rede terá influência nos processos internos de inovação das empresas. Em síntese esses resultados sinalizam que a existência de um ambiente de sinergia e complementaridade de conhecimentos em um contexto em rede sofre influência de elementos como pressões contingências, coerência, conectividade, mecanismos de coordenação e situações de interação.