1000 resultados para Inversores integrados
Resumo:
A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.
Resumo:
Este trabalho versa sobre a estruturação de um sistema de indicadores de desempenho empresarial. Através de estudo de caso junto a uma organização da área de serviços de energia elétrica, incorpora características peculiares por tratar-se de uma cooperativa. Após um trabalho de pesquisa junto às obras de diversos autores e verificado o estado da arte em relação ao tema, efetuou-se uma análise da empresa estudada quanto ao seu estágio atual de desenvolvimento, ao ambiente, à cultura e a sua situação no contexto mercadológico. Com base nos resultados dessa análise, concluiu-se que um BSC – Balanced Scorecard -, segundo um modelo proposto por Kaplan e Norton, seria o mais adequado entre os estudados. Um Quadro Equilibrado de Indicadores, evolutivo, alinhado com a estratégia e relações de causa e efeito, é o resultado principal desta dissertação. Contudo, a ordenação e o relacionamento dos elementos entre si, integrados na arquitetura do Quadro de Indicadores, redundaram num subproduto, qual seja, um caminho alternativo para estruturá-lo, visto que a forma hierárquica inicialmente proposta pelos autores conflitou com a estratégia e a missão/visão da empresa. No final, o trabalho apresenta a estrutura de um Quadro Equilibrado de Indicadores para a instituição estudada e algumas conclusões sobre o sistema de medição de desempenho.
Resumo:
No intuito de validar seus projetos de sistemas integrados, o Grupo de Microeletrônica da UFRGS tem investido na inserção de estruturas de teste nos núcleos de hardware que tem desenvolvido. Um exemplo de tal tipo de sistema é a “caneta tradutora”, especificada e parcialmente desenvolvida por Denis Franco. Esta caneta se utiliza de um microcontrolador 8051 descrito em VHDL, o qual ainda carece de estruturas dedicadas com funções orientadas à testabilidade. Este trabalho exemplifica a integração de teste em um circuito eletrônico préprojetado. Neste caso específico, foi utilizado o microcontrolador 8051 fonte compatível que será inserido no contexto da caneta tradutora. O método utilizado apoiou-se na norma IEEE1149.1, destinada a definir uma infra-estrutura baseada na técnica do boundary scan para o teste de placas de circuito impresso. São apresentadas características de testabilidade desenvolvidas para o microcontrolador, utilizando-se a técnica do boundary scan em sua periferia e a técnica do scan path em seu núcleo. A inserção destas características de teste facilita a depuração e testes em nível de sistema, imaginando-se o sistema como algo maior, fazendo parte do sistema da caneta tradutora como um todo. São elaborados exemplos de testes, demonstrando a funcionalidade do circuito de teste inserido neste núcleo e a possibilidade de detecção de falhas em pontos distintos do sistema. Finalmente, avalia-se o custo associado à integração desta infra-estrutura de teste, tanto em termos de acréscimo de área em silício, quanto em termos de degradação de desempenho do sistema.
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Resumo:
A competitividade mundial tem levado as empresas a melhorarem seus produtos, processos e serviços. A certificação da qualidade e da gestão ambiental é hoje uma forma das empresas evidenciarem seu compromisso com a qualidade e o meio ambiente. Os Sistemas Integrados de Gestão surgiram como resposta à necessidades das empresas de implementarem diversos sistemas como qualidade e gestão ambiental, de uma forma racional e menos pesada para a estrutura das organizações. Este trabalho refere-se ao planejamento de um Sistema Integrado de Gestão contemplando as áreas de Qualidade e Meio ambiente. O trabalho detalha a estrutura e os elementos do sistema proposto, bem como as etapas pertinentes, planos de ação, cronogramas, responsabilidades e ferramentas próprias à sua implementação. O sistema proposto baseia-se nas similaridades das normas aplicáveis, ISO 9001 e ISO 14001. O sistema proposto foi utilizado em um estudo de caso, conduzido junto a uma empresa do setor farmacêutico. Este trabalho apresenta o planejamento da implantação do sistema integrado. O texto discute as vantagens da implantação integrada, tais como: otimização de recursos de pessoal, simplificação da documentação, motivação para a integração, bem como diminuição de custos de treinamento, auditorias e manutenção.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.
Resumo:
O presente trabalho teve como objetivo avaliar se as variáveis biomassa (BM) e respiração (RM) microbianas e as atividades de β -glucosidase, urease, amidase, fosfatase ácida e aril-sulfatase podem servir como indicadores biológicos de qualidade do solo. Foram realizados três estudos, utilizando um experimento de longa duração que avalia diferentes sistemas de culturas na recuperação do solo. No primeiro, as variáveis acima foram avaliadas durante um ano, e os resultados foram correlacionados com indicadores físicos, químicos e de produtividade dos tratamentos solo descobertoc (SD), pousio/milho, aveia/milho, pousio/milho+lablab, aveia+vica/milho+caupi, guandu/milho+guandu e campo nativo (CN), buscando demonstrar a adequação de seu uso como indicadores biológicos de qualidade, além de observar seus comportamentos quanto a variações sazonais. No segundo, foi avaliada a influência da presença de raízes e da cobertura constante e integral do solo sobre a qualidade biológica, utilizando-se as variáveis acima para comparar o solo quando sob gramínea perene, sob dois sistemas de cultura de milho (com e sem leguminosa em consórcio) ou sob CN e SD. O terceiro estudo avaliou a qualidade do solo, segundo estas variáveis, em função da adição de N em cobertura no milho, em dois sistemas de cultura de milho (com e sem leguminosa em consórcio). Foram verificadas altas correlações entre as variáveis analisadas e teores de C orgânico e N total, além de outros indicadores de qualidade física e de produtividade do solo, confirmando a adequação de seu uso como indicadores biológicos de qualidade. Porém, como seu uso individual pode induzir a erros, foi proposta sua avaliação conjunta, em forma gráfica ou de índice, o que garante resultados mais abrangentes e integrados sobre a qualidade do solo. No segundo estudo, a elevada presença de raízes no tratamento com gramínea perene não garantiu a elevação dos valores das variáveis analisadas aos níveis do solo sob CN, indicando que estes possam estar relacionados à complexidade da comunidade vegetal presente sobre o mesmo e à diversidade microbiana dela resultante. No terceiro estudo, a adição de N em cobertura no milho, consorciado ou não com leguminosa, agiu seletivamente sobre a vida microbiana e sua atividade no solo, não alterando significativamente sua qualidade em termos biológicos. As variáveis avaliadas mostraram-se adequadas para a quantificação da qualidade biológica do solo, e seus resultados sugerem que a rotação e a consorciação de culturas são práticas recomendáveis para a recuperação e a manutenção da mesma em solos cultivados.
Resumo:
Esta tese focaliza a educação profissional a partir dos programas de formação profissional para surdos desenvolvidos em diferentes tempos e espaços educacionais, tanto em escolas como nos movimentos surdos. Esses programas atendem a uma determinada racionalidade que governa a conduta daqueles sujeitos para as quais as ações são diretamente pensadas, mas também constituem subjetividades entre os diferentes atores que se envolvem na elaboração, realização, avaliação desses programas. Essa racionalidade política vem engendrando um conjunto de procedimentos, de saberes e de poderes considerados desejáveis e úteis para a conformação de sujeitos que saibam dirigir suas condutas. Para realizar a análise dos programas de formação profissional, inspirei-me em algumas ferramentas analíticas utilizadas por Michel Foucault e outros autores que, inscrevendo-se em uma perspectiva pós-estruturalista, analisam o funcionamento da racionalidade política na Modernidade. Argumento que a formação de trabalhadores se constitui em um dispositivo de governamento que responde às necessidades e exigências de um sistema econômico, social, político e cultural que se preocupa com o risco do desemprego e da exclusão social de indivíduos identificados em grupos específicos e neste estudo, particularmente, dos surdos As unidades analíticas da pesquisa foram construídas a partir da captura das ênfases, das repetições, das articulações entre prescrições e procedimentos dentro dos programas. Essas unidades são apresentadas como tecnologias de governamento de si e dos outros que vêm conformando surdos trabalhadores disciplinados, reabilitados, integrados, autônomos, cidadãos e empreendedores como também almejando instituições articuladas no sentido do fortalecimento da sociedade civil.
Resumo:
Neste trabalho comparamos as Curvas IS e de Phillips, derivadas a partir de modelos “tradicionais” e micro-fundamentados. Além disso, estimamos essas curvas para dados trimestrais brasileiros no período de 1994 a 2001. Na estimativa da IS foi usada a técnica de vetores de co-integração, já que esta curva é não balanceada – o hiato do produto é integrado de ordem zero e os regressandos são integrados de ordem um.
Resumo:
O aumento da competição global tem forçado a revisão dos conceitos fundamentais das relações de competição e de cooperação. Esse estudo traz a revisão para o universo do sistema integrado de produção de fumo. Nesse sistema, um vínculo contratual existente entre a empresa fumageira e o produtor de fumo deveria estabelecer uma relação de cooperação do tipo usuário-produtor que, como tal, teria benefícios e obrigações equilibradas. O cenário atual de elevada demanda tem favorecido o aumento de comportamentos oportunísticos que vão contra a base desse relacionamento, manifestando-se através da utilização pelos produtores das vantagens do sistema integrado e do posterior rompimento dos contratos firmados com as empresas integradoras no momento em que deveriam respeitar a obrigação contratual de fornecimento da produção. De modo objetivo, alguns produtores procuram a segurança do sistema integrado enquanto não têm certeza do nível de especulação que existirá no momento da comercialização, abandonando-o no momento em que essa incerteza não existir mais. Dessa forma, saber se existe relação entre o perfil dos produtores e o comportamento destes em relação aos contratos seria importante para a identificação do risco de ocorrência de oportunismo em cada contratação, reduzindo problemas de inadimplência e de suprimento por parte das empresas. Diante disso, estabeleceu-se como objetivo geral do presente estudo desenvolver um modelo que possa ser utilizado na identificação prévia dos candidatos a produtores integrados com maior tendência à manifestação de comportamentos oportunísticos na relação com as integradoras. Esse objetivo foi atingido através da análise dos resultados obtidos com a aplicação de um questionário constituído por indicadores das características do sistema integrado e dos próprios produtores, levantados em entrevistas preliminares e na literatura disponível. Os resultados apontaram para a possibilidade de associação de alguns desses indicadores, através das respostas dadas pelos produtores, à tendência ou não de rompimento dos contratos de fornecimento, comprovando-se a viabilidade da utilização de alguns deles, e, por extensão, das características que eles analisam, para a construção do modelo desejado.
Resumo:
Neste artigo desenvolve-se um modelo de crescimento econômico endógeno para o caso de duas economias integradas levando-se em conta a presença de custos de transporte na forma de iceberg costs. A presença de tais custos juntamente com a existência de ganhos de escala terá um efeito negativo sobre a taxa de crescimento dos países integrados e exercerá um importante efeito sobre a localização da produção de insumos intermediários. Demonstra-se, no entanto, que um processo de integração com custos de transporte ainda leva a um aumento da taxa de crescimento de estado estacionário devido ao aumento do mercado consumidor de insumos. O ganho de bem-estar decorrente da integração dependerá das dotações de cada país, na medida em que o nível de consumo per capita após a integração depende destas dotações. Adicionalmente, apresenta-se uma simulação de ganhos em termos de taxa de crescimento do PNB e de bem-estar para uma integração econômica entre Brasil e Argentina.
Resumo:
O presente trabalho investiga a adequação, o desempenho e a respectiva importância, para os usuários dos espaços abertos comuns com fins de recreação em conjuntos habitacionais populares, e traz as principais conclusões da análise comparativa realizada, em dois desses conjuntos: Santo Tomé (Argentina) e São Borja (Brasil). Esta pesquisa de avaliação pós-ocupação utiliza, como indicadores, o comportamento e a satisfação dos seus usuários, para avaliar o desempenho desses espaços abertos comuns. É feita uma análise comparativa da percepção dos usuários de seus ambientes de recreação, nos dois conjuntos habitacionais, de modo a entender-se melhor como eles se apropriam, utilizam e avaliam os espaços abertos comuns, com o objetivo de identificar os principais fatores que afetam positiva ou negativamente o uso desses espaços e o seu nível de satisfação e, conseqüentemente o desempenho dos conjuntos habitacionais para a vida coletiva. Pretende produzir informações e reflexões que realimentem projetos futuros semelhantes. Igualmente este estudo, impulsionado pelo processo de integração do Mercosul, se propõe a tentar viabilizar a iniciação de estudos integrados entre países limítrofes, em temas de interesse comum, como o do planejamento urbano.
Resumo:
Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.