957 resultados para Falhas
Resumo:
Este trabalho discute a conveniência do uso de políticas industrias no Brasil. Argumenta-se que o sucesso dos países do Leste Asiático, muitas vezes relacionado ao uso de política industrial (PI), é resultado principalmente de políticas horizontais. Além disso, aponta-se que a maioria dos argumentos utilizados para justificar a adoção de PI carece de fundamentação teórica e empírica e que PI deve ser motivada por algum tipo de falha de mercado. Nesse sentido, faz-se uma breve descrição das falhas de mercado que teoricamente justificariam algum tipo de PI, avalia-se a relevância empírica destas falhas e quais as ferramentas de intervenção seriam mais adequadas (se for o caso). A partir disso, avalia-se a atual política industrial brasileira, tal como descrita em Brasil (2003). Por fim, conclui-se que políticas horizontais, além de estarem menos sujeitas à pressão de grupos organizados, possuem maior potencial para impulsionar o crescimento econômico brasileiro.
Resumo:
This article discusses the convenience of adopting industrial policy in Brazil. We argue that the success of East Asian countries, usually explained by industrial policy, is mainly result of horizontal policies. We also show that there are not theoretical or empirical foundations in most of the arguments used to justify industrial policy and that industrial policy must be motivated by market failures. We briefly discuss what market failures theoretically justify industrial policy, what the empirical relevance of these failures and what the most adequate instruments to be used in case of public intervention. From this perspective, we analyze the Brazilian industrial policy, such as described in Brasil (2003). Finally, we conclude that horizontal policies, besides to be less subject to the influence of self-interested groups, have more potential to foster Brazilian growth.
Resumo:
O objetivo desta tese é contribuir para o debate entre as alternativas disponíveis ao setor público interessado em corrigir falhas de mercado, avaliando algumas alternativas de políticas públicas relacionadas à oferta de infra-estrutura, indicando quais seriam seus possíveis efeitos sobre a eficiência e o crescimento econômico.
Resumo:
Avaliação de desempenho de malhas de controle, na abordagem baseada em controle com variância mínima, é uma tecnologia bastante promissora e de grandes potencialidades. No entanto ainda não é devidamente explorada no meio científico nacional e muito menos em nível industrial. Neste trabalho é apresentado um estudo abrangente na área de avaliação de desempenho de malhas de controle. Um vasto levantamento bibliográfico é feito e os fundamentos teóricos necessários para o entendimento das técnicas existentes são detalhadamente desenvolvidos. As características positivas e as principais falhas são apontadas. Diferentes abordagens são propostas, técnicas complementares à avaliação de desempenho baseada em variância mínima são sugeridas e questões de cunho prático são levantadas. Simulações e estudo de casos reais são levados a cabo, nos casos SISO e MIMO, com a finalidade de colocar em prática os procedimentos estudados, fornecer subsídios a uma avaliação crítica dos métodos apresentados e também possibilitar conclusões a respeito dos resultados obtidos. Como resultado, este trabalho introduz o assunto no meio acadêmico nacional, fornece diretrizes para a implementação industrial das técnicas apresentadas e demonstra, através da interpretação de resultados obtidos, que esta tecnologia é valiosa no sentido que pode resultar em grande retorno econômico ao resolverem-se os problemas detectados nos diagnósticos produzidos pela análise de desempenho de malhas de controle.
Resumo:
O Iseb foi um Instituto de Pesquisas de um Grupo de Intelectuais Nacionalistas Que, nos Anos 50, Tentaram Entender o Brasil Numa Visão Global que Incorporava os Aspectos Sociais e Políticos. Definiram o Desenvolvimento como Sendo um Processo Nacional de Mudanças Radicais de Natureza Capitalista. Mais Especificamente, como um Processo de Industrialização que Levasse a um Crescimento Auto-Sustentado da Renda Per Capita. no Processo de Formação Nacional e de Institucionalização de um Mercado Nacional, a Burguesia se Associaria À Burocracia Estatal e Aos Trabalhadores, Tendo por Objetivo Comum o Interesse Nacional. suas Idéias Forma Criticadas Pela Escola de Sociologia de são Paulo, que Veio a Surgir Dez Anos Depois, e que Criticava o Nacionalismo e Insistia na Tese do Conflito de Classes. as Falhas no Pensamento do Iseb, Entretanto, não Decorrem Desses Aspectos. Superestimaram a Capacidade de o Setor Moderno Absorver o Excedente de Mão-De-Obra Existente no Setor Tradicional Enquanto que Subestimaram a Possibilidade de a Crise Originária do Endividamento Externo Poder por um Fim ao Processo da Transformação Nacional.
Resumo:
A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.
Resumo:
Os controladores programáveis tornaram-se fator decisivo para o controle de processos em ambientes industriais. Permitir o gerenciamento desses, eleva-os ao mesmo grupo de outros equipamentos da rede. Gerenciar esses dispositivos e o processo controlado tende a facilitar a identificação de falhas, as intervenções no processo e demais vantagens trazidas por um bom esquema de gerência. Uma maneira de realizar esse gerenciamento é por meio de programas conhecidos como supervisórios. Além das aplicações de supervisão, uma nova classe de ferramentas, que também possibilita o gerenciamento tanto do controlador quanto do processo a esse submetido, vem sendo disponibilizada. A presença de protocolos de gerenciamento, tal qual o SNMP, já é uma realidade em alguns dos modelos de equipamentos oferecidos por vários fabricantes, promovendo uma integração com plataformas de gerência já existentes no mercado. A proposta deste trabalho inclui a elaboração de um modelo de gerenciamento usando XML, atualmente em ampla ascensão e aceitação. Está, também, previsto a construção de um protótipo capaz de realizar as funções de um agente. A criação de um modelo de gerenciamento baseado em tecnologias e especificações abertas, tais como XML e Web, possibilita desde a utilização de um navegador, até o desenvolvimento de novas ferramentas para a requisição/aquisição de dados em controladores.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
O objetivo deste estudo in vitro foi avaliar a interação de dois sistemas adesivos (Scotchbond Multi-Purpose - 3M; Clearfil SE Bond - Kuraray) aplicados à dentina de dentes decíduos, através do ensaio de resistência da união à microtração, e da análise da micromorfologia da interface adesiva. Foram confeccionadas duas cavidades ocluso-proximais padronizadas (tipo slot vertical) na mesial e distal de dezoito molares decíduos hígidos. Cada um dos sistemas adesivos foi aplicado em uma das cavidades do mesmo dente. As cavidades foram restauradas com resina composta (Filtek Z 250 – 3M) pela técnica incremental, sendo cada camada fotopolimerizada por 20 s, utilizando uma fonte de luz visível (XL 2500 - 3M). Os dentes foram armazenados por uma semana em água destilada a 4o C e seccionados no sentido vestíbulo-lingual para análise isolada de cada restauração. Cada uma destas foi seccionada em fatias de 0,7 mm de espessura e, em seguida, efetuou-se uma constrição (1 mm) na região da interface de união (parede axial) para obtenção de uma área adesiva com aproximadamente 0,7 mm2. Os corpos-de-prova foram fixados isoladamente em um dispositivo conectado em uma máquina de ensaio universal (Instron – modelo 4411) e submetidos à tração com velocidade de 0,5 mm/min. As superfícies das secções fraturadas foram avaliadas ao MEV (Jeol –5600 LV) e categorizadas em relação aos padrões de fratura ocorridos. Adicionalmente, superfícies planas contendo a interface de união foram preparadas com lixas de carbureto de silício (granulação 1000) e polimento com pastas de diamante (6, 3, 1 e 0,25 µm). Após desidratação em sílica coloidal em temperatura ambiente por 24 h, as superfícies foram cobertas com liga de ouro e, a micromorfologia da união formada na parede axial das restaurações ocluso-proximais, analisadas ao MEV (Jeol –5600 LV). Os resultados do ensaio de resistência de união foram submetidos à análise estatística utilizando o teste t de student em nível de 5% de significância, e os tipos de fraturas e os aspectos micromorfológicos da interface adesiva submetidos à avaliação descritiva. Os valores médios de resistência de união dos adesivos Scothbond Multi-Purpose (21,84±9,90 MPa) e Clearfil SE Bond (25,19±5,33 MPa) não apresentaram diferenças estatisticamente significantes entre si (p=0,27). A análise do tipo de fratura revelou uma maior quantidade de falhas na região de dentina desmineralizada (G1: SMP) e na porção superior da camada híbrida (G2: CSE). A interface de união, em ambos os grupos, foi caracterizada pela formação da camada híbrida, projeção de prolongamentos resinosos adaptados à dentina e com direcionamento relacionado à disposição dos túbulos dentinários na área da cavidade avaliada.
Estudo do desempenho em fadiga do componente tibial metálico de um modelo de prótese total de joelho
Resumo:
A substituição total de uma articulação de joelho é uma técnica amplamente usada para corrigir os danos irreversíveis na juntas originais, causadas por patologias como osteoartrite e artrite reumatóide. Com o aumento número de pacientes jovens e mais ativos, a evolução na técnica da substituição da articulação total de joelho visando desempenho de longo prazo passa a ser uma demanda crítica. Portanto, na tentativa de evitar as falhas prematuras e prolongar a vida em serviço como um todo, as modificações na bandeja tibial podem produzir erros fundamentais. O design da bandeja tibial é um importante fator, porque a sua fratura pode ocorrer em função de elementos geométricos da mesma, como raios de concordância e cantos vivos. A escolha do material e do processo de fabricação também são importantes. No tocante a rota de fabricação, pode ser visto que as ligas forjadas tem o maior limite de fadiga, se comparado com as obtidas pelo processo de fundição. Entretanto, a combinação das técnicas de desenho assistido por computador (CAD), engenharia assistida por computador (CAE) e manufatura assistida por computador (CAM) podem ser uma solução rápida e barata para alcançar melhores características das bandejas tibiais. Contudo, testes pré-clínicos devem ser executados para garantir que as bandejas tibiais não falharão prematuramente devido à fadiga. As técnicas de metalografia, microdureza e espectrometria foram empregadas neste trabalho com o objetivo de caracterizar metalurgicamente a liga de aço inoxidável atualmente empregada. A rugosidade superficial foi avaliada, assim como o número de ciclos para a iniciação das trincas. Com a utilização do método de elementos finitos, verificou-se o ponto de maior tensão e, aliado ao estudo de fractografia, foi determinado o modo de falha Os resultados indicaram que o material atualmente empregado não está em conformidade com todos os requisitos das normas vigentes, de forma que um material alternativo é sugerido. Com o objetivo de melhorar a resistência à fadiga sem apresentar problemas de ordem clínica, cinco geometrias foram propostas e os resultados da análise de tensões pelo método de elementos finitos indicaram um grande potencial de aumento da vida em fadiga.
Resumo:
Neste trabalho procuramos analisar alguns métodos iterativos e os processos de aceleração na solução lineares grandes e esparsos, associando o uso de alguns pré-condicionadores, tais como os métodos de fatoração incompleta. De forma mais específica, nos detivemos no estudo deos métodos de fatoração incompleta LU, ou ILU, e o método de Cholesky incompleto. Para isso procuramos antes definir algumas especificidades sobre esses métodos, tais como, crtérios de existência, limitação. Alguns fatores analisam tais problemas e sugerem algumas técnicas de conserto, ou seja, algumas maneiras de eliminar tais falhas para que os métodos de iteração possam ser utlizados para determinar soluções mais próximas da solução real. Procedemos a uma revisão teórica de alguns dos métodos iterativos, dos pré-condicionadores. Jacobi, fatoração incompleta LU e fatoração incompleta de Cholesky e a sua associação com os métodos iterativos GMRES e Gradiente Conjugado. Utilizando os pré-condionadores associados aos métodos iterativos citados e fixando alguns parâmetros de parada, aplicamos algusn testes. Os resultados e a análise dos mesmos encontram-se neste trabalho.
Resumo:
Este trabalho tem por objetivo apresentar e estudar a aplicação de uma ferramenta chamada PCP – Pseudo-Compilador Portugol, criada para auxiliar estudantes de programação a aprimorar o raciocínio lógico e a criar programas estruturados, sem que precisem se preocupar com comandos e instruções em Inglês ou tenham conhecimento de uma linguagem de programação específica. Por ser uma ferramenta que usa somente palavras do nosso idioma, os alunos podem direcionar todo o seu raciocínio no entendimento e resolução do problema em forma de algoritmo. O estudo experimental realizado neste trabalho pretende analisar e comparar o aprendizado entre grupos de alunos de disciplinas de programação utilizando e não utilizando esta ferramenta. Além de acompanhar o desempenho dos alunos, pretende também coletar informações durante as baterias de testes e obter as opiniões dos mesmos em relação ao PCP, no que se refere às facilidades, dificuldades, pontos positivos e falhas apresentadas. Este estudo é apresentado em duas etapas, com oito baterias de teste em cada uma. Na primeira etapa foram selecionados alunos do Curso de Ciência da Computação da UNIGRAN, em Dourados-MS; na segunda etapa foram selecionados alunos da Escola Anglo Decisivo. Estas duas etapas possibilitam a análise do aprendizado proporcionado pela ferramenta com alunos que já têm alguma noção de programação e com alunos que não tiveram nenhum contato com o desenvolvimento de programas.
Resumo:
Este trabalho discute a questão do Gerenciamento de Projetos, atividade que vem crescendo em importância nos nossos dias. Inicialmente foi feita uma revisão geral sobre o conhecimento acumulado em Gerenciamento de Projetos, mostrando a seguir que, apesar de toda a evolução desta metodologia, os problemas para terminar um projeto dentro do prazo, com as características desejadas e mantendo os custos dentro do orçamento previsto, ainda falham. A Teoria das Restrições mostrou-se útil na redução dessas falhas cujas causas principais foram mostradas; uma metodologia é proposta para eliminá-las. Finalmente foi feita uma pesquisa exploratória em dez empresas de diferentes ramos e dimensões que aplicaram essa metodologia com uma análise sobre a adequação de sua utilização.
Resumo:
The aim of this paper is to relate the macroeconomic and the microeconomic aspects of stabilization policies, with a special regard to the situation in Latin America, mainly Brazil and Argentina. In order to make this analysis, it was firstly necessary to rethink on a critical basis the failures of microfoundations of macroeconomics, and from this point on to assess the main problems of stabilization policies formulation if these critical considerations are not undertaken.