957 resultados para Falha de restauração dentária
Resumo:
Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.
Resumo:
o setor de manutenção, em geral, é visto como uma das áreas mais propícias à implementação de melhorias na qualidade da gestão e dos serviços. Nesse campo, a Manutenção Centrada em Confiabilidade (MCC) tem apresentado bons resultados. A MCC é uma metodologia que permite determinar racionalmente o que deve ser feito para assegurar que um equipamento continue a cumprir suas funções em seu contexto operacional, determinando tarefas de manutenção, necessárias para manter o sistema funcionando, ao invés de restaurar o equipamento a uma condição ideal. A metodologia de implementação da MCC descrita neste trabalho contempla as seguintes etapas: (i) preparação do estudo; (ii) seleção do sistema e subsistemas funcionais; (iii) análise das funções e falhas funcionais; (iv) seleção dos itens críticos do subsistema; (v) coleta e análise de informações; (vi) análise de modos de falha e efeitos; (vii) seleção das tarefas de manutenção preventiva; e (viii) elaboração do plano de manutenção. o objetivo deste trabalho é consolidar as definições e etapas para implementação da MCC no setor de preparação de polpa da fábrica de pasta químico-mecânica (FPQM) da Celulose Irani S.A. Inicialmente, foi feita uma abordagem sobre os métodos de manutenção, discorrendo em específico sobre aqueles voltados à MCC. Em seguida, são apresentadas as definições, as principais ferramentas utilizadas pela MCC e a sistemática de implementação da MCC na visão de vários autores. Posteriormente, foi realizado um estudo de caso em que foram determinadas as tarefas de manutenção para manter as funções dos itens fisicos da FPQM. Nas etapas de implementação, são geradas informações sobre os subsistemas e são determinadas as funções, as falhas funcionais, os modos de falha, a causa e o efeito da falha e se faz a descrição do realizado em cada etapa, esclarecendo e ampliando a compreensão do leitor, diante da MCC. Os resultados obtidos demonstram que a metodologia da MCC é um processo contínuo e sua aplicação deve ser reavaliada conforme a experiência operacional for acumulada, e que, apesar da ausência de informações históricas sobre falhas de itens fisicos, a MCC permite definir planos de manutenção e aprimorar o conhecimento acerca do sistema em estudo.
Resumo:
Este trabalho visa abordar um aspecto importante em um sistema de gestão empresarial - a mensuração dos custos relacionados à qualidade e a proposição de melhorias a partir da análise destes custos. Um dos obstáculos mais importantes para o estabelecimento e consolidação de programas de qualidade nas empresas é a idéia errônea de que alta qualidade implica, necessariamente, em alto custo. Na maioria das vezes, as organizações não possuem indicadores que mensurem tais custos, tomando decisões equivocadas em relação ao nível de qualidade a ser praticado em seus produtos ou serviços. Em diversos contextos, prevalece a ênfase no retomo imediato, sem se considerar os custos com perdas pela não-qualidade. Esta dissertação busca identificar e analisar os custos diretos relacionados à qualidade nas suas quatro grandes categorias. As primeiras duas categorias incluem os custos que aparecem quando a função qualidade falha (custos da não-qualidade). São os chamados custos de falhas internas e custos de falhas externas, de acordo com a situação do produto no instante da falha, se dentro da empresa ou após ter sido vendido aos clientes. As duas últimas categorias incluem os custos da função qualidade (ou custos da qualidade propriamente dita), divididos em custos de prevenção, englobando tudo o que é feito para prevenir defeitos, e custos de avaliação, que reúnem os esforços despendidos para remover do processo os produtos defeituosos. Para garantir a sua sobrevivência no mercado, empresas devem estar preparadas para medir seus custos de qualidade e de não-qualidade, visualizando oportunidades de redução de custos e tomada de ações para a melhoria contínua do ambiente produtivo, justificando assim o investimento em qualidade Apoiando-se numa sistemática estruturada,o trabalho faz a identificação e análise dos custos diretos relacionados à qualidade. Um estudo prático, realizado em uma indústria de balas no estado do Rio Grande do Sul, demonstra a importância estratégica e econômica da identificação, análise e gerenciamento desses custos, propondo melhorias decorrentes da análise das causas dos principais valores levantados, destacando ainda as melhorias propostas a partir desta análise na empresa em estudo. O estudo identificou que a principal categoria de custos relacionados à qualidade refere-se à categoria de custos das falhas internas que correspondem,em média, à 12% do faturamento da empresa. Além disso, o impacto na redução dos custos da não-qualidade ultrapassa o lucro líquido da empresa.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
Mosaicos de áreas úmidas fornecem hábitats para uma ampla gama de espécies de aves, que raramente se distribuem uniformemente dentro das mesmas. O cenário mundial atual do estudo de aves em áreas úmidas deixa bem claro que as metodologias para estudos quantitativos de aves em áreas úmidas ainda estão sendo criadas ou aperfeiçoadas. O mosaico formado pelas áreas úmidas do Banhado dos Pachecos é de reconhecida importância para a conservação de aves aquáticas, constituindo-se numa área ideal para estudos da avifauna. A presente dissertação tem como objetivo avaliar a estrutura espacial e sazonal da avifauna do Banhado dos Pachecos, tecer considerações sobre a conservação das aves aquáticas sob uma perspectiva de paisagem e testar a viabilidade de se utilizar amostragens matinais e vespertinas para análises de distribuição e abundância da avifauna. O Banhado dos Pachecos, juntamente com o Banhado Grande, formam o Sistema Banhado Grande. A amostragem da avifauna foi conduzida através de levantamentos qualitativos e quantitativos de modo a cobrir quatro estações climáticas: verão, outono, inverno e primavera. As amostragens qualitativas foram realizadas através de deslocamentos ad libitum entre e durante as amostragens quantitativas em todas as fisionomias. As amostragens quantitativas foram realizadas através de pontos de contagem, transecções e contagens totais. Riqueza, grupos funcionais de forrageio, grupos funcionais de nidificação, aves aquáticas, situação de ocorrência no Rio Grande do Sul, espécies ameaçadas de extinção e abundância foram os descritores utilizados para a caracterização da avifauna. A estatística empregada na análise dos dados multivariados baseou-se em métodos não-paramétricos de reamostragem através de aleatorização e “bootstrap”. Análises de agrupamentos foram realizadas para determinar a formação de grupos de fisionomias e análises de coordenadas principais foram realizadas para determinar se existia algum padrão de associação entre as diferentes fisionomias. Registraram-se 209 espécies de aves, vinte e e três grupos funcionais de forrageio, sete grupos funcionais de nidificação e 60 espécies de aves aquáticas e 11 espécies ameaçadas de extinção. Trinta e duas espécies apresentaram evidências discordantes da situação de ocorrência conhecida para o estado. Alguns fatores que poderiam ser fontes de viés para a interpretação das análises na presente dissertação foram abordados. A constância encontrada no conjunto de espécies da área de estudo pode refletir uma maior estabilidade ambiental. O alto número de grupos funcionais de forrageio e de nidificação registrados para a área de estudo sugere uma grande diversidade de recursos, reflexo da heterogeneidade entre as diferentes fisionomias. A origem de algumas espécies que se mostraram efetivamente migratórias, pois usaram a área de estudo em um período estacional bem definido, se mostra uma incógnita. Somente estudos extensivos e abrangentes poderão responder essas perguntas e propor medidas eficientes para a conservação tanto das áreas úmidas como das espécies que delas dependem. A restauração de um corredor de áreas úmidas entre o banhado dos Pachecos e o banhado Grande, juntamente com um manejo rotativo de cultivos de arroz parece ser a alternativa mais viável e conciliatória entre pontos de vista econômico e conservacionista para possibilitar o aumento da conectividade no Sistema Banhado Grande.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.
Resumo:
Com esse estudo objetivou-se analisar a possibilidade da aplicação do conceito de integralidade da atenção para sujeitos portadores de necessidades especiais. Enfocou-se o conceito de integralidade da atenção, submetendo-o a esse recorte da realidade, tanto pelo fato dele ser central à contemporânea discussão do que fazer em saúde pública, face a Reforma Sanitária Brasileira, bem como, por entendermos que a integralidade é praticamente a única alternativa para atenção desses sujeitos, tanto no método clínico como no coletivo de intervenção. A população alvo constou da família de sujeitos portadores de necessidades especiais que freqüentam a APAE do município de Lajeado, bem como dos trabalhadores daquela instituição. Verificou-se o discurso da referida população alvo sobre etiologia e prevenção da cárie dentária, doença periodontal, câncer de boca, má-oclusão e fissuras de lábio e palato, tentando identificar hábitos, valores e dificuldades que possam intermediar a possibilidade da aplicação do conceito de integralidade da atenção para sujeitos portadores de necessidades especiais. Concluiu-se que : • A utilização do conceito de integralidade é intermediado pelo saber ou não saber, pela cultura somática dos indivíduos; • A falta de um saber sobre saúde bucal que melhore o cotidiano dos sujeitos impede que se trabalhe com o conceito ampliado de cura, 9 que é fundante da noção de autonomia, que se agrega à noção de integralidade; • A família do sujeito especial e a instituição que o mesmo freqüenta são um locus privilegiado para a práxis da noção de integralidade da atenção; • O sujeito especial se constitui como sujeito com inteireza, somente a partir da adoção intencional do conceito de integralidade, quer na instituição, quer na família; • O corpo de trabalhadores da instituição deveria contar com o trabalho de um cirurgião dentista com especialidade em saúde pública, ou com uma técnica em higiene dental, para atuar junto às famílias e com os trabalhadores de forma intra e interdisciplinar; • Há uma necessidade premente de ações de educação em saúde e capacitação para as famílias e trabalhadores da instituição, no que tange à saúde bucal, enfocando as 5 patologias bucais que são tidas como problemas de saúde pública.
Resumo:
Conhecer o número de crianças livres de cárie, a prevalência e severidade dessa doença em escolares de 12 anos nos Distritos de Saúde Norte e Nordeste da cidade de Porto Alegre, bem como o SIC Index ( Índice Significante de Cárie) desses distritos, foi o objetivo desta pesquisa. A maior parte da metodologia foi baseada no Ministério de Saúde e na OMS. Foram utilizadas duas amostras independentes de escolares de 12 anos: uma amostra de 282 alunos do Distrito Norte e uma amostra de 220 escolares do Distrito Nordeste. Os dados foram coletados a partir de exames clínicos. Para conhecer a experiência de cárie foi utilizado o índice CPO-D. Utilizou-se o teste t para comparação das médias de CPO-D entre os dois distritos. Para avaliar as associações entre crianças livres de cárie, sexo, distritos e componentes do CPO-D utilizou-se o teste qui-quadrado, com um nível mínimo de significância de 5% para ambos os testes. O número de crianças livres de cáries cavitadas foi de 62,8% e 55,0% nas regiões Norte e Nordeste, respectivamente. O CPO-D foi de 0,89 no Distrito de Saúde Norte e 1,0 no Distrito de Saúde Nordeste. Não houve diferença significativa estatisticamente na proporção de crianças livres de cárie e nas médias de CPO-D entre os dois distritos. Porém, em relação aos componentes do CPO-D, houve diferença significativa estatisticamente entre os distritos. O Distrito de Saúde Norte apresentou um número maior de dentes restaurados e um número menor de dentes cariados e perdidos, indicando uma condição de acesso a tratamento odontológico maior do que no Distrito de Saúde Nordeste. Provavelmente isso se deve a uma maior vulnerabilidade social existente no Distrito Nordeste. Concluiu-se que mais da metade da população de 12 anos dos Distritos Norte e Nordeste da cidade de Porto Alegre encontra-se livre de lesões de cáries cavitadas; o índice de CPO-D médio dos dois distritos estudados indica uma prevalência muito baixa da doença, segundo classificação da OMS; não se encontrou diferenças entre os sexos em relação à experiência da doença; houve diferenças significativas entre os componentes de CPO-D em relação aos distritos; os molares inferiores foram os dentes mais atingidos pela cárie dentária; o SIC Index nos dois distritos estudados atingiu as metas propostas pela OMS para 2015, ou seja, apresentaram um CPO-D menor que 3,0.
Resumo:
Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.
Resumo:
As empresas, cada vez mais, buscam a redução de custo, para serem mais competitivas. A necessidade de aumentar a vida útil dos equipamentos, através de técnicas apropriadas é prioritário para manutenção dos ativos. Neste trabalho estudou-se o método para implantação da análise e monitoramento da vibração em equipamentos rotativos, com base nos conceitos da manutenção centrada em confiabilidade, usando técnicas preditiva e pró-ativa de manutenção pela condição, com foco na tarefa. Primeiramente foi analisado o comportamento dos componentes em relação ao processo de falha, como as falhas atuam, os tipos de modos de falha, falhas funcionais e seus efeitos. Após foram analisados e selecionados os critérios de níveis de vibração para os equipamentos rotativos em função da potência e rotação. Também, foi determinado em que condições os espectros seriam analisados em função da amplitude e freqüência de rotação. Então, foram preparados os locais para coletas dos dados de vibração. Assim, os níveis de vibração global foram coletados em função das amplitudes, em cada posição específica do equipamento em seu plano. Isto faz com que, análise dos níveis globais de vibração e o diagnóstico através do espectro e a forma de onda, permitissem encontrar a causa do problema. Finalmente, são apresentados os resultados em níveis de amplitude, espectro após ações, a correção da causa do problema e os tipos de defeitos de tendência de falhas e a implementação do método.
Resumo:
O objetivo deste trabalho foi avaliar a influência da idade, sexo, altura de cupim e tipificação de carcaças sobre as características quantitativas e qualitativas da carcaça e da carne bovina. Foram avaliados os pesos de carcaça quente, peso do quarto traseiro resfriado, área de olho de lombo, espessura de gordura de cobertura e grau de acabamento de 36 bovinos machos castrados de diferentes idades, avaliadas pela cronologia dentária, e 10 fêmeas adultas, escolhidos ao acaso na linha de matança de matadouro-frigorífico comercial. As carcaças foram tipificadas conforme o sistema Brasil. A qualidade da carne foi avaliada no músculo Longissimus dorsi quanto à marmorização, teor de gordura intramuscular, força de cisalhamento no primeiro, quinto e décimo dia de maturação, cor e capacidade de retenção de água. A marmorização e o teor de gordura intramuscular foram superiores em animais de oito dentes (P<0,05). Bovinos de oito dentes produziram contrafilé mais macio (4,99 Kg/cm2) do que novilhos de quatro e seis dentes (6,36 Kg/cm2) e dois e três dentes (6,06 Kg/cm2). As fêmeas apresentaram menor peso de carcaça e de quarto traseiro e menor área de olho de lombo. O grau de acabamento, grau de marmorirzação e teor de gordura intramuscular foram superiores nos machos (P<0,05). As fêmeas produziram contrafilé mais duro (7,10 Kg/cm2) que os machos da mesma categoria (4,99 Kg/cm2). A tipificação de carcaças não informou sobre o desenvolvimento das massas musculares, grau de marmorização e maciez.
Resumo:
O objetivo do trabalho é realizar uma análise da estratégia long-short feita pelos fundos de investimentos, no mercado acionário, e testar a neutralidade dos fundos long-short brasileiros ao principal índice de mercado, o Ibovespa, utilizando os testes de neutralidade de Patton (2006) como referência. As explicações da estratégia long-short se divide em duas partes: a estratégia de pairs trading pela arbitragem estatística, e a estratégia de pairs trading pela arbitragem de risco. O resultado encontrado mostra que quase a totalidade dos fundos analisados (85%) falha no teste de neutralidade em relação ao mercado acionário, mais especificamente ao Ibovespa.
Resumo:
Ao contrário do que se encontra na literatura internacional, em nosso país a defesa da intervenção governamental para promoção da atividade industrial está, via de regra, associada à necessidade de melhoria de nossas contas externas. Este artigo discute possíveis elos entre política industrial e comércio exterior, centrando em argumentos comumente encontrados no debate de crescimento e de apoio à indústria no Brasil. Discutiremos a racionalidade destes argumentos tanto do ponto de vista macroeconômico quanto microeconômico, e mostraremos que, enquanto no primeiro caso há graves inconsistências lógicas e teóricas, no segundo a evidência é amplamente desfavorável ou os argumentos em geral não se aplicam. Discutiremos também se experiências internacionais de crescimento rápido (e de expansão de comércio exterior) podem ser creditadas a políticas industriais e se estas podem ser facilmente reproduzidas no país. Nosso diagnóstico aqui também é pessimista