123 resultados para Critério de falha
Resumo:
Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.
Resumo:
Esta dissertação estuda os procedimentos de tomada de decisão de investimentos em ativos, utilizados pelas empresas industriais de médio e grande porte da região noroeste do Estado do Rio Grande do Sul, investigadas em termos de critérios de avaliação e a consideração de aspectos estratégicos na decisão de investimento. Trata-se de uma pesquisa exploratória, realizada em trinta empresas, que procurou investigar o comportamento das mesmas em matéria de critérios de decisão, consideração do risco, timing e ciclo econômico, incorporação de novas tecnologias e a avaliação do desempenho do investimento. A seguir, procede-se à análise comparativa de alguns resultados da presente pesquisa com a pesquisa de Saul (1990/1991), realizada nas grandes empresas industriais e prestadoras de serviços públicos básicos do país. Finalmente é apresentado o estudo de caso múltiplo, que teve como base a pesquisa survey realizada nas trinta empresas, das quais foram selecionadas três empresas uma do setor agropecuário e duas do setor metal-mecânica que mais se assemelham quanto às práticas de seleção e avaliação de investimentos constantes na teoria. Esse estudo teve por objetivo examinar os procedimentos adotados no processo de tomada de decisão, bem como a consideração de ativos intangíveis na decisão de investimento. Nas conclusões, geral e parcial, são apresentados os comportamentos das empresas investigadas e analisadas e suas diferenças com as recomendações constantes na teoria financeira, no que se refere a critérios de avaliação e decisão de investimento. Os resultados da pesquisa demonstraram uma aproximação das práticas empresariais com as descritas na teoria financeira, já que a maioria das empresas utiliza técnicas formais para avaliar, selecionar e controlar os seus projetos de investimentos; verificou-se que as empresas utilizam uma estimativa de rentabilidade para “todos” ou para a “maioria” de seus projetos. Através do estudo, a pesquisa confirmou que as empresas da região noroeste utilizam a taxa interna de retorno (TIR) como critério principal de rentabilidade na análise de investimento. Também, constatou-se que o payback , nas modalidades sem e com atualização é usado como critério secundário. Outro aspecto constatado na investigação mostra que a maioria das empresas avaliam o risco de maneira subjetiva, vindo a contrariar a teoria financeira pelo não uso dos métodos de mensuração existentes. No que se refere `a comparação dos resultados da presente pesquisa com os resultados da pesquisa de Saul (1990), evidenciou-se que as empresas da região noroeste diferem em alguns procedimentos, principalmente em termos de mensuração do risco, pois em 1990 às empresas utilizavam um método quantitativo para medir o risco, nos demais procedimentos são semelhantes aos utilizados pelas empresas nacionais. Assim, conclui-se, que a análise de investimento vem influenciando a maneira das empresas decidirem e agirem, mostrando que os empresários não estão explorando ao máximo as técnicas de análise de investimento oferecidas pela teoria financeira, embora as empresas busquem constantemente a modernização tecnológica, adaptando-as ao seu ambiente, de acordo com as necessidades que o mercado exige, oportunizando o crescimento e o desenvolvimento de seus negócios.
Resumo:
O objeto deste estudo é a visão dos usuários quanto aos fatores que influenciam a qualidade do atendimento prestado em uma unidade básica de saúde de Porto Alegre, relativos ao acesso e ao acolhimento, considerando-os como elementos que compõem o modelo assistencial, no contexto da municipalização da saúde. Tem por objetivo caracterizar a forma como vem ocorrendo o acesso dos usuários ao atendimento e o acolhimento a eles dispensado. Trata-se de estudo descritivo, de abordagem qualitativa. A coleta de dados foi realizada através das técnicas de entrevista semi-estruturada e observação participante, no período de 13 de janeiro a 17 de abril de 2000. Os dados foram analisados através da análise de conteúdo, do tipo temática (Bardin, 1995). As categorias encontradas apontam para diversas facilidades e dificuldades quanto ao acesso dos usuários, do ponto de vista geográfico, econômico e funcional, bem como quanto ao acolhimento, no que diz respeito à forma de abordagem do usuário pelos trabalhadores em saúde. Nos resultados encontrados foi evidenciado o predomínio de aspectos relativos ao acesso, principalmente quanto ao acesso funcional. Com relação ao acolhimento, o modo de organização do serviço e a competência profissional determinaram facilidades quanto à forma de abordagem e conseqüente satisfação dos usuários. Algumas dificuldades identificadas devem-se à má recepção e ao desempenho profissional insatisfatório. Concluiu-se que se faz necessária a implementação de medidas gerenciais que auxiliem na resolução dos problemas encontrados na unidade estudada e na rede assistencial. Entre essas medidas destacam-se a necessidade de aumento do quadro de profissionais, a implantação de modalidade complementar de atendimento odontológico, a antecipação de horário de abertura do prédio para a marcação de consultas, a facilitação de acesso às consultas e exames especializados, a utilização efetiva do critério de moradia do usuário para priorização de atendimento (territorialização) e a ampliação da capacitação de recursos humanos no que diz respeito ao acolhimento.
Resumo:
Estruturas de informações organizadas hierarquicamente estão presentes em muitas áreas. Pode-se citar como exemplos diagramas organizacionais, árvores genealógicas, manuais, estruturas de diretórios, catálogos de bibliotecas, etc. Na última década, várias técnicas têm sido desenvolvidas a fim de permitir a navegação em espaços de informações organizados dessa forma. Essas técnicas buscam proporcionar uma melhor percepção de alguns atributos ou fornecer mecanismos de interação adicionais que vão além da tradicional navegação com barras de rolagem ou câmeras 3D em visualização bi e tridimensional, respectivamente. Dentre as várias alternativas de representação utilizadas nas diversas técnicas para dados hierárquicos destacam-se dois grandes grupos: as que utilizam a abordagem de preenchimento do espaço e as baseadas em diagramas de nodos e arestas. Na primeira o espaço disponível para a representação da estrutura é subdividido recursivamente, de forma que cada subárea representa um nodo da hierarquia. Na segunda, os nodos são representados por figuras geométricas e os relacionamentos, por linhas. Outro critério utilizado para classificá-las é a estratégia que cada uma aplica para exibir os detalhes presentes na estrutura. Algumas técnicas utilizam o método Foco+Contexto de modo a fornecer uma representação visual inteira do espaço de informações, bem como uma visão detalhada de itens selecionados na mesma área de exibição. Outras utilizam a abordagem Visão Geral+Detalhe que possui a característica de exibir essas duas partes (conjunto total e subconjunto de interesse) em áreas separadas. O objetivo do presente trabalho é investigar a integração dessas duas abordagens a partir da proposta da técnica Bifocal Tree. Esta estrutura utiliza um diagrama de nodos e arestas e incorpora os conceitos existentes na abordagem Foco+Contexto guardando, porém uma divisão mais perceptível da visão de contexto e de detalhe. Ela introduz o uso de um segundo foco proporcionando duas áreas de visualização onde são exibidos dois sub-diagramas conectados entre si. Um corresponde à subárvore que contém o trecho da estrutura de interesse do usuário, enquanto o outro representa o contexto da hierarquia visualizada. Possui ainda alguns mecanismos de interação a fim de facilitar a navegação e a obtenção das informações exibidas na estrutura. Experimentos baseados em tarefas realizadas por usuários com a Bifocal Tree, o Microsoft Windows Explorer e o browser MagniFind foram utilizados para a avaliação da técnica demonstrando suas vantagens em algumas situações.
Resumo:
Este trabalho investigou o efeito da Angiotensina II central na redução das concentrações de prolactina em ratas lactantes em resposta ao estresse e a influência dos esteróides gonadais nesse mecanismo. Ratas Wistar lactantes foram divididas em 2 grupos: fêmeas no 7° e 20° dias de lactação. Os grupos do 7° dia foram divididos em 4 subgrupos cada: A) fêmeas que não sofreram microinjeção no ARC e sem estresse; B) fêmeas sem microinjeção no arqueado e submetidas ao estresse; C) fêmeas submetidas à microinjeção de losartan no arqueado e ao estresse; D) fêmeas submetidas à microinjeção de solução salina no arqueado e ao estresse. Os grupos do 20° dia foram divididos em 3 subgrupos cada: A) fêmeas que não sofreram microinjeção no arqueado e sem estresse; B) fêmeas sem microinjeção no arqueado e submetidas ao estresse; C) fêmeas submetidas à microinjeção de losartan no arqueado e ao estresse. As microinjeções de losartan (0,2 µl, 10-9 M) e salina (0,2 µl) foram realizadas 3 dias após a canulação do arqueado e 15 minutos antes do estresse (vapores de éter por 1 minuto); 5 minutos após o estresse, os animais foram decapitados, o sangue coletado e o plasma foi utilizado para dosagem por radioimunoensaio de prolactina, progesterona e estradiol. Os resultados foram analisados pelo teste de variância ANOVA de uma via, seguido pelo teste de Newman-Keuls. A diferença entre duas médias foi testada pelo teste t de Student, com p<0,05 adotado como critério de significância. Ocorreu uma redução significativa nas concentrações basais de prolactina e progesterona em fêmeas no 20° em comparação ao 7° dia de lactação, enquanto que as concentrações basais de estradiol permaneceram inalteradas. O estresse agudo induziu uma redução nas concentrações de PRL em fêmeas no 7° e 20° dias, que foi impedida pela microinjeção de losartan no arqueado no 7° dia pós-parto. No 20° dia, contudo, o losartan falhou em impedir essa queda. Esses resultados demonstram que a Angiotensina II central possui efeito modulador na queda da secreção de prolactina em resposta a estresse agudo em ratas lactantes no 7° dia pós-parto, cujas concentrações de prolactina são elevadas; entretanto, isso parece não ser observado em ratas lactantes no 20° dia, cujas concentrações de prolactina e progesterona já estão significantemente reduzidas, indicando que esse efeito é dependente de progesterona e das concentrações de prolactina pré-estresse.
Resumo:
o setor de manutenção, em geral, é visto como uma das áreas mais propícias à implementação de melhorias na qualidade da gestão e dos serviços. Nesse campo, a Manutenção Centrada em Confiabilidade (MCC) tem apresentado bons resultados. A MCC é uma metodologia que permite determinar racionalmente o que deve ser feito para assegurar que um equipamento continue a cumprir suas funções em seu contexto operacional, determinando tarefas de manutenção, necessárias para manter o sistema funcionando, ao invés de restaurar o equipamento a uma condição ideal. A metodologia de implementação da MCC descrita neste trabalho contempla as seguintes etapas: (i) preparação do estudo; (ii) seleção do sistema e subsistemas funcionais; (iii) análise das funções e falhas funcionais; (iv) seleção dos itens críticos do subsistema; (v) coleta e análise de informações; (vi) análise de modos de falha e efeitos; (vii) seleção das tarefas de manutenção preventiva; e (viii) elaboração do plano de manutenção. o objetivo deste trabalho é consolidar as definições e etapas para implementação da MCC no setor de preparação de polpa da fábrica de pasta químico-mecânica (FPQM) da Celulose Irani S.A. Inicialmente, foi feita uma abordagem sobre os métodos de manutenção, discorrendo em específico sobre aqueles voltados à MCC. Em seguida, são apresentadas as definições, as principais ferramentas utilizadas pela MCC e a sistemática de implementação da MCC na visão de vários autores. Posteriormente, foi realizado um estudo de caso em que foram determinadas as tarefas de manutenção para manter as funções dos itens fisicos da FPQM. Nas etapas de implementação, são geradas informações sobre os subsistemas e são determinadas as funções, as falhas funcionais, os modos de falha, a causa e o efeito da falha e se faz a descrição do realizado em cada etapa, esclarecendo e ampliando a compreensão do leitor, diante da MCC. Os resultados obtidos demonstram que a metodologia da MCC é um processo contínuo e sua aplicação deve ser reavaliada conforme a experiência operacional for acumulada, e que, apesar da ausência de informações históricas sobre falhas de itens fisicos, a MCC permite definir planos de manutenção e aprimorar o conhecimento acerca do sistema em estudo.
Resumo:
O comportamento de calcários gaúchos, como dessulfurantes, foi avaliado levando-se em consideração a influência das características estruturais dos calcinados e de seus precursores. Os materiais, na faixa granulométrica de 53-62µm, foram calcinados em uma termobalança em atmosfera de N2 (100%) ou de mistura N2 (85,2%) + CO2 (14,8%) e posteriormente, submetidos a mistura oxidante contendo dióxido de enxofre. As distribuições de tamanhos de poros (DTP) dos calcinados, mostraram-se dependentes da atmosfera de calcinação e do raio de grão do calcário precursor. A ordem de reatividade, estabelecida pelos calcinados estudados neste trabalho, não apresentou relação com a consideração de uma DTP ótima (maioria de poros acima de 50Å), não sendo portanto este critério válido para seleção de dessulfurantes. Para os calcinados de uma mesma amostra, obteve-se uma relação direta entre tamanho de grão do CaO (área superficial) e reatividade, sendo as trajetórias de reação definidas de maneira combinada entre as suas distribuições de tamanhos de poros e a forma como os poros estão localizados e conectados na estrutura. Entre materiais diferentes, calcinados sob as mesmas condições e que apresentam as mesmas características físicas e de distribuição, as trajetórias de reação foram bastante distintas, demonstrando que essas semelhanças físicas não correspondem a uma mesma capacidade de reação ao longo do tempo. Isto salientou uma possível influência das características intrínsecas de cada material, relacionadas à localização e conexão dos poros na estrutura, em sua capacidade dessulfurante. Entre os calcinados com semelhanças em suas DTP e propriedades físicas, tornou-se possível relacionar a ordem de reatividade ao raio de grão do calcário precursor (determinante da localização e da forma de conexão dos poros na estrutura), sendo os calcinados de precursores de menor raio de grão os mais reativos.
Resumo:
Este trabalho visa abordar um aspecto importante em um sistema de gestão empresarial - a mensuração dos custos relacionados à qualidade e a proposição de melhorias a partir da análise destes custos. Um dos obstáculos mais importantes para o estabelecimento e consolidação de programas de qualidade nas empresas é a idéia errônea de que alta qualidade implica, necessariamente, em alto custo. Na maioria das vezes, as organizações não possuem indicadores que mensurem tais custos, tomando decisões equivocadas em relação ao nível de qualidade a ser praticado em seus produtos ou serviços. Em diversos contextos, prevalece a ênfase no retomo imediato, sem se considerar os custos com perdas pela não-qualidade. Esta dissertação busca identificar e analisar os custos diretos relacionados à qualidade nas suas quatro grandes categorias. As primeiras duas categorias incluem os custos que aparecem quando a função qualidade falha (custos da não-qualidade). São os chamados custos de falhas internas e custos de falhas externas, de acordo com a situação do produto no instante da falha, se dentro da empresa ou após ter sido vendido aos clientes. As duas últimas categorias incluem os custos da função qualidade (ou custos da qualidade propriamente dita), divididos em custos de prevenção, englobando tudo o que é feito para prevenir defeitos, e custos de avaliação, que reúnem os esforços despendidos para remover do processo os produtos defeituosos. Para garantir a sua sobrevivência no mercado, empresas devem estar preparadas para medir seus custos de qualidade e de não-qualidade, visualizando oportunidades de redução de custos e tomada de ações para a melhoria contínua do ambiente produtivo, justificando assim o investimento em qualidade Apoiando-se numa sistemática estruturada,o trabalho faz a identificação e análise dos custos diretos relacionados à qualidade. Um estudo prático, realizado em uma indústria de balas no estado do Rio Grande do Sul, demonstra a importância estratégica e econômica da identificação, análise e gerenciamento desses custos, propondo melhorias decorrentes da análise das causas dos principais valores levantados, destacando ainda as melhorias propostas a partir desta análise na empresa em estudo. O estudo identificou que a principal categoria de custos relacionados à qualidade refere-se à categoria de custos das falhas internas que correspondem,em média, à 12% do faturamento da empresa. Além disso, o impacto na redução dos custos da não-qualidade ultrapassa o lucro líquido da empresa.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.
Resumo:
Visando consolidar uma estratégia de produção, junto a uma empresa do ramo metalmecânico de Caxias do Sul, este trabalho implanta e analisa através de uma pesquisa-ação a utilização de um método de formulação de estratégia de produção seguindo a orientação de GAP ou lacuna. O trabalho foi desenvolvido no setor de forjaria e buscou a melhoria dos critérios competitivos junto aos seus clientes. Após descrever o processo de implantação desse método e avaliar seus resultados, é traçado um plano de ação a ser aplicado, evidenciando seus resultados. Como resultados pode-se citar que qualidade como critério competitivo não depende apenas dos sistemas de garantia mas também de uma abordagem mais próxima da área de recursos humanos.
Resumo:
Introdução: Estudos sobre implicações clínicas da nova definição de infarto do miocárdio (IAM), incorporando novos marcadores de lesão miocárdica, são escassos na literatura. A prevalência de IAM e das suas complicações são diretamente dependentes do critério diagnóstico utilizado. Objetivo: Avaliar o impacto diagnóstico, prognóstico e econômico da nova definição de IAM proposta pela AHA/ ESC usando troponina T (TnT) como marcador de lesão cardíaca. Métodos: Um total de 740 pacientes com dor torácica admitidos na Emergência do Hospital de Clínicas de Porto Alegre no período de julho/ 1999 a janeiro/ 2002 foram incluídos no estudo. Creatina quinase total (CK), CK-MB atividade e TnT foram dosados em uma amostra de 363 pacientes, representativa de toda a coorte. Para redefinição de IAM foram utilizados como ponto de corte valores pico de TnT > 0,2 mg/dl. Os desfechos avaliados foram classificados como eventos cardíacos maiores (angina recorrente, insuficiência cardíaca congestiva, choque cardiogênico e óbito) e como procedimentos de revascularização. Também foram avaliados o manejo prescrito, os custos e o faturamento hospitalar. Resultados: Nos 363 pacientes com marcadores dosados, foram diagnosticados 59 casos de IAM (16%) pelos critérios clássicos; enquanto 40 pacientes (11%) tiveram o diagnóstico de IAM pelo critério redefinido, o que corresponde a um incremento de 71% na incidência. Pacientes com IAM redefinido eram significativamente mais idosos e do sexo masculino, apresentaram mais dor atípica e diabetes mellitus. Na análise multivariada, pacientes com infarto redefinido tiveram um risco 5,1 [IC 95% 1,0-28] vezes maior para óbito hospitalar e 3,4 [IC 95% 1,1-10] vezes maior para eventos combinados em relação aqueles sem IAM. O manejo dos casos de IAM redefinido foi semelhante ao manejo daqueles com IAM tradicional, exceto pelos procedimentos de revascularização que foram menos freqüentes (25% vs. 51%, P < 0,001). O grupo com IAM redefinido permaneceu mais tempo internado e foi submetido a procedimentos mais tardiamente. Do ponto de vista institucional, o uso dos novos critérios para IAM poderia resultar em um aumento de 9% (mais R$ 2.756,00 por grupo de 100 pacientes avaliados) no faturamento baseado em diagnóstico segundo a tabela do SUS. Conclusões: O novo diagnóstico de IAM acrescenta um número expressivo de indivíduos com infarto aos serviços de emergência. A incorporação deste critério é importante na medida que estes pacientes têm um prognóstico semelhante aos demais casos tradicionalmente diagnosticados. Como a identificação destes casos poderia resultar em um manejo mais qualificado e eficiente destes pacientes, esforços deveriam ser adotados para reforçar a adoção da redefinição de IAM.
Resumo:
O objetivo do presente trabalho é construir recursos operatórios de leitura que permitam articular, desde um ponto de vista epistemológico, lingüística e psicanálise. Esta temática surge de uma problemática de pesquisa atual, relativa à crescente demanda, endereçada a lingüística, por diferentes práticas clínicas nas quais a linguagem está implicada. Neste sentido, procura-se relacionar um paradigma de linguagem com uma teoria da subjetividade apropriada tanto à reflexão clínica quanto à reflexão epistemológica. Desta forma, esta dissertação opta por um estudo teórico, visando a construção de operadores conceituais que possibilitem a articulação entre a psicanálise lacaniana e as teorias da linguagem de Saussure, Jakobson e Benveniste, utilizando como corpus de análise essas próprias teorias lingüísticas e psicanalíticas. Portanto, seu procedimento analítico pode ser qualificado como metateórico. Quatro critérios são utilizados para a seleção dos autores: 1°) as três teorias são, cada uma a seu modo, estruturalistas – isso significa que a estrutura é o conceito operador que permite pensar as proposições que estão na base de cada teoria (seus axiomas); 2°) as três teorias estabelecem proposições sobre o objeto língua – isso requer perguntar quais axiomas sobre a língua cada teoria teve que construir para dar conta da estrutura. Desses dois critérios deriva-se um terceiro; 3°) as três teorias conformam três “sistemas de linguagem” que não dissolvem o “objeto língua” para se constituírem em sua especificidade (diluindo-a em objetos de outros domínios teóricos, exteriores ao campo da linguagem – ou da lingüística – propriamente dito, tais como, por exemplo, a biologia, a psicologia, a sociologia). Cada sistema é representado por um nome próprio : I – Sistema de Linguagem elaborado por Saussure; II – Sistema de Linguagem tratado por Jakobson; III – Sistema de Linguagem concebido por Benveniste. Como critério de fechamento, temos que : 4°) as três teorias interessam de perto ao Sistema de Linguagem da psicanálise lacaniana. A relação entre tais teorias deverá servir de suporte de leitura à interlocução estabelecida no campo interdisciplinar sobre a presença da linguagem nas diferentes clínicas, assim como revitalizar os campos conceituais tanto da lingüística quanto da psicanálise.