998 resultados para Falhas de registos
Resumo:
Formular hipóteses a partir da observação e testá-las através da experimentação caracteriza o método baconiano; a formulação inicial explicitamente era fruto de um insight intuitivo, que Francis Bacon denominou indução. A objetividade está no início do processo do conhecimento, basta o cientista deixar os fatos falarem por si enquanto lê o livro aberto da natureza. Uma forma mais sofisticada de indutivismo faz distinção entre contexto da descoberta e contexto da justificação para separar a questão de como as teorias científicas são desenvolvidadas da questão de como testá-las contra suas rivais. Karl Popper, discordando desta atitude, vai atribuir o primeiro ao acaso e para o segundo assumirá uma epistemologia evolucionista. Popper, não acreditando na possibilidade da existência de um critério de verdade, propõe um critério de falsificabilidade. O conhecimento não se daria por generalizações a partir da experiência, mas pela elaboração de conjeturas de alto conteúdo empírico que seriam submetidas à lógica dedutiva (baseado no modus tolles) e experimentação. Popper, por influência humeana, nega qualquer papel da indução na aquisição do conhecimento, que não partiria de percepções, de observações nem do acúmulo de dados ou fatos, mas sim de problemas. Na ausência de critério conclusivo de verdade empírica, só nos resta aprender com nossos erros. O progresso do conhecimento adviria da refutação de uma hipótese e da procura de outra com maior conteúdo explicativo e que pudesse evitar ao menos algumas das falhas da hipótese anterior. Este seria o critério de progresso científico. O problema do falsificacionismo de Popper é que o cientista não persegue teorias para provar que são falsas, mas teorias que procura demonstrar verdadeiras. Popper nos diz qual seria o ideal da ciência, mas não de como ela é praticada. Tomados isoladamente, tanto o indutivismo como o método hipotético-dedutivo são simplistas e ingênuos. O primeiro é cego, não direciona a experimentação pela hipótese teórica. O segundo tem direcionamento teórico, mas não dá conta da geração da hipótese. Como ambos estão do mesmo lado na descrição da relação do experimento e da teoria, isto torna frutífera a interação destas duas vias. É tematizada a teoria dos germes e a descoberta da penicilina como exemplo desta abordagem em biologia.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
Esta dissertação apresenta uma metodologia de retroalimentação do ciclo de desenvolvimento de produtos, com ênfase na fase de projeto, a partir de dados obtidos em estudos de confiabilidade. A metodologia é proposta com base no escopo da norma QS-9000, norma esta que vem sendo utilizada por fornecedores e sub-fornecedores da indústria automobilística no mundo inteiro. Um estudo de caso permitiu que a metodologia fosse implementada em uma empresa certificada na norma. São aplicadas retroalimentações em ferramentas como Desdobramento da Função Qualidade (QFD), Análise dos Modos e Efeitos de Falha de Produto (DFMEA) e de Processo (PFMEA). Os resultados obtidos demonstraram que a metodologia de retroalimentação proposta é uma ferramenta útil na maturação de um produto, através da utilização dos dados de falhas em campo, bem como no momento do desenvolvimento de um produto novo, que irá suceder o atual, através da utilização da voz do cliente e dos dados de falha em campo de forma ordenada.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avançado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcançadas e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Durante sua utilização, tubos que operam na pirólise de substâncias orgânicas sofrem degradação estrutural resultante dos mecanismos de carburização que, em geral, levam à falha dos tubos. A carburização decorre da quantidade de carbono disponível na pirólise, que chega a formar uma camada intensa de coque no interior dos tubos. Para a retirada do coque, é introduzido vapor no intuito de queimá-lo que, adicionalmente, deixa carbono na superfície para a carburização. Este trabalho analisa os aspectos metalúrgicos envolvidos no ataque das liga Fe-Cr- Ni através da carburização, onde falhas catastróficas podem ocorrer devido às tensões térmicas geradas nas paradas de retirada do coque formado. Os tubos usados são fabricados com as ligas HP40 e HPX. Ligas ricas em cromo e níquel são utilizados; no caso do níquel a estabilização da estrutura austenítica e do cromo pela formação de uma camada protetora de óxido. No entanto, tempos prolongados de emprego da liga pode gerar quebra da barreira protetora e, então, proporcionar a difusão do carbono para o material, causando mudanças microestuturais que irão afetar as propriedades metalúrgicas Neste trabalho foram analisadas microestruturas de ligas com 25% Cr e 35% Ni que operaram por 20.000 e 37.000 horas, bem como a realização de uma série de tratamentos térmicos com ligas 25% Cr 35% Ni e 35% Cr 45% Ni sem uso, a fim de se estabelecer à relação existente entre a difusão do carbono e a microestrutura resultante. De posse destes dados, foram realizadas análises em microscopia, ensaios mecânicos, dilatometria e modelamento das tensões térmicas geradas nas paradas de decoking. Foi, também, desenvolvido uma metodologia capaz de relacionar a espessura da camada difundida de carbono com o magnetismo existente na superfície interna causada pela formação de precipitados magnéticos.
Resumo:
Devido às altas tensões envolvidas nos mecanismos de fadiga por contato, o uso de aços de alta dureza é uma exigência na fabricação de mancais de rolamento. Se a dureza de uma das partes em contato é baixa (sendo menor que 58 HRC), a ocorrência da descamação de camadas superficiais torna-se iminente no material menos duro. Estes defeitos superficiais podem, eventualmente, levar o componente a fraturar na direção radial se as tensões circunferenciais trativas forem relativamente elevadas. Os rolamentos que apresentam estes tipos de falhas são fabricados com o aço SAE 52100 temperado e revenido, com têmpera total. Recentemente tem sido sugerida a utilização do aço SAE 52100 processado por tratamento isotérmico para a obtenção de bainita inferior já que esta microestrutura apresenta boa tenacidade e resistência à fadiga associadas a uma alta dureza. Neste trabalho, foram realizados tratamentos térmicos utilizando o aço SAE 52100 a fim de obter microestruturas cujas matrizes fossem, predominantemente, martensita revenida ou bainita inferior. Para a condição martensítica, utilizou-se o tratamento térmico convencional de têmpera e revenido com três temperaturas de revenido para a obtenção de diferentes quantidades de austenita retida na matriz martensítica. Para a condição bainítica, utilizou-se o tratamento de austêmpera para a obtenção de bainita inferior com alto nível de dureza O comportamento mecânico do aço SAE 52100, tratado termicamente nas quatro condições, foi avaliado através de ensaio de tração e ensaio de impacto Charpy. O comportamento em fadiga, por sua vez, foi avaliado através de ensaios de propagação de trinca por fadiga realizados em corpos de prova tensão compacto. Para a determinação da influência da razão de carregamento (R=Kmin/Kmax) sobre o comportamento em fadiga este parâmetro foi variado entre 0,1 e 0,5. Foram realizadas análises fractográficas em todas as superfícies de fratura e de fadiga. Os resultados dos testes indicaram um melhor comportamento em fadiga para o aço SAE 52100 com microestrutura bainítica. No entanto para um R = 0,5, este material apresentou comportamento semelhante ao martensítico de mesmo nível de dureza na região limiar de fadiga. Observou-se o fenômeno de fechamento de trinca nos testes realizados com R de 0,1 e 0,3, sendo este efeito mais pronunciado para o menor valor de R.
Resumo:
O tema desta dissertação de mestrado é o estudo da Engenharia Reversa como ferramenta de suporte à melhoria e adaptação de produtos. A partir de conceitos teóricos sobre desenvolvimento de produtos e melhoria de processos, propõe-se uma metodologia para adaptação de produtos destinados à exportação. A metodologia proposta consiste de oito passos, contemplando etapas de identificação e priorização das demandas de adaptação de produtos e elencando ferramentas auxiliares no atingimento dos objetivos desejados. A etapa inicial deste trabalho consiste de uma revisão bibliográfica dividida em duas partes: (i) adaptação de produtos através da utilização da Engenharia Reversa e seus habilitadores, e (ii) ferramentas para melhoria de processos. Os tópicos contemplados em (ii) incluem ferramentas para o mapeamento de processos de manufatura e para a sua melhoria. Destaque especial é dado ao Desdobramento da Função Qualidade – QFD (Quality Function Deployment), a Análise de Modos e Efeitos de Falhas (FMEA – Failure Mode and Effect Analysis) e às Cartas de Processos. Na seqüência, apresentam-se os passos da metodologia proposta para a adaptação de produtos às demandas de mercado utilizando a Engenharia Reversa e seus habilitadores. Finalmente, os passos metodológicos são aplicados a um caso prático, cujo objetivo é a adaptação de um pincel, produzido por uma empresa gaúcha, às demandas de um distribuidor alemão de ferramentas manuais.
Resumo:
Um dos principais fatores que determinam o baixo desempenho das avaliações está relacionado à omissão de importantes atributos nos processos avaliatórios. A seleção de bens comparáveis ao imóvel avaliando e o reconhecimento das variáveis que devem participar do modelo avaliatório são fatores determinantes no resultado das avaliações. Falhas na interpretação destes aspectos, bem como o limitado conhecimento quanto à forma de interação dos atributos na formação do valor dos imóveis, tendem a gerar distorções nas estimativas de valor obtidas. Para minimizar os erros e reduzir a imprecisão dos trabalhos, é imprescindível saber quais atributos contribuem para a formação do valor dos imóveis. O presente trabalho objetiva aumentar a compreensão dos atributos que influenciam a decisão de compra dos apartamentos residenciais através da análise das preferências dos consumidores. O estudo visa verificar se parte da imprecisão dos trabalhos avaliatórios é causada pelo desconhecimento parcial destes atributos por parte dos avaliadores Para tanto, realizou-se uma pesquisa de caráter exploratório, cujos instrumentos de levantamento de dados são questionários, aplicados para verificar e comparar a importância atribuída a um extenso número de atributos por dois grupos distintos, formados por avaliadores de imóveis e compradores. Os resultados obtidos indicam que os atributos usualmente empregados na prática avaliatória não são, em sua grande maioria, aqueles que influenciam a decisão de compra no processo de aquisição dos imóveis. Além disso, apesar de existir coerência na interpretação dos avaliadores sobre a contribuição de uma série de atributos para a formação do valor de mercado dos imóveis, foram identificadas distorções na forma como estes profissionais percebem a importância de alguns atributos, havendo, por exemplo, uma supervalorização de aspectos relativos à localização e segurança Por outro lado, os avaliadores não distinguem a elevada influência de alguns atributos no processo de decisão de compra, tais como existência de elevador e gás central, áreas de serviço maiores e idoneidade da empresa que construiu o imóvel. Embora o trabalho não apresente resultados plenamente conclusivos neste sentido, pode-se dizer que há um forte indicativo de que o nível de imprecisão das avaliações imobiliárias possa ser reduzido através de uma maior compreensão das preferências dos consumidores.