1000 resultados para Previsão
Resumo:
Neste trabalho foram avaliadas as propriedades de resistência e deformabilidade de misturas solo-cimento-fibra. O estudo experimental consistiu de duas etapas, denominadas de etapa de laboratório e etapa de campo. Na etapa de laboratório foi verificada a influência da adição de fibras de polipropileno no comportamento tensão x deformação de um solo arenoso cimentado e não cimentado. Ensaios de resistência à compressão triaxial foram realizados para avaliar os efeitos da porcentagem de fibras, do comprimento das fibras, do diâmetro das fibras, da porcentagem de cimento, da densidade relativa, da tensão de confinamento e da distribuição granulométrica no comportamento do compósito. Na etapa de campo, o comportamento carga x recalque do solo arenoso cimentado reforçado com fibras foi avaliado, juntamente com os mecanismos de ruptura de cada compósito, através da execução de ensaios de placa de 0,30 m e 0,60 m de diâmetro sobre camadas tratadas de 0,30 m de espessura. Os métodos propostos por Vesic (1975), Meyerhof & Hanna (1978) e Thomé (1999) foram utilizados para a previsão da capacidade de suporte das camadas tratadas em campo A partir dos resultados obtidos chegou-se às seguintes conclusões: (1) a influência da inclusão de fibras sobre as propriedades mecânicas do compósito depende fundamentalmente das propriedades da matriz; (2) a porcentagem de cimento e a tensão de confinamento exercem forte influência no comportamento mecânico do material compósito; (3) o efeito da inclusão de fibras é mais evidente para maiores comprimentos e maiores teores de fibras, sendo seu efeito mais pronunciado para materiais compósitos com maiores densidades; (4) a influência das fibras na resistência de pico e última do material depende também do diâmetro das fibras e da distribuição granulométrica do solo; (5) O comportamento carga x recalque do solo cimentado é influenciado pela adição das fibras, alterando principalmente o comportamento pós-pico e o mecanismo de ruptura; (6) os valores de previsão da capacidade de suporte das camadas cimentadas, com e sem reforço de fibras, apresentam boa aproximação com os valores experimentais.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Em 1995, o Estado do Paraná escolheu o software Lotus Notes como solução de correio eletrônico distribuído e automação de escritórios para suas estruturas organizacionais. Após 5 anos do início do processo de sua implantação, a previsão inicial de 3.600 licenças de uso dessa tecnologia groupware já foi amplamente superada. Existem atualmente mais de 9.000 usuários do Lotus Notes, distribuídos em praticamente todos os níveis da administração pública. Essa dissertação é o primeiro estudo formal realizado para avaliar os impactos organizacionais e sociais produzidos pela utilização de tecnologias de informação colaborativas na administração pública do Paraná. Os capítulos que fazem parte dessa dissertação focalizam em tecnologias de informação colaborativas, com ênfase no Lotus Notes e a sua utilização na administração pública. Inicialmente são introduzidos conceitos básicos sobre Groupware e CSCW (Computer-Supported Cooperative Work), em seguida é apresentado o Lotus Notes, com um breve histórico de sua criação e uma visão resumida de pesquisas acadêmicas sobre implementações dessa tecnologia. Na seqüência, o ambiente de informática da administração pública do Estado do Paraná e a questão da seleção de uma plataforma tecnológica para resolver o problema de comunicação nesse ambiente são descritos, assim como o processo de implantação do Lotus Notes no Estado. A parte principal desse trabalho é apresentada em seguida: uma ampla pesquisa realizada nos órgãos da administração pública sobre a utilização do Lotus Notes, operacionalizada através de questionários virtuais e entrevistas. O modelo referencial utilizado na pesquisa é mostrado, assim como seu embasamento conceitual e as variáveis consideradas nas questões. Na conclusão são comentados os principais resultados do trabalho realizado, as contribuições e benefícios de sua realização, assim como sugestões de continuidade para futuras pesquisas sobre o assunto.
Resumo:
O mercado financeiro nacional vem experimentando mudanças significativas a partir da implantação do novo padrão monetário em 1994. Como conseqüência, os ganhos do sistema bancário, decorrentes do floating foram reduzidos, obrigando os bancos a expandirem suas carteiras de empréstimos que demandam esforços em medir e administrar o risco de crédito. Valendo-se de indicadores econômicofinanceiros e variáveis, o presente estudo visa avaliar a eficácia desses indicadores e variáveis utilizados por uma instituição financeira nacional no processo de concessão de crédito a empresas do setor industrial da região sul do Brasil. A metodologia do estudo propõe inicialmente uma análise estatística dos dados através da Análise da Regressão Logística, procedimentos – enter e stepwise. Concluído o teste de um modelo de previsão de insolvência empresarial, verifica-se quais são os indicadores e variáveis mais significativos e que proporcionam informações valiosas sobre a saúde financeira das empresas, revelando uma possível tendência ao desequilíbrio e a probabilidade à insolvência, levando-se em conta também como informação no gerenciamento do risco de crédito. O estudo mostrou que as variáveis que relacionam a liquidez seca e o saldo de tesouraria / necessidade de capital de giro apresentaram-se como os mais significativos dos sintomas de insolvência.
Resumo:
É consenso mundial a importância de estudos sobre a penetração de cloretos nos concretos, devido ao caráter deletério destes íons quanto à corrosão das armaduras. Quando os íons cloretos ingressam no concreto em quantidade suficiente causam a despassivação e a corrosão das armaduras, conduzindo à diminuição da vida útil das estruturas. Os cloretos podem ser introduzidos no concreto de várias maneiras: como aditivo, pela contaminação da água ou da areia, ou podem ingressar provindos do meio externo. Os cloretos potencialmente agressivos geralmente penetram na estrutura dissolvidos em água, através dos mecanismos de penetração de água e transporte de íons, sendo um dos mecanismos que ocorrem com maior freqüência a difusão. Este mecanismo de penetração de íons cloretos nas estruturas de concreto armado é influenciado pela relação água/aglomerante, o tipo de cimento, a presença de adições, a cura, o tempo, a temperatura de exposição, dentre outros, e seus valores ainda podem ser utilizados em modelos matemáticos para previsão de vida útil. Assim, este trabalho objetiva avaliar o coeficiente de difusão de cloretos em concretos confeccionados com dois tipos diferentes de cimento (CP II F e CP IV), cinco distintas relações água/cimento (0,28, 0,35, 0,45, 0,60 e 0,75), cinco temperaturas de cura (5, 15, 25, 30 e 40°C) e cinco diferentes idades (7, 14, 28, 63 e 91 dias). Paralelamente foram realizados ensaios de resistência à compressão axial e penetração acelerada de cloretos. A metodologia utilizada permitiu avaliar e medir os coeficientes de difusão de cloretos nos concretos confeccionados, tendo sido observados que os coeficientes diminuem com a elevação da temperatura de cura e da idade, com o uso do cimento CP IV e com a redução da relação água/cimento.
Resumo:
A erodibilidade, particularizada como a susceptibilidade a erosão hídrica por fluxo superficial concentrado, é uma das propriedades de comportamento dos solos de maior complexidade pelo grande número de variáveis intervenientes. Estudada por diferentes áreas do conhecimento (Agronomia, Hidráulica, Geologia de Engenharia e Engenharia Geotécnica), tem no meio geotécnico a maior lacuna na sua quantificação e entendimento dos mecanismos envolvidos. O presente trabalho apresenta um estudo sobre a erodibilidade de solos residuais tropicais e subtropicais não saturados a partir de quatro perfis representativos dos processos erosivos e solos envolvidos na Região Metropolitana de Porto Alegre. Os solos dos principais horizontes de cada um destes perfis foram caracterizados física, química e mineralogicamente. As propriedades de resistência ao cisalhamento e colapsibilidade foram avaliadas por ensaios de cisalhamento direto convencionais e com controle de sucção e por ensaios de colapsibilidade em oedômetros, respectivamente. A erodibilidade foi avaliada em laboratório, diretamente por meio de ensaios de Inderbitzen e indiretamente por diferentes critérios e parâmetros baseados em outras características físicas e propriedades dos solos. A análise conjunta do comportamento dos solos em campo frente a erosão, da avaliação direta e indireta da erodibilidade e das propriedades geomecânicas investigadas conduziram à formulação de uma proposta de abordagem geotécnica para a erodibilidade dos solos residuais tropicais e subtropicais não saturados. Nesta proposta destaca–se a avaliação direta da erodibilidade por ensaios de Inderbitzen e a indicação de solos potencialmente erodíveis baseada no teor de finos, na plasticidade, no parâmetro K da USLE, na Razão de Dispersão de Middleton, na classificação e critério de erodibilidade MCT e na variação da coesão com a saturação pelo parâmetro variação de coesão (Δc) proposto. A proposta de abordagem geotécnica para a previsão da erodibilidade dos solos visa dotar o engenheiro geotécnico de uma ferramenta destinada à avaliação do potencial erosivo dos terrenos antes de uma iniciativa de ocupação urbana ou implantação de qualquer outra obra de engenharia. Esta avaliação é o passo inicial no direcionamento de medidas preventivas e que visem minimizar o impacto da obra ao meio físico natural, no que se refere a erosão hídrica por fluxo superficial concentrado.
Resumo:
A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.
Resumo:
Um dos principais desafios para o século XXI é o uso sustentável dos recursos hídricos. A agricultura é a maior usuária desse recurso, sendo responsável por aproximadamente 70% dos gastos globais de água. Para o uso racional da água é necessário o conhecimento das propriedades hidráulicas do solo na condição de não-saturação. A simulação do movimento da água no solo através da modelagem é uma ferramenta importante no entendimento do sistema solo-água-planta, pois permite a previsão e estudo do comportamento da redistribuição da água no solo de maneira eficiente. Porém a forte dependência entre os parâmetros hidráulicos do solo (teor de água, potencial matricial e condutividade hidráulica) fazem da modelagem um assunto complicado, necessitando de modelos numéricos que utilizem intervalos discretos de tempo e espaço. Esses intervalos devem ser suficientemente pequenos para que dentro de um intervalo as variações dos parâmetros hidráulicos sejam insignificantes. Nesta tese é proposto um algoritmo para a descrição do movimento vertical da água no solo, definindo o intervalo de tempo como função de uma variação máxima admissível do teor de água. O algoritmo foi testado para alguns conjuntos de dados hidráulicos de solos, utilizando as condições de contorno de um experimento de perfil instantâneo. A eficiência do algoritmo foi verificada em situações práticas, como na previsão do teor de água na Capacidade de Campo e na predição do tempo para ser atingida determinada condição de umidade no solo. Utilizando o algoritmo, também foram estudados o comportamento da retenção e dos parâmetros de condutividade em relação aos parâmetros de drenagem. Concluiu-se que o algoritmo descreve adequadamente o processo de redistribuição de água no solo utilizando intervalos suficientemente pequenos de tempo e espaço; a forma de discretização do tempo não comprometeu a acurácia das medidas; a previsão do teor de água na Capacidade de Campo e do tempo para ser atingida determinada condição de umidade no solo foram satisfatórias; e o algoritmo permite o estudo das relações entre os parâmetros hidráulicos do solo.
Resumo:
A busca da melhoria de produtos siderúrgicos leva uma atenção especial para a área da aciaria. Neste trabalho foram estudados os fatores que dificultam o controle da temperatura do aço líquido dentro das faixas objetivadas para o lingotamento contínuo. Esse descontrole tende a afetar negativamente a qualidade do aço. A exigência crescente é pelo controle em faixas cada vez mais restritas, necessitando para tal, um controle rígido da temperatura nas etapas do refino secundário que antecedem o lingotamento. Este trabalho buscou identificar as causas do descontrole de temperaturas mediante a observação “in loco” do processo da aciaria e propor soluções tecnológicas específicas, visto que cada aciaria tem as suas peculiaridades. Para tanto, desenvolveu-se um método para garantir a qualidade das informações do processo e a utilização dessas na previsão das perdas térmicas do aço líquido durante a etapa de desgaseificação e lingotamento contínuo. Um modelo matemático das panelas, desenvolvido e calibrado com dados obtidos na planta, é apresentado como uma solução para a estabilização das perdas térmicas que ocorrem para os refratários das panelas. Por fim, um sistema de aquecimento das válvulas submersas do distribuidor do lingotamento contínuo é proposto, ensaiado e aprovado com ótimos resultados. Todas as soluções encontradas estão sendo diretamente implementadas na aciaria.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
Esta dissertação introduz uma abordagem para a previsão de vendas de empresas no contexto do desenvolvimento de novos produtos. Supõe-se que o método proposto dê sustentação ao processo decisório relativo às primeiras fases do desenvolvimento desses produtos. Também visa alcançar algum nível de compreensão relativamente à influência de fatores externos e internos nos níveis de vendas. Basicamente este método compreende três etapas próprias: análise do ambiente externo e interno à companhia, modelagem do comportamento de demanda (potencial de mercado, vendas da empresa, faturamento do segmento de mercado da empresa) e suas respectivas projeções no tempo. Esta abordagem foi aplicada a uma situação específica de desenvolvimento de um novo produto em uma empresa de médio porte que opera como fabricante de brinquedos. É esperado que empresas de pequeno e médio portes que enfrentem restrições de orçamento possam achar esta abordagem praticável - desde que as informações requeridas possam ser coletadas e mantidas adequadamente.
Resumo:
Muitos estudos sobre análise do risco de crédito foram feitos até recentemente, tendo como principal foco a previsão de falência. A insolvência das empresas devedoras, sem dúvida, é um grande problema para os concedentes de crédito, no entanto, a inadimplência não é um fato exclusivo do processo falimentar. Neste sentido, a presente investigação se propôs a prognosticar a ocorrência da inadimplência - aqui definida como a cobrança que está sendo realizada por via judicial - com as informações disponíveis no momento da análise de crédito, neste caso, os três últimos demonstrativos contábeis. A pesquisa foi realizada com uma amostra constituída de empresas industriais, especificamente da indústria de transformação, clientes de uma instituição financeira que receberam financiamento durante o período de 1996 a 1997, dividida entre adimplentes e inadimplentes; mediante o uso de dois métodos estatísticos de análise múltipla de dados, já consolidados em estudos desta natureza: análise discriminante linear e regressão logística; e com emprego de quocientes financeiros obtidos a partir das demonstrações contábeis. Os resultados demonstraram que há uma lacuna no que tange a análise financeira tradicional no processo de exame de crédito, que pode ser suprida com modelos quantitativos setoriais estimados com auxilio de métodos estatísticos, contribuindo para uma melhor qualidade de análise, com intuito de evitar a inadimplência, melhorando o resultado das instituições financeiras.
Resumo:
Devido a um mercado automotivo altamente competitivo e globalizado, as empresas buscam aperfeiçoar cada vez mais seus produtos, investindo em pesquisa e desenvolvimento em busca de produtos melhores, mais seguros e mais confiáveis. Dentro desse contexto, procurou-se aprofundar os estudos sobre fadiga e fadiga de contato, a fim de se obter um embasamento teórico sobre as possíveis causas de trincas e suas conseqüências, em componentes submetidos a esforços cíclicos e a temperaturas elevadas. Importante é salientar que as altas temperaturas resultam em transformações estruturais no ferro fundido. Posteriormente a esse embasamento teórico, realizou-se um caso de estudo (tambor de freio), buscando subsídios e informações sobre freios, tambores de freios e sobre materiais utilizados em sua fabricação. Sobre ele diversos tipos de análise foram realizados; análises de tensões, análises metalográficas em corpos de prova com e sem trinca e simulações da previsão da vida em fadiga, utilizando o modelo de Paris em programas matemáticos. Paralelos a esses estudos, foram realizados testes de eficiência em dinamômetro utilizando diferentes materiais. Foram utilizados componentes em Ferro Fundido Cinzento e em Ferro Fundido Vermicular a fim de se poder avaliar o comportamento dos materiais em aplicações em que se tem a fadiga de contato. Finalmente, são apresentados os resultados das análises e dos testes realizados, fazendose uma discussão acerca dos mesmos, sendo então apresentadas às conclusões e as sugestões para estudos futuros.
Resumo:
Este trabalho é um estudo aplicado da implementação e utilização do gerenciamento do crescimento da confiabilidade no setor de máquinas agrícolas na empresa John Deere Brasil SA. O uso de técnicas e softwares de confiabilidade para monitorar o desenvolvimento do projeto da colheitadeira de grãos – modelo da série 1100 – foi fundamental para determinar o momento exato de introduzir o produto no mercado. A análise das falhas dos produtos existentes, sugestões dos clientes e informações da área de suporte e serviços, serviram como base para a introdução de diversas melhorias para o novo modelo de colheitadeira. As principais atividades referentes à confiabilidade foram, a previsão da confiabilidade, testes e planejamento do crescimento da confiabilidade, modelagem do crescimento da confiabilidade e a análise dos dados obtidos com os testes de campo. O objetivo da implementação das ferramentas do gerenciamento do crescimento da confiabilidade foi administrar as informações dos eventos de testes de campo, para que as falhas verificadas durante o período de testes fossem reprojetadas e as ações corretivas implementadas e verificadas suas melhorias.