69 resultados para Matrizes (Matematica)
Resumo:
O objetivo principal deste estudo é contribuir para o entendimento das relações de suprimento estabelecidas entre as grandes empresas industriais do Brasil e seus fornecedores. A pesquisa parte do princípio que existem algumas variáveis que afetam as políticas de suprimento e procura verificar as correlações existentes entre estas variáveis e as políticas. Baseia-se em um conjunto de teorias, entre as quais, a teoria geral das organizações, a teoria dos jogos, a economia dos custos das transações, os estudos sobre a importância da confiança nas relações de negócios teoria da confiança e a teoria de compras. Através de um questionário, construído com baseado em escalas de Likert e de diferenc ial semântico, procurou-se validar um modelo de relacionamento que coloca em extremos as relações chamadas de CFD (Contratos de fornecimento discretos) e CFP (Contratos de fornecimento de parcerias). Foram remetidos questionários a 300 empresas e se obteve o retorno de 238. A amostra contém empresas de 14 estados brasileiros e 11 setores. O estudo em sua parte descritiva concluiu que existem diferenças significativas nas ações das empresas de acordo com o ramo no qual atuam. Não existem, no entanto, diferenças significativas entre os diversos estados brasileiros nos quais se situam suas matrizes, o que indica uma homogeneização de práticas em todo o território nacional, ao menos entre as grandes empresas. Foram encontradas correlações significativas entre algumas variáveis independentes e as estratégias de suprimento. Isto pode fornecer subsídios tanto para a definição de posturas para as empresas fornecedores de insumos industriais, quanto para as empresas que estão montando estratégias de suprimento e querem utilizar o estudo como “benchmark” dos seus processos em relação às maiores empresas brasileiras.
Resumo:
Este estudo aborda a relação cinema e identidade cultural através da análise do cinema chileno da década de 1990-2000, estabelecendo como foco de pesquisa os cineastas como mediadores culturais, que transitam pelos diferentes mundos e submundos do país, contribuindo para a construção e reconstrução da identidade chilena durante o período da transição democrática. Acolhendo a proposta teórico metodológica de Gilberto Velho (1999, 2001), foram estudadas as trajetórias de sete cineastas chilenos inseridos no seu contexto histórico, indo além da representação cinematográfica. A identidade chilena observada e construída pelos cineastas é um processo aberto, ressaltando a diversidade de traços identitários do país do final do século XX e início do XXI, que falam de uma multiplicidade de matrizes culturais. Coexistem, assim, o urbano, o rural, o insular, o barroco, o racionalista, o moderno e o tradicional, o culto e o popular e o massivo, registrando uma identidade híbrida que admite a valorização do local e o resgate de um imaginário próprio com referentes da memória coletiva e da memória nacional, no tempo presente com uma perspectiva do futuro.
Resumo:
A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.
Resumo:
O objetivo do presente trabalho é realizar a concepção de um sistema para a aprendizagem de demonstrações da Geometria Euclidiana Plana e a implementação de um protótipo deste sistema, denominado LEEG - Learning Environment on Euclidean Geometry, desenvolvido para validar as idéias utilizadas em sua especificação. Nos últimos anos, tem-se observado uma crescente evolução dos sistemas de ensino e aprendizagem informatizados. A preocupação com o desenvolvimento de ambientes cada vez mais eficientes, tanto do ponto de vista computacional quanto pedagógico, tem repercutido em um salto de qualidade dos software educacionais. Tais sistemas visam promover, auxiliar e motivar a aprendizagem das mais diversas áreas do conhecimento, utilizando técnicas de Inteligência Artificial para se aproximarem ao máximo do comportamento de um tutor humano que se adapte e atenda às necessidades de cada aluno. A Geometria pode ser vista sob dois aspectos principais: considerada como uma ciência que estuda as representações do plano e do espaço e considerada como uma estrutura lógica, onde a estrutura matemática é representada e tratada no mais alto nível de rigor e formalismo. Entretanto, o ensino da Geometria, nos últimos anos, abandonou quase que totalmente sua abordagem dedutiva. Demonstrações de teoremas geométricos não são mais trabalhadas na maioria das escolas brasileiras, o que repercute em um ensino falho da Matemática, que não valoriza o desenvolvimento de habilidades e competências relacionadas à experimentação, observação e percepção, realização de conjecturas, desenvolvimento de argumentações convincentes, entre outras. Levando-se em conta este cenário, desenvolveu-se o LEEG, um sistema para a aprendizagem de demonstrações geométricas que tem como objetivo auxiliar um aprendiz humano na construção de demonstrações da Geometria Euclidiana Plana. O sistema foi modelado sobre uma adaptação do protocolo de aprendizagem MOSCA, desenvolvido para suportar ambientes de ensino informatizados, cuja aprendizagem é baseada na utilização de exemplos e contra-exemplos. Este protocolo propõe um ambiente de aprendizagem composto por cinco agentes, dentre os quais um deles é o aprendiz e os demais assumem papéis distintos e específicos que completam um quadro de ensino-aprendizagem consistente. A base de conhecimento do sistema, que guarda a estrutura lógica-dedutiva de todas as demonstrações que podem ser submetidas ao Aprendiz, foi implementada através do modelo de autômatos finitos com saída. A utilização de autômatos com saída na aplicação de modelagem de demonstrações dedutivas foi extremamente útil por permitir estruturar os diferentes raciocínios que levam da hipótese à tese da proposição de forma lógica, organizada e direta. As demonstrações oferecidas pelo sistema são as mesmas desenvolvidas por Euclides e referem-se aos Fundamentos da Geometria Plana. São demonstrações que priorizam e valorizam a utilização de objetos geométricos no seu desenvolvimento, fugindo das demonstrações que apelam para a simples manipulação algébrica e que não oferecem uma construção significativa do ponto de vista da Geometria. Porém, mesmo sendo consideradas apenas as demonstrações contidas em Elements, todos os diferentes raciocínios para uma mesma demonstração são aceitos pelo sistema, dando liberdade ao aprendiz no processo de construção da demonstração.
Resumo:
O objetivo deste trabalho é apresentar o desenvolvimento de um modelo computacional, baseado no método dos elementos finitos, para o estudo de estruturas de concreto armado e protendido, sob estados planos de tensão. O modelo computacional utiliza dois procedimentos distintos, baseados em um modelo elasto-viscoplástico. No primeiro, determina-se a resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. No segundo, busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com um comportamento elastoplástico. Um modelo de camadas superpostas é adotado para melhor representar o comportamento viscoelástico do concreto e da armadura protendida, onde estes materiais são compostos de diversas camadas que sofrem a mesma deformação. Cada camada possui diferentes propriedades mecânicas e a tensão total é obtida pela soma das diferentes contribuições de cada camada. Para representar o concreto fissurado, utiliza-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. Tanto a armadura passiva quanto a armadura de protensão são introduzidas no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Desta forma, as matrizes de rigidez das armaduras têm as mesmas dimensões das matrizes de rigidez dos elementos de concreto e ambas são somadas para a obtenção das matrizes de rigidez totais. Para verificar a precisão do modelo computacional, compararam-se resultados numéricos com valores experimentais disponíveis.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho analisa o papel dos setores vinculados ao complexo agroindustrial no desenvolvimento econômico brasileiro, entre 1980 e 1998, através de seus encadeamentos sobre a produção e o emprego. Ele estuda, também, os efeitos da política agrícola do Governo brasileiro, no conjunto da economia, através dos índices de encadeamento da produção e do emprego. O ponto de partida deste estudo foram as tabelas de produção e de insumo das atividades econômicas de 1980, 1990 e 1998, fornecidas pelo IBGE. A partir dessas tabelas, foram determinadas as matrizes de relações intersetoriais do Brasil, para os anos referidos. A seguir, foram calculados os índices de encadeamento da produção e do emprego, a partir do modelo de Leontief e segundo as metodologias de Rasmussem e de Jones. O trabalho concluiu que os setores vinculados ao complexo agroindustrial continuam exercendo um importante papel no desenvolvimento econômico brasileiro, principalmente na geração de emprego, embora a política agrícola tenha se tornado desfavorável ao setor agrícola após 1990. Os impactos do complexo agroindustrial são mais importantes pelas compras do que pelas vendas, em razão da modernização do setor agropecuário, o que mostra mais uma vez que a agricultura continua sendo “o melhor cliente” do resto da economia.
Resumo:
Este trabalho analisou o comportamento hidráulico e mecânico de novos materiais geotécnicos compósitos, tentando adequar suas características à utilização em barreiras horizontais impermeáveis, dando ênfase para liners de cobertura. A melhoria das propriedades das matrizes estudadas, que resultaram em novos materiais compósitos, foi avaliada através da adição de bentonita e fibras. O estudo consistiu em duas etapas: a avaliação do comportamento hidráulico e do comportamento mecânico dos compósitos. Na primeira etapa foram realizados ensaios de condutividade hidráulica em permeâmetro de parede flexível com carga constante, em amostras compactadas de solo residual de arenito Botucatu, cinza de fundo, areia e caulim, com adições de bentonita e fibras de polipropileno de 24mm. Dentre os materiais estudados, a cinza de fundo foi a única matriz que, mesmo com a adição de 18% de bentonita, não alcançou uma condutividade hidráulica inferior a 1x10-7m/s, exigida para liners de cobertura. Além disso, com o intuito de avaliar o efeito da inclusão da bentonita e da morfologia das partículas na condutividade hidráulica das misturas, principalmente para a cinza de fundo, foi feita uma análise fotomicrográfica do material em microscópio petrográfico Na segunda etapa do trabalho foi estudado o comportamento mecânico dos compósitos através de ensaios triaxiais de compressão isotrópica, ensaios triaxiais CID e CIU com trajetórias de tensão convencionais e especiais, bem como através de ensaios ring shear. Foi verificado que a adição de fibras aumenta os parâmetros de resistência ao cisalhamento (c, φ) e a resistência ao cisalhamento pós-pico dos compósitos, principalmente a baixas tensões efetivas médias iniciais e após grandes deformações. A análise conjunta dos resultados de condutividade hidráulica e do comportamento mecânico dos compósitos indica a existência de uma grande gama de materiais compósitos que podem ser utilizados como liners de cobertura: liners de areia com bentonita e areia com bentonita e fibras; liners de SRAB e SRAB com fibras e liners de caulim e caulim com fibras, sendo que o último pode ser utilizado também para resíduos perigosos ou em liners de fundo.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
O presente trabalho trata da validação de uma metodologia de análise para a determinação de dibenzo-p-dioxinas policloradas (PCDDs) em cinzas obtidas através de um processo de incineração de aparas de couro wet-blue. As dioxinas, compostos de extrema toxicidade, podem ser formadas na superfície das partículas de cinzas em reações de combustão. O mecanismo de formação de PCDDs requer uma atmosfera rica em oxigênio, uma fonte de cloro e a presença na cinza de um metal capaz de catalizar uma reação Deacon. O couro wet-blue apresenta em sua composição os precursores para a formação de dioxinas tais como o cloro e o metal catalisador sódio, cuja presença destes elementos foi comprovada por análises de superfície realizadas no couro e nas cinzas usando as técnicas de Rutherford Back-scattering Spectrometry (RBS) e Microscopia Eletrônica de Varredura (MEV). Desta forma, torna-se necessária a análise de dioxinas em cinzas de couro para especificar seu tratamento e destino final. As cinzas de couro foram obtidas numa unidade de bancada de incineração com reator de leito fixo, processo conhecido como GCC (Gaseificação e Combustão Combinadas). A metodologia utilizada para analisar dioxinas nas cinzas de couro foi baseada no Método 8280B da Agência de Proteção Ambiental dos Estados Unidos da América (EPA-USA). Este método descreve os procedimentos de extração de matrizes específicas, o clean-up para os analitos específicos e a determinação de dioxinas através das técnicas de cromatografia gasosa de alta resolução e espectrometria de massa de baixa resolução. O sucesso da análise depende da preparação dos extratos das amostras, etapa conhecida como clean-up, a qual é descrita minuciosamente neste trabalho, incluindo a montagem das colunas cromatográficas. A eficiência de extração das dioxinas foi obtida com os resultados comparativos das análises entre matrizes contaminadas com solução padrão de dioxinas e o padrão analítico. A validação deste método para análise de dioxinas policloradas em cinzas de couro wet-blue foi considerada satisfatória para os objetivos do trabalho, uma vez que a eficiência de extração de dioxinas obtida ficou dentro dos critérios estabelecidos pelo método.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Nesta tese mostramos que uma função de custo contínua e uma tecnologia uniproduto, convexa, monôtona não-crescente e regular implicam que a função de custo mínimo é semicontínua superior em relação ao produto e que a demanda por insumos é fechada. Se a imagem da tecnologia for compacta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valorcompacto em relação ao produto. Se a função de custo for monôtona não-decrescente, semicontínua inferior em relação aos contornos inferiores e a tecnologia for uniproduto, convexa, monótona não-crescente, regular, fechada com imagem compacta então a função de custo mínimo é semicontínua inferior em relação ao produto e a demanda ampliada por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então o mesmo resultado é válido. Introduzimos as noções de função monótona não-decrescente e semicontínua inferior em relação aos contornos num espaço topológico ordenado, de correspondência localmente não-disjunta e de demanda ampliada. Mostramos que funções com a propriedade anterior são semicontínuas inferiores e que correspondências convexas localmente não-disjuntas são hemicontínuas inferiores.
Resumo:
Devido às altas tensões envolvidas nos mecanismos de fadiga por contato, o uso de aços de alta dureza é uma exigência na fabricação de mancais de rolamento. Se a dureza de uma das partes em contato é baixa (sendo menor que 58 HRC), a ocorrência da descamação de camadas superficiais torna-se iminente no material menos duro. Estes defeitos superficiais podem, eventualmente, levar o componente a fraturar na direção radial se as tensões circunferenciais trativas forem relativamente elevadas. Os rolamentos que apresentam estes tipos de falhas são fabricados com o aço SAE 52100 temperado e revenido, com têmpera total. Recentemente tem sido sugerida a utilização do aço SAE 52100 processado por tratamento isotérmico para a obtenção de bainita inferior já que esta microestrutura apresenta boa tenacidade e resistência à fadiga associadas a uma alta dureza. Neste trabalho, foram realizados tratamentos térmicos utilizando o aço SAE 52100 a fim de obter microestruturas cujas matrizes fossem, predominantemente, martensita revenida ou bainita inferior. Para a condição martensítica, utilizou-se o tratamento térmico convencional de têmpera e revenido com três temperaturas de revenido para a obtenção de diferentes quantidades de austenita retida na matriz martensítica. Para a condição bainítica, utilizou-se o tratamento de austêmpera para a obtenção de bainita inferior com alto nível de dureza O comportamento mecânico do aço SAE 52100, tratado termicamente nas quatro condições, foi avaliado através de ensaio de tração e ensaio de impacto Charpy. O comportamento em fadiga, por sua vez, foi avaliado através de ensaios de propagação de trinca por fadiga realizados em corpos de prova tensão compacto. Para a determinação da influência da razão de carregamento (R=Kmin/Kmax) sobre o comportamento em fadiga este parâmetro foi variado entre 0,1 e 0,5. Foram realizadas análises fractográficas em todas as superfícies de fratura e de fadiga. Os resultados dos testes indicaram um melhor comportamento em fadiga para o aço SAE 52100 com microestrutura bainítica. No entanto para um R = 0,5, este material apresentou comportamento semelhante ao martensítico de mesmo nível de dureza na região limiar de fadiga. Observou-se o fenômeno de fechamento de trinca nos testes realizados com R de 0,1 e 0,3, sendo este efeito mais pronunciado para o menor valor de R.
Resumo:
Uma atividade com a magnitude da avicultura, que usa equipamentos de última geração e serviços atualizados, é levada, na maioria dos casos, a tomar decisões que envolvem todos aspectos de produção, apoiada em critérios subjetivos. A presente tese objetivou estudar a utilização das redes neurais artificiais na estimação dos parâmetros de desempenho de matrizes pesadas, pertencentes a uma integração avícola sul-brasileira. Foram utilizados os registros de 11 lotes em recria, do período compreendido entre 09/11/97 a 10/01/99 e de 21 lotes em produção, do período compreendido entre 26/04/98 a 19/12/99, para a análise por redes neurais artificiais. Os dados utilizados corresponderam a 273 linhas de registros semanais, do período de recria e 689 linhas de registros semanais, do período de produção. Os modelos de redes neurais foram comparados e selecionados como melhores, baseados no coeficiente de determinação múltipla (R2), Quadrado Médio do Erro (QME), bem como pela análise de gráficos, plotando a predição da rede versus a predição menos o real (resíduo). Com esta tese foi possível explicar os parâmetros de desempenho de matrizes pesadas, através da utilização de redes neurais artificiais. A técnica permite a tomada de decisões por parte do corpo técnico, baseadas em critérios objetivos obtidos cientificamente. Além disso, este método permite simulações das conseqüências de tais decisões e fornece a percentagem de contribuição de cada variável no fenômeno em estudo.