882 resultados para Placas : Estruturas
Resumo:
Atualmente observa-se que uma grande parte das estruturas de concreto armado estão apresentando problemas relacionados à corrosão das armaduras, principalmente aquela iniciada pelos íons cloreto. Nesse sentido, muitos estudos estão sendo realizados a fim de prever o tempo necessário para que os íons cloreto atinjam a armadura, iniciando assim a propagação do processo corrosivo. Existem alguns parâmetros relacionados ao concreto e ao meio ambiente que exercem uma grande influência na penetração de íons cloreto. Entre os fatores relacionados ao concreto, verifica-se que o coeficiente de difusão de cloretos, a concentração superficial de cloretos, a relação água/cimento, a espessura de cobrimento, a presença e a quantidade de adições são alguns parâmetros que interferem na vida útil de projeto das estruturas. Já em relação às condições ambientais, os principais fatores que afetam a vida útil são a umidade relativa e a temperatura de exposição. Assim, procurou-se avaliar o efeito de tais variáveis na vida útil das estruturas, considerando as mesmas como grandezas aleatórias, apresentando um determinado valor médio e um desvio-padrão característico. Essas variáveis aleatórias foram inseridas em alguns modelos matemáticos que são empregados para a previsão da vida útil das estruturas − 2ª Lei de Fick e os modelos propostos por UJI et al. (1990) e por MEJLBRO (1996). A partir daí, realizou-se uma análise de confiabilidade a partir de um método de simulação numérica (Simulação de Monte Carlo) a fim de se determinar a probabilidade de falha no tempo para concretos feitos com diferentes tipos de cimento e adições, quando inseridos em condições ambientais distintas A fim de contribuir no processo de previsão da vida útil das estruturas quando inseridas em ambientes contendo cloretos, foi desenvolvido um modelo matemático baseado na análise em Grupos Focalizados (ou Focus Groups). Algumas das principais características do modelo proposto são a lógica empregada no seu desenvolvimento e a grande facilidade de aplicação do mesmo. O comportamento do modelo se mostrou consistente com os resultados de investigações experimentais realizadas por outros pesquisadores, onde o mesmo foi aplicado em um estudo de caso para verificar a resposta em relação à penetração de cloretos em alguns pontos de uma estrutura de concreto armado inserida em área salina.
Resumo:
Na presente tese, foi investigado o crescimento térmico de filmes dielétricos (óxido de silício e oxinitreto de silício) sobre carbeto de silício. Além disso, os efeitos da irradiação iônica do SiC antes de sua oxidação, com o intuito de acelerar a taxa de crescimento do filme de SiO2, também foram investigados. A tese foi dividida em quatro diferentes etapas. Na primeira, foram investigados os estágios iniciais da oxidação térmica do SiC: mudanças no ambiente químico dos átomos de Si foram observadas após sucessivas etapas de oxidação térmica de uma lâmina de SiC. A partir desses resultados, em conjunto com a análise composicional da primeira camada atômica da amostra, acompanhou-se a evolução do processo de oxidação nesses estágios iniciais. Na etapa seguinte, foram utilizadas as técnicas de traçagem isotópica e análise por reação nuclear com ressonância estreita na curva de seção de choque na investigação do mecanismo e etapa limitante do crescimento térmico de filmes de SiO2 sobre SiC. Nesse estudo, compararam-se os resultados obtidos de amostras de óxidos termicamente crescidos sobre Si e sobre SiC. Na terceira etapa, foram investigados os efeitos da irradiação iônica do SiC antes de sua oxidação nas características finais da estrutura formada. Finalmente, comparam-se os resultados da oxinitretação térmica de estruturas SiO2/SiC e SiO2/Si utilizando dois diferentes gases: NO e N2O.
Resumo:
Diversos estudos sugerem que os receptores inibitórios GABAérgicos do tipo A estão envolvidos no processamento da memória. Para examinar o papel dos receptores GABAA na consolidação da memória, ratos foram implantados bilateralmente com cânulas na região CA1 do hipocampo, córtex entorrinal, córtex parietal posterior e núcleo basolateral da amígdala, e treinados na tarefa de esquiva inibitória. Em diferentes tempos depois do treino, o antagonista dos receptores GABAA - bicuculina - foi infundido nas estruturas acima mencionadas. A bicuculina facilitou a memória quando infundida imediatamente após o treino (0h) no hipocampo, córtex entorrinal e córtex parietal posterior; 1,5h no hipocampo; 3h no córtex entorrinal e no córtex parietal. Nos tempos mais tardios da consolidação da memória (4,5h e 6h) não houve facilitação. A bicuculina não teve efeito na memória quando administrada na amígdala em nenhum dos tempos. Nossos dados sugerem que os receptores GABAérgicos inibem os primeiros momentos da consolidação da memória de longa duração no hipocampo, córtex entorrinal e córtex posterior, mas não nos tempos mais tardios.
Resumo:
Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.
Resumo:
Estruturas de informações organizadas hierarquicamente estão presentes em muitas áreas. Pode-se citar como exemplos diagramas organizacionais, árvores genealógicas, manuais, estruturas de diretórios, catálogos de bibliotecas, etc. Na última década, várias técnicas têm sido desenvolvidas a fim de permitir a navegação em espaços de informações organizados dessa forma. Essas técnicas buscam proporcionar uma melhor percepção de alguns atributos ou fornecer mecanismos de interação adicionais que vão além da tradicional navegação com barras de rolagem ou câmeras 3D em visualização bi e tridimensional, respectivamente. Dentre as várias alternativas de representação utilizadas nas diversas técnicas para dados hierárquicos destacam-se dois grandes grupos: as que utilizam a abordagem de preenchimento do espaço e as baseadas em diagramas de nodos e arestas. Na primeira o espaço disponível para a representação da estrutura é subdividido recursivamente, de forma que cada subárea representa um nodo da hierarquia. Na segunda, os nodos são representados por figuras geométricas e os relacionamentos, por linhas. Outro critério utilizado para classificá-las é a estratégia que cada uma aplica para exibir os detalhes presentes na estrutura. Algumas técnicas utilizam o método Foco+Contexto de modo a fornecer uma representação visual inteira do espaço de informações, bem como uma visão detalhada de itens selecionados na mesma área de exibição. Outras utilizam a abordagem Visão Geral+Detalhe que possui a característica de exibir essas duas partes (conjunto total e subconjunto de interesse) em áreas separadas. O objetivo do presente trabalho é investigar a integração dessas duas abordagens a partir da proposta da técnica Bifocal Tree. Esta estrutura utiliza um diagrama de nodos e arestas e incorpora os conceitos existentes na abordagem Foco+Contexto guardando, porém uma divisão mais perceptível da visão de contexto e de detalhe. Ela introduz o uso de um segundo foco proporcionando duas áreas de visualização onde são exibidos dois sub-diagramas conectados entre si. Um corresponde à subárvore que contém o trecho da estrutura de interesse do usuário, enquanto o outro representa o contexto da hierarquia visualizada. Possui ainda alguns mecanismos de interação a fim de facilitar a navegação e a obtenção das informações exibidas na estrutura. Experimentos baseados em tarefas realizadas por usuários com a Bifocal Tree, o Microsoft Windows Explorer e o browser MagniFind foram utilizados para a avaliação da técnica demonstrando suas vantagens em algumas situações.
Resumo:
O desprendimento de vórtices é responsável por vibrações prejudiciais a estruturas e pelo aumento de seus coeficientes de arraste. Portanto o correto entendimento e o controle do desprendimento de vórtices é de grande interesse de modo a diminuir custos de manutenção de estruturas estáticas e custos com combustíveis de estruturas móveis, por exemplo. O caráter tridimensional do desprendimento de vórtices a baixos números de Reynolds, entre 100 e 300, é aqui estudado através de Simulações Numéricas Diretas (DNS) do escoamento ao redor de cilindros circulares em duas e três dimensões. O controle do desprendimento de vórtices foi estudado nesta dissertação, através do uso de placas de separação do escoamento em simulações numéricas bidimensionais para números de Reynolds 100, 160 e 300, mostrando que para estes números de Reynolds é possível reduzir as freqüências de desprendimento, e em alguns casos até suprimi-las. A simulação tridimensional para Re = 300 mostrou um escoamento aparentemente bidimensional que afeta sensivelmente a freqüência de desprendimento quando em comparação o caso 2D. Para a realização das simulação numéricas foi utilizado um esquema compacto de diferenças finitas em associação com um método de representação virtual de obstáculos imersos em escoamentos, que permite a representação de geometrias complexas sobre uma malha cartesiana.
Resumo:
O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.
Resumo:
No intuito de validar seus projetos de sistemas integrados, o Grupo de Microeletrônica da UFRGS tem investido na inserção de estruturas de teste nos núcleos de hardware que tem desenvolvido. Um exemplo de tal tipo de sistema é a “caneta tradutora”, especificada e parcialmente desenvolvida por Denis Franco. Esta caneta se utiliza de um microcontrolador 8051 descrito em VHDL, o qual ainda carece de estruturas dedicadas com funções orientadas à testabilidade. Este trabalho exemplifica a integração de teste em um circuito eletrônico préprojetado. Neste caso específico, foi utilizado o microcontrolador 8051 fonte compatível que será inserido no contexto da caneta tradutora. O método utilizado apoiou-se na norma IEEE1149.1, destinada a definir uma infra-estrutura baseada na técnica do boundary scan para o teste de placas de circuito impresso. São apresentadas características de testabilidade desenvolvidas para o microcontrolador, utilizando-se a técnica do boundary scan em sua periferia e a técnica do scan path em seu núcleo. A inserção destas características de teste facilita a depuração e testes em nível de sistema, imaginando-se o sistema como algo maior, fazendo parte do sistema da caneta tradutora como um todo. São elaborados exemplos de testes, demonstrando a funcionalidade do circuito de teste inserido neste núcleo e a possibilidade de detecção de falhas em pontos distintos do sistema. Finalmente, avalia-se o custo associado à integração desta infra-estrutura de teste, tanto em termos de acréscimo de área em silício, quanto em termos de degradação de desempenho do sistema.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
O grande desenvolvimento da industria eletrônica, aliado ao aumento do consumo de bens pela população, gera um número cada vez maior de equipamentos defeituosos e obsoletos, entre eles as Placas de Circuito Impresso (PCI), as quais precisam ser dispostas. A sucata destas placas representa uma matéria prima interessante, pois contém metais e ligas metálicas, o que torna sua reciclagem bastante atraente. Como linha geral, as PCI possuem 49% de materiais cerâmicos, vidros e óxidos, 19% de plásticos, 4% de bromo e 28% de metais. A composição real depende da origem do circuito impresso, assim como do tipo e idade do equipamento. O uso do Processamento Mecânico na reciclagem desse resíduo é uma alternativa na recuperação dos metais presentes e também uma maneira de separar seus vários componentes, permitindo assim dispor adequadamente este resíduo. Neste trabalho as PCI passaram por várias etapas de processamento mecânico. Primeiramente foram moídas abaixo de 1mm e após foram classificadas, caracterizadas e diferentes frações foram separadas por densidade. A primeira classificação foi feita por granulometria e gerou três frações diferentes: uma menor que 0,25mm, outra entre 0,25 e 0,50mm e outra entre 0,50 e 1,0mm. Após foi feita uma separação por densidade obtendo-se uma fração rica em metais, em especial o cobre, e outra fração leve composta por polímeros e cerâmicos As frações classificadas por granulometria e as frações leves originadas da separação por densidade foram lixiviadas para caracterizar o resíduo a respeito da sua toxicidade antes e depois do processo. O uso do processamento mecânico mostrou-se muito eficiente na recuperação dos metais, pois foi possível recuperar cerca de 80% dos metais presentes, com destaque para o cobre, que representa quase 75% da fração metálica. Através da lixiviação foi determinado que as PCI deveriam ser classificadas como resíduos perigosos, pois apresentam uma concentração de chumbo bem acima do permitido. Após a separação por densidade foi feito novamente ensaio de lixiviação e embora a concentração de Chumbo na fração leve tenha diminuido significativamente ela ainda permaneceu acima dos limites estabelecidos pelas normas brasileiras.
Resumo:
Devido a um mercado automotivo altamente competitivo e globalizado, as empresas buscam aperfeiçoar cada vez mais seus produtos, investindo em pesquisa e desenvolvimento em busca de produtos melhores, mais seguros e mais confiáveis. Dentro desse contexto, procurou-se aprofundar os estudos sobre fadiga e fadiga de contato, a fim de se obter um embasamento teórico sobre as possíveis causas de trincas e suas conseqüências, em componentes submetidos a esforços cíclicos e a temperaturas elevadas. Importante é salientar que as altas temperaturas resultam em transformações estruturais no ferro fundido. Posteriormente a esse embasamento teórico, realizou-se um caso de estudo (tambor de freio), buscando subsídios e informações sobre freios, tambores de freios e sobre materiais utilizados em sua fabricação. Sobre ele diversos tipos de análise foram realizados; análises de tensões, análises metalográficas em corpos de prova com e sem trinca e simulações da previsão da vida em fadiga, utilizando o modelo de Paris em programas matemáticos. Paralelos a esses estudos, foram realizados testes de eficiência em dinamômetro utilizando diferentes materiais. Foram utilizados componentes em Ferro Fundido Cinzento e em Ferro Fundido Vermicular a fim de se poder avaliar o comportamento dos materiais em aplicações em que se tem a fadiga de contato. Finalmente, são apresentados os resultados das análises e dos testes realizados, fazendose uma discussão acerca dos mesmos, sendo então apresentadas às conclusões e as sugestões para estudos futuros.
Resumo:
Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
A utilidade de alguns polímeros depende principalmente de suas propriedades elétricas, ópticas, bioquímicas e térmicas, porém na maioria dos exemplos a propriedade fundamental para as aplicações reside em suas propriedades mecânicas. Os mecanismos de deformação em polímeros semi-cristalinos são em geral complexos e dependem do arranjo e do tamanho dos cristais. A deformação plástica de polímeros semi-cristalinos é produzida pela força aplicada ao sistema, com modificações de suas propriedades termodinâmicas e morfológicas, obtendo-se materiais com novas propriedades e aplicações. Os sistemas estudados neste trabalho, consistem de amostras de polipropileno isotático, (i-PP) comercial, fornecidas pela OPP Petroquímica (III Pólo Petroquímico – Triunfo / RS). As amostras, na forma de grânulos, foram moldadas pelo processo de injeção onde duas massas molares diferentes foram investigadas. As placas moldadas por injeção, com espessura de aproximadamente 3,0 mm, foram cortadas nas dimensões padrões de 17,2 mm X 4,7 mm e após, deformadas plasticamente por compressão plana uniaxial à temperatura ambiente. A análise da morfologia e cristalinidade deste material foram realizadas utilizando as técnicas de difração raios-X em alto ângulo (WAXD), espalhamento de raios-X em baixo ângulo (SAXS), Microscopia Eletrônica de Varredura (MEV), e Microscopia Eletrônica de Transmissão (MET). Através da técnica de WAXD foi possível a identificação das diferentes fases cristalinas α e β do i-PP, antes e depois das amostras serem deformadas por compressão uniaxial. A determinação da cristalinidade foi realizada via difração de raios-X, utilizando as geometrias θ - 2θ e de Debye Scherrer, sendo a quantificação realizada a partir da área dos picos cristalinos obtidos a partir da indexação das reflexões de Bragg, utilizando o programa FULLPROF. Como resultado obtido, foi verificado uma significativa diminuição da cristalinidade com o aumento da deformação por compressão aplicada sobre as amostras. Com as medidas de SAXS, foram observados os perfis de espalhamento anisotrópicos e isotrópicos para as amostras sem deformação para maior e menor massa molar, respectivamente. O período longo (L) do material, definido pela soma da espessura lamelar do cristal (dc) e a espessura da camada amorfa (da), também foi obtido para estas amostras. A deformação causou uma diminuição do L, o que levou a diminuição da dc, seguido pelo aumento da da. Porém, com o aumento da deformação observa-se uma diminuição das intensidades espalhadas em torno do eixo azimutal. Este efeito pode ser atribuído ao aumento da fase amorfa seguido pela diminuição da fase cristalinidade. As modificações morfológicas ocorridas nas estruturas esferulíticas e lamelares foram avaliadas utilizando a Microscopia Eletrônica de Varredura (MEV), e a Microscopia Eletrônica de Transmissão (MET). O efeito da deformação plana por compressão ficou registrado nas imagens de XXIX MEV e MET, onde verificou-se o alongamento das estruturas esferulíticas na direção de fluxo, seguido da destruição parcial da mesma em deformação por compressão maiores. As imagens obtidas em MEV e MET, foram tratadas a fim de se verificar o grau de orientação e a distribuição da orientação em nível microestrutural por meio do método direto das secantes em um plano e da rosa dos interceptos. Neste caso, quando a rosa apresenta duas pétalas, tem-se um eixo de orientação; com quatro pétalas, dois eixos de orientação, e assim sucessivamente.Em um sistema isométrico sem nenhuma orientação, a rosa dos interceptos apresentará como resultado uma circunferência. Os resultados obtidos para as imagens de MEV e MET em nível esferulítico mostraram que a rosa dos interceptos parte de uma estrutura simétrica com baixo grau de orientação para uma estrutura orientada definida por um sistema de duas pétalas, seguido pelo aumento do grau de orientação para pressões de deformações maiores. Para as imagens de MET em nível lamelar observou-se o aumento do grau de orientação devido o aumento da deformação até 10 MPa. Neste caso, a rosa dos interceptos parte de uma estrutura definida por quatro pétalas (sistema dois eixos de orientação) para uma estrutura de duas pétalas, apresentando um sistema com um eixos de orientação. Porém, para pressões de deformações entre 20-3200 MPa observou-se a diminuição do grau de orientação, pois uma maior desordem é observado nas estruturas devido a amorfização do material, sendo a rosa dos interceptos demostrada por uma estrutura simétrica. Medidas com termopar foram realizadas para verificação do comportamento térmico no momento da deformação. Neste caso, foi verificado um aumento significativo da temperatura com o aumento da deformação. Porém, para as amostras deformadas com 3200 MPa foi observado dois picos de temperatura. Onde o primeiro pico foi atribuído ao comportamento adiabático seguido pela relaxação do material, enquanto o segundo pico foi verificado com grande aumento de temperatura no momento da explosão do material.
Resumo:
o objetivo principal da pesquisa é analisar a influência conjunta do tamanho e da velocidade de deformação (ou velocidade de alongamento) nas propriedades mecânicas do aço, procurando determinar a possível existência de acoplamento produzido com a variação conjunta dos dois parâmetros. A pesquisa inclui a revisão bibliográfica, a análise teórica do assunto e um estudo experimental com 130 corpos de prova de diferentes tamanhos, extraídos duma única chapa grossa de aço, ensaiados com diferentes velocidades de deformação, obtendo resultados de distintas variáveis (resistência à tração, deformação de ruptura, energia consumida por unidade de volume, deformação correspondente à resistência à tração e redução da área na zona de escoamento). As principais conclusões da análise teórica são: a) Levando em consideração que o conceito de comprimento característico do material é de fundamental importância para interpretar o efeito de tamanho, se determina a forma geral da função f que define o fenômeno, para materiais com um e dois comprimentos característicos. b) Por analogía, para analisar o efeito produzido pela velocidade de deformação se pode supor a existência de uma, o mais de uma, velocidade de deformação característica do material, resultando uma função f que tem a mesma forma geral que no efeito de tamanho. c) Os atuais modelos que interpretam os efeitos de tamanho e de velocidade de deformação podem ser expressados na forma das expressões gerais encontradas. d) Também se determina a forma geral da função.f que define o efeito conjunto de tamanho e de velocidade de deformação quando não existe acoplamento das duas variáveis e no caso geral de um material com um comprimento e uma velocidade de deformação característica Os principais resultados do estudo experimental são: a) A variação das propriedades quando varia o tamanho, a velocidade de deformação, a posição na espessura e a região da qual é extraído o corpo de prova. b) Existe acoplamento dos dois efeitos claramente significativo para a resistência à tração e a deformação correspondente à resistência à tração, apenas significativo para a deformação de ruptura e a energia consumida por unidade de volume e não significativo para a redução da área na zona de escoamento. c) Do estudo experimental da resistência à tração resulta que o acoplamento dos dois efeitos é tal que quando aumenta a velocidade de deformação e diminui o tamanho o efeito conjunto se acentua e quando diminui a velocidade de deformação e aumenta o tamanho o efeito conjunto se atenua. d) Com base nos critérios existentes que analisam os dois efeitos por separado é deíinido um novo critério para a resistência à tração, incorporando termos que permitem interpretar o acoplamento dos dois efeitos, obtendo um melhor resultado que reduz a soma de quadrados dos resíduos em 20 % . As conclusões da tese proporcionam maior informação teórica e experimental dos efeitos de tamanho e de velocidade de deformação nas propriedades mecânicas dos materiais que podem contribuir para adotar decisões na consideração destes efeitos nas estruturas.