109 resultados para Axiomatização dos Reais
Resumo:
Esta pesquisa propõe um programa de treinamento em segurança para trabalhadores da construção. O programa foi baseado nos seguintes dados: dois estudos de caso sobre as práticas de treinamento adotadas por duas contratantes, em Porto Alegre - estes estudos também envolveram a identificação das necessidades de treinamento da mão-de obra; uma análise do programa de treinamento desenvolvido por uma companhia siderúrgica, visitas à Escola Profissional da Indústria da Construção(SENAI-RS). O programa de treinamento tem dois estágios preliminares: (a) a definição do perfil desejado do trabalhador, o qual inclui características pessoais e habilidades técnicas; (b) a definição dos objetivos do programa de treinamento. O próprio programa de treinamento envolve quatro estágios principais: (a) o diagnóstico das práticas de treinamento existentes e as necessidades de treinamento dos trabalhadores; (b) o planejamento e a programação; (c) a implementação e execução; e (d)a avaliação dos resultados. Esta pesquisa ressaltou alguns importantes fatores a serem considerados no desenvolvimento de um programa de treinamento em segurança, tais como: a escolha de um treinador capaz, a escolha de um local apropriado, onde as sessões de treinamento deveriam ocorrer, e a identificação das reais motivações dos trabalhadores em assistir aos treinamentos.
Resumo:
Processos químicos integrados apresentam uma maior dificuldade para garantir o controle global da planta em função das fortes interações que se estabelecem entre as variáveis de processo. A área de estudo conhecida como Plant Wide Control preocupa-se em propor soluções a este problema de controle. Soluções típicas consistem no projeto de estruturas de controle, a partir de técnicas quantitativas de análise da controlabilidade operacional. Entretanto a dificuldade em obter-se modelos confiáveis na fase de projeto de processos, bem como as incertezas derivadas das não-linearidades de sistemas reais, são alguns exemplos das dificuldades que limitam a aplicabilidade de tais métodos e incentivam o desenvolvimento de heurísticas capazes de auxiliar a seleção de estruturas de controle adequadas. Nesta dissertação são utilizadas análises estruturais e técnicas quantitativas no estudo de sistemas simplificados e hipotéticos, permitindo a formulação de heurísticas comprometidas com o controle global do balanço material. O resultado destas análises mostra ser possível implementar uma estrutura de base, de configuração feedforward, fundamentada na garantia de baixa variabilidade do tempo de residência do sistema reacional, através de controle direto ou flutuação do inventário, e na proporcionalidade entre as correntes de processo, via introdução de razões fixas entre as vazões da planta. A utilização destas duas heurísticas garante a estabilidade do balanço material frente a variações da taxa de produção, mesmo sem a implementação de controladores de composição. Em um nível supervisório, são introduzidas malhas de controle feedback, em cascata com a estrutura de base, a fim de corrigir off-sets e controlar composições sob um horizonte de tempo longo de resposta. As estruturas de controle projetadas a partir desta base heurística apresentam um desempenho satisfatório para a rejeição de distúrbios sobre a taxa de produção, de acordo com os resultados de validação do estudo de caso Tennessee Eastman.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Este trabalho trata o problema genérico da obtenção analítica exata das variedades algébricas que definem domínios de estabilidade e multiestabilidade para sistemas dinâmicos dissipativos com equações de movimento definidas por funções racionais. Apresentamos um método genérico, válido para qualquer sistema dinâmico, que permite reduzir a análise de sistemas multidimensionais arbitrários à análise de um sistema unidimensional equivalente. Este método é aplicado ao mapa de Hénon, o exemplo paradigmático de sistema multidimensional, para estudar a estrutura aritmética imposta pela dinâmica das órbitas de períodos 4, 5, e 6, bem como seus domínios de estabilidade no espaço de parâmetros. Graças à obtençao de resultados analíticos exatos, podemos explorar pela primeira vez as peculariedades de cada um dos períodos mencionados. Algumas das novidades mais marcantes encontradas são as seguintes: Para período 4, encontramos um domínio de multiestabilidade caracterizado pela coexistência de duas órbitas definidas em corpos algébricos distintos. Observamos a existência de discontinuidades na dinâmica simbólica quando os parâmetros são mudados adiabáticamente ao longo de circulações fechadas no espaço de parâmetros e explicamos sua origem algébrica. Publicamos tais resultados em dois artigos: Physica A, 295, 285-290(2001) e Physical Review E, 65, 036231 (2002). Para período 5, obtivemos a variedade algébrica que define o "camarão" (shrimp) característico, obtemos uma expressão analítica para todas as órbitas de período 5, classificamos todas as singulariedades presentes no espaço de parâmetros e analisamos todas as mudanças que ocorrem ao circular-se em torno de tais singulariedades. Para período 6, da expressão analítica que fornece todas as órbitas, encontramos um resultado muito surpreendente, o mais notável desta dissertação: a possibilidade de coexistência de órbitas reais e complexas estáveis, para valores reais dos parâmetros físicos. Resultados preliminares parecem indicar serem tais órbitas complexas uma espécie de órbitas fantasmas, com semelhanças as órbitas encontradas por Gutzwiller para sistemas Hamiltonianos (não- dissipativos).
Resumo:
Dado um sistema dinâmico g : M → M e uma função A : M → R, chamada de observável, uma medida invariante v que satisfaz ƒ Adv = sup{ RAdµ ; µ ´e invariante para g} é chamada uma medida maximizadora. Neste trabalho vamos analisar medidas maximizadoras em duas classes de sistemas dinãmicos que apresentam pontos fixos indiferentes: Na primeira classe analisada, unidimensional, o sistema dinâmico ƒ é dado por um mapa expansor de grau 2 definido em [0, 1], apresentando derivada maior que 1 em todos os pontos com exceção do ponto fixo 0, onde tem derivada 1. O observável A é dado por uma função α-Hölder em cada ramo injetor, monótona em uma pequena vizinhança de zero. Na segunda classe analisada, bidimensional, o sistema dinâmico B é um mapa bijetor definido em [0, 1)×[0, 1) com o auxílio de uma função ƒ da classe anterior, apresentando ponto fixo indiferente na origem. Trata-se de uma variante fracamente hiperbólica da Baker Map. O observável A agora é uma função α-Hölder, e obedece a uma condição semelhante à monotonicidade do caso unidimensional em um vizinhança de (0, 0). Em ambos os casos mostraremos que a medida maximizadora, se for única, será uma medida unicamente ergódica. O passo mais importante nesta direção, que constitui-se em um resultado de interesse próprio, e que tomará a maior parte de nosso tempo, será, nos dois casos, a obtenção e o estudo da regularidade de uma função a valores reais S, chamada de função de subação, que obedecerá a desigualdade S o g ≥ S + A − m. Em ambos os casos mostraremos que S existe e é α-Hölder-contínua.
Resumo:
A mecanização agrícola tem sido um importante fator que vem contribuindo para atender o aumento na demanda por alimentos. Porém, o desenvolvimento de máquinas e implementos com maior desempenho operacional ainda carecem de uma base de informações tecnológicas sistematizadas para a implementação em novos projetos de produtos. Desta forma, o principal objetivo deste trabalho foi o de implementar um sistema capaz de gerar informações para auxiliar no desenvolvimento de novos projetos de produtos, ou mesmo na melhoria das máquinas e implementos já existentes. Para tanto, foi construído um conjunto de transdutores de força – dinamômetros do tipo anel octogonal estendido, capazes de medir solicitações em duas direções ortogonais e o momento associado a estes dois esforços. Associados a estes transdutores foram utilizados outros recursos para a formação de uma instrumentação embarcada, a fim de possibilitar os registros, em tempo real, dos dados gerados para serem armazenados em bancos de dados para posterior análises e avaliações. Com o sistema implementado foram realizados diversos conjuntos de testes de campo, onde se ensaiou uma semeadora adubadora comercial com seus elementos ativos e/ou seus componentes isolados da máquina. No primeiro teste, foi avaliada uma linha completa de uma semeadora-adubadora, onde foram medidos os esforços no disco de corte da palha, na haste sulcadora para deposição do adubo e na unidade de semeadura. Nos testes seguintes, foram realizadas avaliações em dois modelos de hastes sulcadoras, trabalhando com diversos parâmetros distintos, a fim de comparar os respectivos desempenhos entre os dois modelos estudados. Também, verificaram-se avaliações das solicitações dos esforços de tração para sulcadores de adubo tipo disco duplo e, para tracionar somente os discos de corte. Finalmente, mediram-se os esforços para o arraste do chassi durante o deslocamento em campo. Os resultados dos sensores de força combinados com a instrumentação embarcada foram considerados satisfatórios durante as medições nos testes de campo, visto a sua repetibilidade tendo como referência um sistema de calibrações prévias. Desta forma, confirmouse que os registros dos testes de campo podem servir de referência para a análise de projeto de máquinas semeadoras-adubadoras, uma vez que os mesmos foram obtidos em condições reais durante as operações de campo.
Resumo:
O método LTSN tem sido utilizado na resolução de uma classe abrangente de problemas de transporte de partículas neutras que são reduzidos a um sistema linear algébrico depois da aplicação da transformada de Laplace. Na maioria dos casos estudados os autovalores associados são reais e simétricos. Para o problema de criticalidade os autovalores associados são reais ou imaginários puros e simétricos, e para o o problema de multigrupo podem aparecer autovalores complexos. O objetivo deste trabalho consiste na generalização da formulação LTSN para problemas de transporte com autovalores complexos. Por esse motivo é focada a solução de um problema radiativo de transporte com polarização em uma placa plana. A solução apresentada fundamenta-se na aplicação da transformada de Laplace ao conjunto de equações SN dos problemas resultantes da decomposição da equação de transferência radiativa com polarização em série de Fourier, seguindo o procedimento de Chandrasekhar. Esse procedimento gera 2L + 2 sistemas lineares de ordem 4N dependentes do parâmetro complexo "s". Aqui, L é o grau de anisotropia e N a ordem de quadratura. A solução desse sistema simbólico é obtida através da aplicação da transformada inversa de Laplace depois da inversão da matriz simbólica pelo método da diagonalização. Para a obtenção das constantes de integração é assumido que os componentes do vetor de Stokes são reais e as matrizes dos autovalores e autovetores são separadas em suas partes real e imaginária. A solução LTSN para autovalores complexos é validada através da comparação da solução para uma placa com espessura unitária, grau de anisotropia L = 13, albedo de espalhamento simples $ = 0:99, coe ciente de re exão de Lambert ¸0 = 0:1 e N = 150, segundo dados da literatura consultada.
Resumo:
A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.
Resumo:
Esta dissertação faz parte das pesquisas realizadas pelo Grupo de Computação Musical da UFRGS e está baseada na crença que é possível fomentar cada vez mais o interesse das pessoas pela música, usando formas alternativas para experimentação sonora e incentivando a interação entre usuários. A partir desta idéia, chega-se ao projeto do CODES - Cooperative Sound Design, que é um ambiente baseado na Web para prototipação musical cooperativa e visa permitir que pessoas (músicos ou leigos em música) possam interagir com o ambiente e entre si para criar cooperativamente protótipos de peças musicais. O objetivo geral deste trabalho é criar um ambiente computacional que permita ao leigo realizar a tarefa de prototipação musical cooperativa na Web. Especificamente, também objetiva identificar e propor características importantes para a implementação de ambientes coletivos para criação sonora apoiados por computador e outras tecnologias disponíveis. Tradicionalmente, algumas barreiras dificultam o “fazer musical” das pessoas e grupos que desejam se reunir e interagir para troca de experiências sonoras. A distância física ou geográfica, a necessidade de posse de um instrumento musical e do domínio da notação musical tradicional (partitura) podem ser as principais barreiras nesse sentido. A principal motivação para este trabalho se apóia sobre este aspecto, no sentido de vencer o desafio para eliminar estas barreiras que afastam as pessoas interessadas da possibilidade de fazer experimentos musicais em grupo. Através do uso do computador como instrumento virtual, da Internet para encontros virtuais e de uma notação musical alternativa para a realização de tais experimentos é possível eliminar estas barreiras. A metodologia para o desenvolvimento desta pesquisa envolveu atividades como estudo e levantamento de características das principais linguagens / notações / representações para computação musical; estudo e levantamento de características dos aspectos de IHC; estudo e levantamento de características de aplicativos CSCW; estudo e levantamento de características de aplicativos de composição musical cooperativa na web; modelagem e construção do protótipo a partir dos levantamentos feitos e da solução proposta; avaliação, experimentação e revisão do protótipo em situações reais de uso; e avaliação do trabalho como um todo, incluindo suas contribuições e limitações. Dentre as principais contribuições deste trabalho salienta-se a prototipação musical cooperativa na web (termo proposto para as ações de manipulação sonora coletiva) realizada por meio de um protótipo desenvolvido; a integração de conceitos de Computação Musical, Interação Humano-computador e Trabalho Cooperativo; a criação de modelos de memória de grupo; a criação de mecanismo para permitir a manipulação sonora individual e coletiva e um modelo de justificativa e argumentação.
Resumo:
O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
As pesquisas com o concreto buscam cada vez mais alternativas para melhorá-lo em desempenho, não apenas nas resistências mecânicas, mas também e principalmente quanto à sua durabilidade. Para isso, a utilização das adições minerais nos concretos, principalmente a partir da década de 80, no Brasil, passaram a fazer parte dos experimentos, em função dos benefícios que trazem para minimizar os problemas patológicos de deterioração do material. No entanto, estudos em concretos com essas adições precisam ser melhor investigados, especialmente na proteção da armadura contra a corrosão. Em vista disso, o presente trabalho teve como objetivo principal avaliar o desempenho dos concretos com e sem adições minerais frente à corrosão do aço induzida por carbonatação acelerada. Foram pesquisados, nas relações água/aglomerante (a/ag) nominais de 0,50, 0,60 e 0,70, cinco tipos de concreto, sendo quatro com adições minerais (substituição em massa): cinza volante 25% e 50%, cinza de casca de arroz 25% e escória granulada de alto-forno 70% e um sem adição: 100% cimento CPV-ARI, tomado como referência. Os concretos foram curados por 49 dias em câmara úmida e, em seguida, passaram por um processo de précondicionamento para equilíbrio de umidade interna até completarem 91 dias, segundo recomendações da RILEM-TC116/1999. O processo da corrosão foi induzido por carbonatação (10% de CO2 em volume) e acelerado por ciclos de molhagem/secagem, sendo avaliado através das técnicas eletroquímicas do potencial de corrosão e resistência de polarização bem como do ensaio de perda de massa gravimétrica. Também foram realizados os ensaios complementares de resistência à compressão axial, permeabilidade a gases, absorção capilar d’água, profundidade de carbonatação e pH. Os resultados mostraram que os concretos feitos com adições minerais, principalmente aqueles com altos teores (cinza volante/50% e escória/70%), apresentaram menor proteção para o aço contra a corrosão, quando comparados com o concreto de referência, feito somente com cimento. Portanto, no contexto das presentes condições experimentais, concluiu-se que os concretos com os tipos e teores de adições minerais estudados, para resistências à compressão ≤ 40 MPa e relações a/ag ≥ 0,50, não apresentaram desempenhos adequados no tocante à corrosão do aço induzida por carbonatação, necessitando, no entanto, de mais experimentos que comprovem tal comportamento para concretos em estruturas reais.
Resumo:
A armazenagem de grãos é atualmente um importante tópico a ser explorado na região sul do Brasil, e vem se desenvolvendo consideravelmente nos últimos anos. Atualmente a armazenagem é feita através de silos cilíndricos que podem ser de grandes diâmetros ou elevados. Na área da armazenagem é importante implantar novas tecnologias como o caso de silos multicelulares prismáticos que são bastante difundidos nos Estados Unidos. Para estudar estes silos propõe-se analisar um caso real sob a ótica morfológica e dimensional. O estudo baseia-se na comparação entre métodos de análise estrutural analítica convencional com análise numérica através do cálculo por elementos finitos, além de testar as análises de cálculo mais avançadas. Para estudar um caso real buscaram-se informações detalhadas através de desenhos fornecidos por empresas que fabricam estes tipos de silos. Adotando um caso prático como padrão, na seqüência fez-se a análise da interação entre o número de módulos do silo com o objetivo de verificar a influência do número de módulos no dimensionamento dos componentes do silo. Analisou-se o referido projeto utilizando procedimentos clássicos de análise de dimensionamento (métodos analíticos) e compararam-se os mesmos com a análise utilizando o método dos elementos finitos. Adicionalmente executaram-se análises mais avançadas utilizando o método dos elementos finitos como não linearidade geométrica e física, flambagem e análise de freqüências e modos.Após as referidas análises pôde-se concluir que analisando dimensionalmente somente um módulo do silo, pode-se obter resultados que representam todo o conjunto de módulos. Além disso, verificou-se que a análise por elementos finitos é mais apropriada, pois permite menos simplificações de cálculo, apresentando assim resultados mais reais. Quanto às análises adicionais, verificou-se que a carga crítica de flambagem considerando a análise não linear geométrica por elementos finitos é maior do que a carga crítica obtida por análises convencionais.
Resumo:
A utilização de placas defletoras em banco de tubos é muito difundida em trocadores de calor, aumentando os níveis de turbulência do escoamento e o tempo de contato do fluido refrigerante e a superfície aquecida dos tubos. Os vórtices gerados pela turbulência tem a finalidade de imprimir a camada limite térmica dos tubos, onde o calor é trocado basicamente por condução, tornando a troca de calor mais eficiente. No entanto a maioria dos estudos em bancos de tubos considera um escoamento incidindo uniformemente sobre os tubos, sem qualquer tipo de análise dos efeitos causados pela utilização de placas defletoras, transformando-se assim em idealizações pouco reais. A proposta deste trabalho é analisar experimentalmente os efeitos causados no escoamento pelo uso de defletores, tomando-se como referência a região entre-tubos (linhas), onde para tanto foram estudadas duas geometrias distintas. A primeira geometria consiste uma placa defletora voltada para o escoamento e nela encontram-se montados dez tubos, dispostos horizontalmente em duas linhas, e a partir de uma certa distância a jusante ocorre um estreitamento súbito do canal prolongando-se até a saída. Com este tipo de geometria, pretende-se estudar os efeitos no desenvolvimento do escoamento para uma entrada assimétrica. A segunda geometria estudada é uma simplificação de bancos de tubos utilizados em trocadores de calor, porém, agora, com o uso de defletores. Nesta seção o escoamento é obrigado a contornar três placas defletoras, duas na parede superior do canal e uma na parede inferior, montadas de forma eqüidistantes O número de Reynolds, para ambas as seções, foi calculado com o diâmetro externo do tubo (32.1 mm) e a velocidade média do escoamento abaixo da primeira placa defletora, Ue. Para a primeira seção o número de Reynolds foi de 3.32 x 104 e para segunda 2.99 x 104. Os testes foram realizados em um canal retangular de 146 mm de altura e 193 mm de largura, com 900 mm de comprimento. Os bancos de tubos possuem uma relação de espaçamento, passo-diâmetro de 1,26, com dez tubos dispostos em duas linhas. As velocidades médias, suas direções e flutuações de velocidade foram investigadas ao longo das fendas, linhas, permitindo um conhecimento do desenvolvimento das componentes de velocidades, bem as intensidades de turbulência desde a região de entrada. Este estudo revelou que o desenvolvimento do escoamento , após a passagem por defletores se dá para distâncias superiores aquelas aqui estudadas.