114 resultados para Análise dinâmica de estruturas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma forma de avaliar a estabilidade de muros de pneus e são comparadas algumas soluções em termos de custos. Foram analisadas seções transversais com alturas entre 1 e 5 metros e escolhida a conformação que melhor se adequaa ao cálculo de estabilidade. Escolhida a melhor conformação foram feitos os cálculos de estabilidade, segundo parâmetros do trabalho de Sieira (1998) no Rio de Janeiro. Dentro des sesparâmetros: altura do muro, sobrecarga do muro, inclinação do talude, inclinação do muro, ângulo de atrito interno do solo, peso específico do solo, ângulo de atrito solo-muro, peso específico solo-pneu e coesão. Foram realizados cálculos aceitando certas variações nos parâmetros, para o cálculo de estabilidade As principais conclusões que podemos ressaltar para o muro de pneus são: (a) a altura deve ficar entre 2 e 4m, onde o custo e a es tabilidade jus tificam o seu uso; (b) a sobrecarga de aterro não deve ultrapassar 1,00 m; (c) a inclinação do muro deve ser de 6 e 8º; (d) o ângulo do talude deve ser horizontal de preferência; (e) a coesão deve ser calculada na situação crítica (0 kPa ). Foram feitos estudos também para uso de pneus como muro de apoio de ponte. Sua utilização se deve não só ao custo da obra em si, mas por razões ambientais , visto que o descarte dos pneus, é um grande problema atual. O enfoque deste trabalho é bastante prático e pode ser aplicado na maioria das situações , devendo ser adaptado a cada caso particular .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A globalização eliminou, ao longo dos tempos, as fronteiras territoriais para os capitais financeiros e intelectuais e, conseqüentemente, tem exigido dos governos, empresas, administradores e investidores uma enorme variedade de informações para nortear investimentos potencialmente eficientes e geradores de riquezas capazes de atrair e mobilizar esses recursos. Empreendedores modernos, coadunados com essa nova realidade mundial, têm buscado nas teorias da administração financeira elementos importantes na análise de seus planos estratégicos e dos projetos de investimentos, buscando minimizar os riscos e maximizar os recursos financeiros disponíveis e suas estruturas físicas e materiais, além de conhecer e prever os desdobramentos de suas decisões sobre a perpetuidade de suas empresas. Esses novos visionários agregam valor econômico à empresa e aos investidores, pois suas decisões empresariais e de investimentos são tabuladas de forma a projetar seus empreendimentos no longo prazo, afastando, desde já, a insolvência das empresas como suporte sócio-econômico da dinâmica das nações. Os variados modelos desenvolvidos nos campos acadêmicos para as áreas de administração financeira, quer por desconhecimento, descaso dos administradores ou pela complexidade de alguns destes, ainda não foram disseminados para um grande contingente de empresas ao redor do planeta. Certos modelos possuem especificidades restritas ou se prestam a situações especiais. Alguns empreendedores ainda se utilizam dos resultados extraídos da contabilidade tradicional na definição de valor econômico de seus investimentos, de uma maneira geral, dando ênfase aos dados financeiros tradicionais originados na contabilidade Para corrigir está deficiência estrutural, os acadêmicos desenvolveram modelos que, acompanhados dos dados relatados pela contabilidade, da forma como se apresenta na atualidade, complementam e dão suporte aos envolvidos, objetivando a mensuração do valor econômico de seus empreendimentos e a eficiência de suas decisões. Dentre esses variados modelos, pode-se destacar o modelo de fluxo de caixa descontado (DFC), considerado uma ferramenta eficiente para a avaliação de investimentos ao capturar a agregação de valor do projeto no longo prazo e os riscos inseridos no mesmo, muitas vezes negligenciado pelos administradores. O modelo em questão, e os outros mais, serão, sumariamente, conceituados ao longo do presente estudo, buscando identificar as potencialidades de cada um e em que tipo de avaliação pode, ou deve, ser aplicado. Conclusivamente, serão aplicadas todas as premissas abstraídas do modelo DFC, recomendado por COPELAND, KOLLER e MURRIN (2002), ajustado às características da empresa, para conhecer o valor de mercado da Linck Agroindustrial Ltda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é desenvolver um programa computacional, baseado no método dos elementos finitos, para simular situações de reforço e recuperação de peças de concreto armado. A linguagem Matlab é a ferramenta utilizada para a elaboração do programa. É uma linguagem de alta performance para computação técnica. Integra computação, visualização e programação em um fácil ambiente para uso, onde problemas e soluções são expressos em familiar notação matemática. A característica principal deste programa é de permitir alterações na modelagem numérica durante a análise do problema, podendo-se retirar ou acrescentar elementos da estrutura, aumentar ou diminuir rigidezes, alterar materiais, etc, viabilizando-se, assim, uma avaliação das diversas etapas ou hipóteses dos procedimentos de recuperação ou reforço de estruturas. O programa permite a mudança de vinculações do elemento estrutural, durante a análise. Além disto, é permitido não só incrementos de forças como incrementos de deslocamentos impostos à estrutura. O programa computacional utiliza duas etapas distintas, baseadas em um modelo elasto-viscoplástico. Na primeira etapa, faz-se a determinação da resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. Na segunda, busca-se determinar a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elastoplástico Para melhor representar o comportamento do concreto, quando submetido a carregamento de longa duração, utilizou-se um modelo de camadas superpostas. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Para verificar a precisão do programa computacional desenvolvido, comparam-se os resultados numéricos com resultados experimentais, cujos ensaios foram realizados no Laboratório de Ensaios e Modelos Estruturais do Programa de Pós-Graduação em Engenharia Civil da Escola de Engenharia da Universidade Federal do Rio Grande do Sul, e no Laboratório de Estruturas da Escola de Engenharia de São Carlos- USP. Nessas comparações, obtiveram-se ótimas aproximações entre os resultados numéricos e experimentais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Empregamos a técnica de Dinâmica Molecular para estudar propriedades de defeitos pontuais nos compostos intermetálicos ZrNi e Zr2Ni. Descrevemos as configurações estáveis de defeitos e mecanismos de migração, assim como as energias envolvidas. Os potenciais interatômicos foram derivados do Embedded Atom Model. No intuito de levar em conta a variação de estequiometria causada pela presença de alguns tipos de defeitos em intermetálicos, apresentamos um método numérico que fornece a energia efetiva de formação de defeitos e aplicamos o método ao ZrNi e Zr2Ni. Os resultados mostraram que vacâncias são mais estáveis na sub—rede do Ni, com energia de formação de 0,83 e-0,61 eV em ZrNi e Zr2Ni, respectivamente. Vacâncias de Zr são instáveis em ambos compostos; elas decaem espontaneamente em pares anti—sítio e vacância de Ni. Configurações e energias de formação de intersticiais também foram calculadas e mostraram comportamentos similares. Em ZrNi, a migração de vacâncias ocorre preferencialmente nas direções [025] e [100], com as respectivas energias de migração 0,67 e 0,73 eV, e é um processo essencialmente bidimensional no plano (001). Em Zr,Ni, a migração de vacâncias é unidimensional, ocorrendo na direção [001], com energia de migração de 0,67 eV. Em ambos compostos a presença de defeitos de anti—sítio de Ni diminui a energia de migração da vacância de Ni em até 3 vezes e facilita a movimentação em três dimensões. Mecanismos de anel não são energeticamente eficientes em comparação com saltos diretos. As configurações estáveis de intersticiais em ambos compostos consistem em um átomo de Ni sobre o plano (001) entre dois vizinhos de Zr fora do plano. Intersticiais de Zr são instáveis e tendem a deslocar um átomo de Ni, ocupando seu sítio. Energias de deslocamento foram estudadas através de simulações de irradiação de ambos compostos. Durante o processo de colisão binária, um potencial universal ZBL foi usado para colisões a curta distância. Para distâncias intermediárias usamos um potencial de união arbitrário. Zr mostrou—se mais difícil de ser arrancado de seu sítio do que Ni. Encontramos valores de energia de deslocamento no intervalo de aproximadamente 29 eV até 546 eV. Alguns resultados experimentais são mostrados e apresentam boa concordância com os cálculos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho consiste em um estudo para avaliar e quantificar o pico do impacto e força gerada no segmento superior em atletas da arte marcial de origem japonesa Karate Do, oriundos da seleção Gaúcha adulta e juvenil da modalidade do ano de 2001, durante a execução da técnica de gyaku tsuki sobre makiwara. Os valores dos picos de aceleração foram obtidos na região do punho e escápula utilizando-se acelerômetros piezoelétricos uniaxiais fixos nestas regiões, e os valores da força gerada durante o choque, obtidos através da instrumentação do makiwara com extensômetros. As medições no segmento superior foram realizadas no eixo longitudinal do mesmo de acordo com as recomendações das normas ISO 2631 (1974 e 1997) e ISO 5349 (1986). Um dos acelerômetros foi fixado na porção distal do rádio e o outro acima da espinha da escápula. A disposição dos acelerômetros têm por objetivo captar o nível de vibração que efetivamente chega no segmento superior pela mão e quanto da energia vibratória é absorvida pelo mesmo. Os dois sensores foram colocados superficialmente sobre a pele, diretamente acima das estruturas anatômicas acima descritas, fixos com fita adesiva. A aquisição dos dados foi realizada com uma placa conversora analógica digital, e programa de aquisição de dados em três canais desenvolvido na plataforma de programação visual HPVee. Os ensaios foram realizados simulando a maneira clássica de execução da técnica de gyaku tsuki em makiwara. O trabalho apresenta ainda um estudo sistemático de lesões associadas ao uso do makiwara e estatísticas referentes a praticantes avançados do estado do Rio Grande do Sul. Também apresenta algumas considerações anatômicas e Mecânicas da técnica estudada, para apresentar-se como material de auxílio à estudiosos da Biomecânica dos esportes e Cinesiologia, instrutores e treinadores em geral para otimizar e aperfeiçoar, ou mesmo aumentar a compreensão da prática esportiva do Karate Do. Também é apresentado um modelo biomecânico de quatro graus de liberdade usado para análise de domínio de freqüência e possível simulação futura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cerca de dois terços das maiores áreas metropolitanas mundiais estão nas proximidades dos estuários, portanto são regiões comumente sujeitas à situações de risco impostas pela pressão populacional. Instalações portuárias, efluentes diversos, uso indevido das suas margens, estão entre os riscos potenciais à grande diversidade de seus recursos naturais. A ação das marés, das ondas e o aporte fluvial interagem tornando bastante complexa a caracterização do seu funcionamento. A presente dissertação foca os seguintes aspectos: hidrodinâmica, transporte de sedimentos em suspensão, sedimentologia, morfologia e classificação do ambiente. A hidrodinâmica e o transporte de sedimentos foram estudados em duas etapas de campo em condições de maré de sizígia e de quadratura, cada qual com abrangência de dois ciclos de maré (25 hs). Estas etapas foram realizadas numa estação fixa com medições de: maré, velocidade da corrente, material em suspensão, sólidos totais dissolvidos, salinidade, pH, oxigênio dissolvido e temperatura. As características sedimentológicas foram avaliadas pela coleta de sedimentos de fundo em 24 pontos. Os aspectos morfológicos foram reconhecidos por uma batimetria detalhada e por aerofotografias. Os resultados revelaram a dominância das correntes de maré vazante em sizígia e de enchente em quadratura. O fluxo total de sedimentos por ciclo de maré na sizígia foi de 71 ton. (vazante), enquanto que na quadratura foi de 2,2 ton. (enchente). Os sedimentos de fundo variaram de areia muito grossa a silte. A profundidade máxima foi de 7,4 m (maré alta de sizígia). A comparação das aerofotografias revela a instabilidade morfológica da desembocadura. Relaciona-se este fato à influência variável da deriva litorânea e da descarga hidráulica. Este estuário foi classificado como: de frente de barreira arenosa; de circulação do tipo xvi parcialmente misturada e, por vezes, verticalmente homogênea; de Tipo 2b (quadratura); de tipo intermerdiário 2a e 2b (sizígia); de negativo; de mesomaré e de energia mista.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, estudamos a interação de íons com um conjunto quase-monocromático de ondas eletrostáticas de frequência na faixa das frequências híbridas inferiores, propagando-se perpendicularmente a um campo magnético uniforme. Consideramos que as fases das ondas são aleatoriamente distribuídas (ondas incoerentes), tratando o caso de ondas de fases coerentes (ondas coerentes) como um caso particular. Derivamos o Hamiltoniano adequado a esse sistema, e deduzimos as equações de movimento, cujas soluções são analisadas numericamente, mostrando a ocorrência de difusão estocástica no espaçoo de fase ângulo-ação, para amplitudes de onda suficientemente grandes. Também fazemos estimativas sobre a amplitude mínima (threshold) para o aparecimento de ilhas de primeira ordem no espaço de fase. Estimamos, também, o limiar para as ilhas de segunda ordem e de ordens maiores, bem como o limiar de estocasticidade. A análise mostra que para o caso de várias ondas o comportamento estocástico ocorre antes do limiar de estocasticidade comparado com o caso de uma onda. No caso de ondas coerentes, observa-se que o limiar de estocasticidade diminui com o aumento do número de ondas que comp˜oem o conjunto de ondas, proporcionalmente ao inverso da raiz quadrada deste número, portanto, tendendo a ser nulo no limite em que o número de ondas no pacote tende a infinito. No caso de ondas incoerentes, observa-se também uma diminuição do limiar de estocasticidade com o aumento do número de ondas, mas nesse caso, saturando com valor até um terço do valor do limiar de estocasticidade para o caso de uma onda. Observa-se também que o limite superior da região de estocasticidade no espaço de fase aumenta com o aumento do número de ondas. No caso de ondas coerentes, esse aumento é proporcional à raiz cúbica do número de ondas que compõem o conjunto de ondas. No caso de ondas incoerentes o limite superior da região de estocasticidade têm um aumento de até o dobro em relação ao caso de uma onda. A análise também mostra que o mecanismo da estocasticidade para o caso de várias ondas é diferente do mecanismo atuante no caso de uma onda. No caso de uma onda, a estocasticidade ocorre por superposição de ilhas de ordens maiores do que um, com o aumento da intensidade da onda. No caso de várias ondas, a presençaa de ondas de frequências próximas à frequência de ressonância causa pequenas perturbações na trajetória principal das partículas, causada pela onda central, espalhando-a pelo espaço de fase de forma mais eficiente que o mecanismo de estocasticidade para o caso de uma onda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o objetivo principal da pesquisa é analisar a influência conjunta do tamanho e da velocidade de deformação (ou velocidade de alongamento) nas propriedades mecânicas do aço, procurando determinar a possível existência de acoplamento produzido com a variação conjunta dos dois parâmetros. A pesquisa inclui a revisão bibliográfica, a análise teórica do assunto e um estudo experimental com 130 corpos de prova de diferentes tamanhos, extraídos duma única chapa grossa de aço, ensaiados com diferentes velocidades de deformação, obtendo resultados de distintas variáveis (resistência à tração, deformação de ruptura, energia consumida por unidade de volume, deformação correspondente à resistência à tração e redução da área na zona de escoamento). As principais conclusões da análise teórica são: a) Levando em consideração que o conceito de comprimento característico do material é de fundamental importância para interpretar o efeito de tamanho, se determina a forma geral da função f que define o fenômeno, para materiais com um e dois comprimentos característicos. b) Por analogía, para analisar o efeito produzido pela velocidade de deformação se pode supor a existência de uma, o mais de uma, velocidade de deformação característica do material, resultando uma função f que tem a mesma forma geral que no efeito de tamanho. c) Os atuais modelos que interpretam os efeitos de tamanho e de velocidade de deformação podem ser expressados na forma das expressões gerais encontradas. d) Também se determina a forma geral da função.f que define o efeito conjunto de tamanho e de velocidade de deformação quando não existe acoplamento das duas variáveis e no caso geral de um material com um comprimento e uma velocidade de deformação característica Os principais resultados do estudo experimental são: a) A variação das propriedades quando varia o tamanho, a velocidade de deformação, a posição na espessura e a região da qual é extraído o corpo de prova. b) Existe acoplamento dos dois efeitos claramente significativo para a resistência à tração e a deformação correspondente à resistência à tração, apenas significativo para a deformação de ruptura e a energia consumida por unidade de volume e não significativo para a redução da área na zona de escoamento. c) Do estudo experimental da resistência à tração resulta que o acoplamento dos dois efeitos é tal que quando aumenta a velocidade de deformação e diminui o tamanho o efeito conjunto se acentua e quando diminui a velocidade de deformação e aumenta o tamanho o efeito conjunto se atenua. d) Com base nos critérios existentes que analisam os dois efeitos por separado é deíinido um novo critério para a resistência à tração, incorporando termos que permitem interpretar o acoplamento dos dois efeitos, obtendo um melhor resultado que reduz a soma de quadrados dos resíduos em 20 % . As conclusões da tese proporcionam maior informação teórica e experimental dos efeitos de tamanho e de velocidade de deformação nas propriedades mecânicas dos materiais que podem contribuir para adotar decisões na consideração destes efeitos nas estruturas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.