182 resultados para Parametrização de rotações


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma sistemática para realizar a otimização numérica de pré-formas e de matrizes em problemas de forjamento axissimétricos e em estado plano de deformações. Para este fim, desenvolveu-se um código computacional composto basicamente de três módulos: módulo de pré-processamento, módulo de análise e módulo de otimização. Cada um destes foi elaborado acrescentando rotinas em programas comerciais ou acadêmicos disponíveis no GMAp e no CEMACOM. Um programa gerenciador foi desenvolvido para controlar os módulos citados no processo de otimização. A abordagem proposta apresenta uma nova função objetivo a minimizar, a qual está baseada em uma operação booleana XOR (exclusive or) sobre os dois polígonos planos que representam a geometria desejada para o componente e a obtida na simulação, respectivamente. Esta abordagem visa eliminar possíveis problemas geométricos associados com as funções objetivo comumente utilizadas em pesquisas correlatas. O trabalho emprega análise de sensibilidade numérica, via método das diferenças finitas. As dificuldades associadas a esta técnica são estudadas e dois pontos são identificados como limitadores da abordagem para problemas de conformação mecânica (grandes deformações elastoplásticas com contato friccional): baixa eficiência e contaminação dos gradientes na presença de remalhamentos. Um novo procedimento de diferenças finitas é desenvolvido, o qual elimina as dificuldades citadas, possibilitando a sua aplicação em problemas quaisquer, com características competitivas com as da abordagem analítica Malhas não estruturadas são tratadas mediante suavizações Laplacianas, mantendo as suas topologias. No caso de otimização de pré-formas, o contorno do componente a otimizar é parametrizado por B-Splines cujos pontos de controle são adotados como variáveis de projeto. Por outro lado, no caso de otimização de matrizes, a parametrização é realizada em termos de segmentos de reta e arcos de circunferências. As variáveis de projeto adotadas são, então, as coordenadas das extremidades das retas, os raios e centros dos arcos, etc. A sistemática é fechada pela aplicação dos algoritmos de programação matemática de Krister Svanberg (Método das Assíntotas Móveis Globalmente Convergente) e de Klaus Schittkowski (Programação Quadrática Sequencial – NLPQLP). Resultados numéricos são apresentados mostrando a evolução das implementações adotadas e o ganho de eficiência obtido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de técnicas para a modelagem paramétrica e geração de malhas de superfícies para uso em sistemas de análise e simulações numéricas pelo Método dos Elementos Finitos. Foram desenvolvidos algoritmos para a geração paramétrica de superfícies, para a determinação das curvas de interseções entre superfícies e para a geração de malhas em superfícies curvas e recortadas. Foram implementas linhas e curvas paramétricas básicas, a partir das quais são geradas superfícies paramétricas de vários tipos que proporcionam uma grande flexibilidade de modelamento geométrico. Curvas e superfícies são geradas e manipuladas de forma interativa. São apresentadas técnicas que simplificam a implementação de linhas e superfícies paramétricas. Foi desenvolvido um algoritmo para determinar as curvas de interseção entre superfícies paramétricas, que são utilizadas como linhas de recorte (trimming lines) para obter geometrias complexas e compostas de várias superfícies. O algoritmo desenvolvido emprega técnicas de subdivisão adaptativa, por quadtrees, em função da curvatura local das superfícies. Primeiramente, obtém-se uma aproximação das curvas de interseção no espaço 3D, através da aproximação por triângulos. Os resultados iniciais são refinados e projetados sobre as duas superfícies envolvidas com algoritmos que permitem obter grande precisão. As curvas de interseção finais são mapeadas nos espaços paramétricos das duas superfícies, porém com uma parametrização única, o que facilita a junção com superfícies adjacentes Um algoritmo de geração de malha foi desenvolvido para gerar malhas triangulares de qualidade sobre as superfícies curvas e recortadas. O algoritmo utiliza um processo de subdivisão adaptativa por quadtrees, similar ao utilizado no algoritmo de interseção, para definir tamanhos de elementos em função da curvatura local. Em seguida, aplica-se um algoritmo tipo advancing front para gerar a malha sobre a superfície. Os algoritmos foram implementados e testados em um ambiente gráfico interativo especialmente desenvolvido para este trabalho. São apresentados vários exemplos que comprovam a eficiência das técnicas e algoritmos propostos, incluindo exemplos de matrizes de conformação mecânica para uso com código de análise METAFOR, análise de sensibilidade para otimização de pré-formas e de modelagem de superfícies compostas recortadas com geração de malhas de qualidade, para uso em análise por Elementos Finitos ou como contorno para geração de elementos tridimensionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Regional Atmospheric Modeling System (RAMS), versão 3b, foi utilizado para simular o escoamento na Região Metropolitana de Porto Alegre (RMPA) para explicar a influência de circulações clássicas e não clássicas devido as proximidades do oceano e da Lagoa dos Patos, e da ilha de calor formada pelas cidades. O RAMS foi utilizado em um domínio tridimensional com duas grades sendo utilizadas, a grade mais grossa com resolução horizontal de 8 Km, e a grade mais fina com resolução horizontal de 2 Km. A inicialização do modelo é homogênea e parte do repouso, em uma situação de verão. Foram realizados 3 experimentos; o primeiro deles com apenas a grade mais grossa e com a parametrização da vegetação sendo grama curta em todo o domínio; o segundo utilizando as duas grades, sendo que a área coberta pela grade mais fina é parametrizada como deserto, nas duas grades; o terceiro diferencia-se do segundo pela adição de uma forçante térmica no primeiro nível da área coberta pela grade mais fina durante o período da noite (após o pôr do sol). Os resultados mostram que circulação de brisa lacustre/terrestre é responsável por uma forte tendência meridional no escoamento resultante sobre a RMPA, só sendo atenuada pela componente zonal da circulação de brisa marítima à partir do final da tarde. A confluência dessas duas circulações provoca uma tendência a elevação da camada de mistura. A presença da ilha de calor aumenta o movimento convectivo, com maior transporte vertical de calor sensível, e também retardou o avanço da frente de brisa marítima, embora durante a noite a sua influência não tenha sido muito significante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisa as transações entre empresa fabricante de software e empresa usuária de software sob a ótica da empresa fabricante. A abordagem da transação leva em consideração os seguintes fatores: estrutura de governança transacional, recursos humanos necessários à empresa fabricante e qualidade na transação buscada pela empresa fabricante. O modelo ajuda a explicar a dinâmica da transação e se propõe a auxiliar agentes a decidir e negociar temas polêmicos como tipos de software envolvidos e respectivas licenças, intensidade de participação da empresa usuária no processo de elaboração e parametrização do software, titularidade e grau de especificidade dos investimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Visando contribuir para com o debate da reforma do Sistema Tributário Nacional, objetiva-se neste trabalho estudar uma forma de aplicação do Imposto sobre o Valor Agregado, de maneira mais abrangente possível, com a ampliação da base tributária no tocante aos contribuintes, estabelecendo-se também critérios simples de legislação, de modo a desonerar a estrutura de administração do imposto, tanto para o sujeito passivo, o contribuinte, como para o sujeito ativo, o Estado. O sistema de arrecadação fiscal é um conjunto integrado por componentes derivados das atividades próprias às áreas econômica, política e administrativa. À ciência da tributação cabe a explicação sobre o funcionamento do sistema, sob os resultados inerentes ao comportamento controlado dos diversos fatores intrínsecos ao desempenho dessas áreas, dentro de certos limites de ação. Como um conjunto de particularidades político-econômicas, que se correlacionam no cerne de uma atividade administrativa vital para a organização do Estado, o sistema tributário deve ser visto sob uma perspectiva ampla, envolvendo a definição dos princípios e limites de ação do próprio governo. Surge neste ponto um dado dos mais importantes na parametrização de uma estrutura fiscal, que é a amplitude da responsabilidade objetiva atribuída à administração pública dentro da organização do país. A partir da definição desta variável pode-se tentar equacionar a dimensão do aparelho estatal e o seu custo de operação. Uma vez fornecidos estes dados básicos, tem-se as condições mínimas de serem projetadas as opções de financiamento necessárias à implementação de um projeto político nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação enquadra-se em um processo de busca de soluções para a geração do leiaute de circuitos integrados que permitam aumentar a qualidade da previsibilidade do comportamento de um circuito após a sua implementação. Isso é importante face ao crescimento dos problemas referentes aos efeitos elétricos adversos que surgem em nanocircuitos, tais como eletromigração, efeito antena, contatos mal formados e outros, assim como o aumento da variabilidade do processo de fabricação em tecnologias submicrônicas. O foco deste trabalho de pesquisa é a busca de soluções regulares através do uso de matrizes de portas lógicas. A experimentação efetuada realiza a geração de uma matriz de portas NAND que viabiliza a implementação de equações lógicas mapeadas para redes de portas NAND e inversores, admitindo-se a parametrização do fanout máximo. Foi desenvolvida uma ferramenta de CAD, o MARTELO, que permite efetuar a geração automática de matrizes de portas lógicas, sendo que a versão inicial está voltada para a geração de matrizes com portas NAND em tecnologia CMOS. Os experimentos efetuados revelam que esta técnica é promissora, sendo apresentados alguns dos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda a previsão da taxa de juros com foco em uma estratégia de investimento. Inicialmente é feita a parametrização da taxa de juros com o modelo de Vasicek para posterior aplicação do modelo autorregressivo tanto na taxa de juros quanto nos parâmetros do Vasicek. O instrumento financeiro escolhido para verificar a eficácia da metodologia proposta foi o constant matutity swap aplicado em alguns vértices. Os resultados variaram significativamente para os diferentes horizontes de calibragem e períodos de amostragem sem um padrão de desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve como objetivo agrupar os testes da Bateria DAT-Forma A em compósitos, procurando dar a esta Bateria um melhor valor preditivo do êxito profissional. Os testes foram aplicados a adolescentes, alunos da 8ª série do 1º grau, das escolas da Rede Oficial do antigo Estado da Guanabara. Através do emprego da Análise Fatorial, utilizando o método dos eixos principais, foram determinados três fatores. Após duas rotações ortogonais (Varimax e Equamax) e urna oblíqua (Oblimin), constatou-se que os testes poderiam formar três variáveis compósitas, que classificamos como: Acadêmica, Burocrática e Verbal. Os pesos de cada teste dos compósitos foram obtidos pela utilização do método de regressão múltipla. A correlação múltipla dos testes com as variáveis compósitas revelou que, realmente, os testes reunidos, têm um valor preditivo melhor do que quando isolados. Este trabalho procurou ser mais uma contribuição da Psicometria, aos psicólogos que fazem Orientação Vocacional baseados em resultados de testes psicológicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho relata a parametrização do modelo de contínuo IEF-PCM para o estudo da solvatação de ânions monovalentes em acetonitrila e N,N-dimetilformamida. Nós propomos duas metodologias de parametrização do modelo de contínuo polarizável para este estudo teórico. A primeira proposta é baseada unicamente no cálculo do termo eletrostático da energia livre e na equiparação deste termo com a energia livre de solvatação experimental. Na segunda proposta de metodologia, a parametrização do modelo de contínuo polarizável foi realizada com o auxílio das simulações de dinâmica molecular e dentro desta segunda proposta nós calculamos todos os termos que contribuem para a energia livre de solvatação, a energia de cavitação. a energia eletrostática e a energia de van der Waals. Com a aplicação da primeira metodologia, é obtido um erro médio absoluto de 2,1 kcal/mol nas energias de solvatação dos ânions em acetonitrila enquanto que o erro médio absoluto calculado para energias de solvatação dos ânions em N,N-dimetilformamida é 2,8 kcal/mol. A aplicação da segunda metodologia resulta num erro médio absoluto de 1,4 kcal/mol nas energias de solvatação dos ânions em acetonitrila e um erro médio absoluto de 1,2 kcal/mol nas energias de solvatação calculadas para os ânions em N,N-dimetilformamida. Estes resultados indicam que o modelo de contínuo polarizável IEF-PCM é adequado para o estudo dos efeitos termodinâmicos nas soluções de ânions nos solventes acetonitrila e N,N-dimetilformamida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram avaliados os benefícios da previsão de vazão afluente de curto e longo prazo, na operação de um reservatório com dois usos conflitantes: geração de energia e controle de cheias. A simulação da operação do reservatório foi realizada com base em dois tipos de modelos para avaliar os benefícios da previsão. Um modelo de operação sem previsão e outro com previsão de vazão afluente, este último desenvolvido no presente trabalho. Regras de operação simples, na forma de curvas-guia lineares, foram utilizadas nos casos de operação com e sem previsão de vazões afluentes. As curvas-guia foram otimizadas através de uma técnica de parametrização, simulação e otimização utilizando um algoritmo evolutivo semelhante a um algoritmo genético. Como base para as análises foram utilizados dados relativos ao reservatório de Três Marias, no Rio São Francisco, principalmente pela disponibilidade de previsões reais de vazão de curto prazo a partir de um trabalho prévio. Essas previsões reais de vazão foram calculadas através de um modelo hidrológico distribuído que utiliza como dados de entrada, previsões de chuva do modelo atmosférico regional ETA. Para avaliar o potencial benefício das previsões de vazão na operação do reservatório, foram realizados testes considerando às vazões afluentes observadas como “previsões perfeitas de vazão”. Os resultados com previsões perfeitas de vazão mostram que pode haver um benefício relativo (incremento na geração de energia) de aproximadamente 8% (cerca de 4,77 milhões de dólares anuais), se forem utilizadas previsões de vazão de longo prazo com dois meses de antecedência, e se a operação for planejada com essa mesma antecedência. A operação baseada em previsões de prazos ou horizontes mais curtos apresenta benefícios inferiores, mas ainda assim significativos. Por exemplo, a previsão perfeita com freqüência semanal e horizonte de 12 dias pode trazer um benefício de aproximadamente 4,45% (cerca de 2,75 milhões de dólares anuais). Esses benefícios foram obtidos com o mesmo desempenho no controle de cheias. Posteriormente, foram realizados testes utilizando as previsões reais de vazão. Os benefícios obtidos com as previsões reais de curto prazo são inferiores aos benefícios obtidos com as previsões perfeitas de curto prazo, como era esperado. Entretanto, com as previsões reais de vazão, foram obtidos benefícios superiores a 50% dos que seriam esperados com a previsão perfeita (vazões observadas). Os resultados obtidos são promissores e mostram que há vantagens evidentes na utilização de previsões de chuva para se obter previsões de vazão na operação de reservatórios com usos múltiplos, quando também é associada à otimização sistêmica de um aproveitamento hidrelétrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste projecto é a comparação entre os prós e contras de gestão passiva e ativa através da realização de um estudo estatístico de várias estratégias através dos Exchange-Traded Funds. Em particular, a análise vai passar pela estratégia mais passiva, ou seja, buy and hold, para um grau diferente de active indexing management, tais como rotações do sector e / ou classe de ativos com base no bottom-up, top-down e indicadores técnicos. A análise mostra que as estratégias ativas, se forem devidamente aplicadas, conseguem obter retornos ajustados ao risco substancialmente superiores quando comparados com uma abordagem passiva, superando as questões de custos de transação e diversificação que normalmente são reivindicadas por uma gestão passiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os quadrados mágicos, de um modo geral, são abordados como uma poderosa ferramenta pedagógica capaz de despertar e aprimorar o raciocínio lógico. São inúmeros os projectos que objectivam a realização de actividades lúdicas capazes de aprimorar capacidades humanas como o raciocínio lógico. Segundo [Leo05], na Alemanha, os quadrados mágicos chegam a ser referência nos manuais das escolas primárias. Contrariamente à maioria dos trabalhos em quadrados mágicos, a grande preocupação presente neste não foi propriamente explorar a potencialidade dos quadrados mágicos como utensílio dogmático no desenvolvimento de raciocínios. Neste trabalho a nossa atenção incidiu na resolução de um problema de combinatória proposto por Henry Dudeney, mais concretamente o “Enigma do Monge”. Foi desenvolvida uma estratégia própria para solucionar o respectivo enigma. Foram ainda analisadas outras questões inerentes ao mesmo problema. Verificámos ainda que as relações de simetria desempenham um papel preponderante, no sentido em que o seu conhecimento facilitou a resolução do problema. Contudo, e contrariamente ao que prevíamos, verificou-se que este problema estava fortemente relacionado com os quadrados mágicos. Mais, existem propriedades verificadas no enigma que são determinantes na construção de quadrados mágicos de ordem 3.