986 resultados para Métodos Semi-Empíricos


Relevância:

40.00% 40.00%

Publicador:

Resumo:

A utilização de métodos de formulação de misturas betuminosas tem como objetivo determinar a combinação de agregados e betume numa mistura, de tal modo que se obtenha um material de pavimentação tão económico quanto possível, fácil de fabricar e colocar, e que suporte os efeitos das cargas e do clima ao longo do seu ciclo de vida. As misturas colocadas nas camadas de pavimentos podem diferir no tipo de material agregado e na sua granulometria, no tipo e na quantidade de ligante, na utilização de aditivos ou agentes que modificam o betume, e na sua composição volumétrica. Os métodos empíricos de formulação de misturas betuminosas, como o método de Marshall, não permitem formular com a fiabilidade necessária misturas betuminosas com o desempenho mecânico adequado para resistir aos mecanismos de degradação a que vão ficar sujeitas nos pavimentos. Uma das alternativas ao método de Marshall é a metodologia de formulação volumétrica SUPERPAVE, desenvolvida no programa Strategic Highway Research Program(SHRP). Nesta metodologia o procedimento de seleção da percentagem ótima em betume é realizado com base nas propriedades volumétricas de provetes compactados com o compactador giratório. A percentagem ótima em betume depende da energia de compactação utilizada, sendo esta fornecida pelo número de giros a que o provete foi submetido. O equipamento geralmente usado nos ensaios é a prensa giratória de corte (PGC) que permite medir a compacidade e estimar com uma precisão suficiente a porosidade que será obtida insitu. Nestes métodos a seleção da curva granulométrica e da percentagem ótima de betume a usar é feita pela verificação da maior ou menor correspondência entre as composiçõestestadas e certos requisitos de compactabilidade pré-definidos, entendendo-se estes como uma medida da aptidão da mistura para apresentar bom comportamento no seu ciclo de vida. A prática portuguesa é a de utilizar o método de Marshall para formular misturas betuminosas convencionais e até algumas misturas não convencionais. Torna-se, assim, útil comparar os resultados de formulações obtidas por duas vias diferentes, tendo em conta que a utilização da prensa giratória de corte tem vindo a ser progressivamente integrada em várias metodologias de formulação utilizadas internacionalmente. Crê-se que os métodos baseados em PGC, mantêm alguma simplicidade de procedimentos, ao mesmo tempo que permitem amentar o nível de confiança nas composições a que se chega, no que diz respeito ao seu desempenho no seu ciclo de vida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen: El presente trabajo aborda la caracterización socio-ambiental de un tramo de la cuenca del Río Carcarañá que atraviesa el sur de la Provincia de Santa Fe, en Argentina. El sector de interés ha sido especialmente afectado por el desarrollo de la agricultura extensiva que, si bien ha sido un elemento determinante del crecimiento económico y de la expansión tanto de las áreas de uso agropecuario, como del medio urbano y recreacional hacia el rural, ha sido sometido a un uso extensivo que requiere analizar la vulnerabilidad ambiental de la cuenca por pérdida de bienes y servicios ecosistémicos, evaluar el soporte ambiental, el uso de los recursos y la sostenibilidad ambiental. Para lograr este objetivo se propone el empleo de La metodologia multimodal, para generar un marco de evaluaciones tanto sociales como biofísicas y energéticas y además bosquejar modelos empíricos y/o teóricos que permitan interpretar la dinámica de los diferentes contaminantes en la cuenca, así como las preocupaciones de la población con relación a estos temas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cirurgias ortognáticas bimaxilares representam um desafio para os cirurgiões, especialmente para reproduzir o plano de tratamento na sala operatória. O uso de guias cirúrgicos permite uma melhor reprodução do planejamento, mas, para isto, uma técnica precisa de cirurgia de modelos é essencial. O objetivo deste estudo é comparar a precisão do reposicionamento mandibular obtido com dois diferentes métodos de cirurgia de modelos utilizados para o planejamento de cirurgias bimaxilares com a seqüência cirúrgica invertida. Neste estudo, um crânio de resina foi utilizado para simular um paciente. As moldagens foram tomadas e os modelos foram vazados e montados em um articulador semi-ajustável por meio da transferência do arco-facial e do registro de mordida em cera. Traçados de previsão de 10 planos de tratamento diferentes foram feitos no software Dolphin Imaging e, então, reproduzidos com o método padrão (CM I) e método modificado (CM II) de cirurgia de modelos (T1). Para aprimorar a avaliação do reposicionamento mandibular, as cirurgias de modelo foram repetidas após um mês (T2). Os modelos mandibulares foram medidos na Plataforma de Erickson antes e depois do reposicionamento para contrastar os resultados. As diferenças no tempo de reposicionamento também foram registradas. Estatística descritiva e teste t foram usados para análisar os dados e comparar os resultados. Este estudo sugere que o reposicionamento vertical e látero-lateral dos modelos mandibulares foram semelhantes com ambos os métodos, entretanto, houve uma maior imprecisão no sentido ântero-posterior quando o método padrão de cirurgia modelos foi utilizado para o planejamento de cirurgias ortognáticas com a seqüência invertida. O tempo necessário para reposicionar o modelo mandibular no articulador semi-ajustável com a abordagem modificada (CM II) foi significativamente menor do que para reposicionar o modelo maxilar na Plataforma de Erickson (CM I).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os escoamentos altamente convectivos representam um desafio na simulação pelo método de elementos finitos. Com a solução de elementos finitos de Galerkin para escoamentos incompressíveis, a matriz associada ao termo convectivo é não simétrica, e portanto, a propiedade de aproximação ótima é perdida. Na prática as soluções apresentam oscilações espúrias. Muitos métodos foram desenvolvidos com o fim de resolver esse problema. Neste trabalho apresentamos um método semi- Lagrangeano, o qual é implicitamente um método do tipo upwind, que portanto resolve o problema anterior, e comparamos o desempenho do método na solução das equações de convecção-difusão e Navier-Stokes incompressível com o Streamline Upwind Petrov Galerkin (SUPG), um método estabilizador de reconhecido desempenho. No SUPG, as funções de forma e de teste são tomadas em espaços diferentes, criando um efeito tal que as oscilações espúrias são drasticamente atenuadas. O método semi-Lagrangeano é um método de fator de integração, no qual o fator é um operador de convecção que se desloca para um sistema de coordenadas móveis no fluido, mas restabelece o sistema de coordenadas Lagrangeanas depois de cada passo de tempo. Isto prevê estabilidade e a possibilidade de utilizar passos de tempo maiores.Existem muitos trabalhos na literatura analisando métodos estabilizadores, mas não assim com o método semi-Lagrangeano, o que representa a contribuição principal deste trabalho: reconhecer as virtudes e as fraquezas do método semi-Lagrangeano em escoamentos dominados pelo fenômeno de convecção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente pesquisa objetiva identificar o estado de compatibilidade entre os instrumentos contábeis de mensuração de ativos intangíveis e aqueles utilizados para estabelecer o valor econômico de atletas de futebol. Para isso, foi realizado um estudo de caso único em uma empresa de consultoria que realiza tal avaliação de atleta, com intuito de aprofundar na pesquisa de forma exploratória. As técnicas utilizadas para dar suporte à pesquisa foram análise documental e pesquisa semiestruturada, que contribuíram com os objetivos específicos deste estudo, além da análise bibliográfica. Como resultado de pesquisa pode-se verificar um alinhamento entre os indicadores de avaliação de atletas de futebol utilizados pela empresa objeto desse estudo e aqueles utilizados pelos métodos contábeis para avaliação dos ativos intangíveis com foco no capital humano. Dessa forma, o resultado apresentou a identificação de dez indicadores de alinhamentos, evidenciando uma padronização dos métodos e contribuindo com a redução da subjetividade na forma de avaliar os ativos intangíveis de uma maneira geral.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente tese resulta de um trabalho de investigação cujo objectivo se centrou no problema de localização-distribuição (PLD) que pretende abordar, de forma integrada, duas actividades logísticas intimamente relacionadas: a localização de equipamentos e a distribuição de produtos. O PLD, nomeadamente a sua modelação matemática, tem sido estudado na literatura, dando origem a diversas aproximações que resultam de diferentes cenários reais. Importa portanto agrupar as diferentes variantes por forma a facilitar e potenciar a sua investigação. Após fazer uma revisão e propor uma taxonomia dos modelos de localização-distribuição, este trabalho foca-se na resolução de alguns modelos considerados como mais representativos. É feita assim a análise de dois dos PLDs mais básicos (os problema capacitados com procura nos nós e nos arcos), sendo apresentadas, para ambos, propostas de resolução. Posteriormente, é abordada a localização-distribuição de serviços semiobnóxios. Este tipo de serviços, ainda que seja necessário e indispensável para o público em geral, dada a sua natureza, exerce um efeito desagradável sobre as comunidades contíguas. Assim, aos critérios tipicamente utilizados na tomada de decisão sobre a localização destes serviços (habitualmente a minimização de custo) é necessário adicionar preocupações que reflectem a manutenção da qualidade de vida das regiões que sofrem o impacto do resultado da referida decisão. A abordagem da localização-distribuição de serviços semiobnóxios requer portanto uma análise multi-objectivo. Esta análise pode ser feita com recurso a dois métodos distintos: não interactivos e interactivos. Ambos são abordados nesta tese, com novas propostas, sendo o método interactivo proposto aplicável a outros problemas de programação inteira mista multi-objectivo. Por último, é desenvolvida uma ferramenta de apoio à decisão para os problemas abordados nesta tese, sendo apresentada a metodologia adoptada e as suas principais funcionalidades. A ferramenta desenvolvida tem grandes preocupações com a interface de utilizador, visto ser direccionada para decisores que tipicamente não têm conhecimentos sobre os modelos matemáticos subjacentes a este tipo de problemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tese de doutoramento, Belas-Artes (Geometria), Universidade de Lisboa, Faculdade de Belas-Artes, 2014

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen tomado de la publicación. Monográfico titulado: economía de la educación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen tomado de la publicación. Monográfico titulado: orientación e intervención psicopedagógica en los contextos educativos, comunitarios y empresariales

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, desenvolvemos uma metodologia semi-analítica para solução de problemas de condução de calor bidimensional, não-estacionária em meios multicompostos. Esta metodologia combina os métodos nodal, com parâmetros concentrados, e a técnica da transformada de Laplace. Inicialmente, aplicamos o método nodal. Nele, a equação diferencial parcial que descreve o problema é integrada, transversalmente, em relação a uma das variáveis espaciais. Em seguida, é utilizado o método de parâmetros concentrados, onde a distribuição de temperatura nos contornos superior e inferior é substituída pelo seu valor médio. Os problemas diferenciais unidimensionais resultantes são então resolvidos com o uso da técnica da transformada de Laplace, cuja inversão é avaliada numericamente. O método proposto é usado na solução do problema de condução de calor, em paredes de edificações. A implementação computacional é feita, utilizando-se a linguagem FORTRAN e os resultados numéricos obtidos são comparados com os disponíveis na literatura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho busca explorar, através de testes empíricos, qual das duas principais teorias de escolha de estrutura ótima de capital das empresas, a Static Trade-off Theory (STT) ou a Pecking Order Theory(POT) melhor explica as decisões de financiamento das companhias brasileiras. Adicionalmente, foi estudado o efeito da assimetria de informações, desempenho e liquidez do mercado acionário nessas decisões. Utilizou-se no presente trabalho métodos econométricos com dados de empresas brasileiras de capital aberto no período abrangendo 1995 a 2005, testando dois modelos representativos da Static Trade-off Theory (STT) e da Pecking Order Theory(POT). Inicialmente, foi testado o grupo amplo de empresas e, posteriormente, realizou-se o teste em subgrupos, controlando os efeitos de desempenho e liquidez do mercado acionário, liquidez das ações das empresas tomadoras e assimetria de informações. Desta forma, os resultados obtidos são indicativos de que a Pecking Order Theory, na sua forma semi-forte, se constitui na melhor teoria explicativa quanto à escolha da estrutura de capital das empresas brasileiras, na qual a geração interna de caixa e o endividamento oneroso e operacional é a fonte prioritária de recursos da companhia, havendo algum nível, embora baixo, da utilização de emissão de ações. Os estudos empíricos para os subgrupos de controle sugerem que a liquidez do mercado e liquidez das ações das empresas são fatores de influência na propensão das empresas emitirem ações, assim como a assimetria de informação. O desempenho do mercado acionário, com base nos dados analisados, aparenta ter pouca influência na captação de recursos via emissões de ações das empresas, não sendo feito no presente estudo distinções entre emissões públicas ou privadas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.