868 resultados para Produtividade industrial - Avaliação - Modelos matemáticos
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
O programa AGROSCRE foi elaborado para conferir agilidade da avaliação de modelos matemáticos screening, que auxiliam a análise do potencial de contaminação de agrotóxicos em água. Este trabalho apresenta o manual do usuário deste programa, possibilitando uma maior divulgação do uso dos modelos ?screening? e fomentando avaliações, cada vez mais fidedignas, da realidade local do ambiente de produção agrícola nacional, na medida em que os dados de entrada forem refinados. Foi desenvolvido em linguagem Quick Basic 4.5 e necessita de 11K de memória para ser utilizado em modo executável.
Resumo:
O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.
Resumo:
É consenso mundial a importância de estudos sobre a penetração de cloretos nos concretos, devido ao caráter deletério destes íons quanto à corrosão das armaduras. Quando os íons cloretos ingressam no concreto em quantidade suficiente causam a despassivação e a corrosão das armaduras, conduzindo à diminuição da vida útil das estruturas. Os cloretos podem ser introduzidos no concreto de várias maneiras: como aditivo, pela contaminação da água ou da areia, ou podem ingressar provindos do meio externo. Os cloretos potencialmente agressivos geralmente penetram na estrutura dissolvidos em água, através dos mecanismos de penetração de água e transporte de íons, sendo um dos mecanismos que ocorrem com maior freqüência a difusão. Este mecanismo de penetração de íons cloretos nas estruturas de concreto armado é influenciado pela relação água/aglomerante, o tipo de cimento, a presença de adições, a cura, o tempo, a temperatura de exposição, dentre outros, e seus valores ainda podem ser utilizados em modelos matemáticos para previsão de vida útil. Assim, este trabalho objetiva avaliar o coeficiente de difusão de cloretos em concretos confeccionados com dois tipos diferentes de cimento (CP II F e CP IV), cinco distintas relações água/cimento (0,28, 0,35, 0,45, 0,60 e 0,75), cinco temperaturas de cura (5, 15, 25, 30 e 40°C) e cinco diferentes idades (7, 14, 28, 63 e 91 dias). Paralelamente foram realizados ensaios de resistência à compressão axial e penetração acelerada de cloretos. A metodologia utilizada permitiu avaliar e medir os coeficientes de difusão de cloretos nos concretos confeccionados, tendo sido observados que os coeficientes diminuem com a elevação da temperatura de cura e da idade, com o uso do cimento CP IV e com a redução da relação água/cimento.
Resumo:
O objetivo final deste trabalho é investigar a existência de convergência da produtividade da mão-de-obra industrial entre os diversos estados e regiões brasileiras. Além disso, discute-se brevemente a conveniência de se usar dados da PIA na construção de séries de produtividade da mão-de-obra bem como faz-se comparações entre estimativas alternativas de produtividade. Ademais, a partir de dados extraídos de Censos Industriais (1960-85) e Pesquisas Industriais Anuais (1988-95) tenta-se identificar alguns fatos estilizados e regularidades com respeito a produtividade do trabalho no período em questão, com certa ênfase na questão regional.
Resumo:
Buscamos aferir ganhos na precificação de opções lançadas sobre a ação Telebrás PN, com a utilização de modelos auto regressivos de volatilidade· condicionada, cujos resultados foram comparados àqueles gerados pelos procedimentos numéricos de volatilidades históricas e implícitas. Nesta tarefa, a dinâmica do estudo levou ao estabelecimento de novos objetivos, que destacamos: a) identificação de modelos mais eficientes para filtragem da média do processo sobre retornos de Telebrás PN, que eventualmente pudessem otimizar o emprego dos modelos da classe ARCH; b) aferir anomalias de mercadodevidas a negociaçõesem dias específicos da semana; c) esclarecer influências exercidas pela sensibilidade dos preços das opções sobre a eficiência dos modelos de volatilidade condicionada, com vista a definir condições para o alcance de resultados práticos no campo da precificação de opções.
Resumo:
Análise do comportamento dos principais índices de risco no mercado de ações de São Paulo no período de julho de 1984 a junho de 1990. Estudo das condições de diversificação presentes no mercado acionário paulista neste período. Teste do "Single Index Model" e dos principais modelos de avaliação de ações.
Resumo:
Trata de modelos de avaliação debonds, dentro de uma abordagem evolutiva. Apresenta a evolução das técnicas de precificação desses títulos de renda fixa. Inicialmente discute a abordagem tradicional, que compreende a determinação do valor do fluxo de caixa descontado e a análise de sensibilidade dos preços dos títulós a alterações nas taxas de juros, bem como imunização de carteira de bonds quando seadmite uma estrutura temporal de juros constante. A seguir apresenta as várias formas da curva de juros a vista e as teorias econômicas elaboradas para explicar estas formas. Finalmente, traz modelos dinâmicos de determinação da estrutura temporal de juros, desenvolvidos para tempo contínuo e para tempo discreto.
Resumo:
Trata dos diversos modelos de avaliação de bancos disponíveis na literatura de finanças, comparando seus fundamentos teóricos e o tratamento dado às características singulares dos bancos proporcionadas pela atividade de intermediação financeira. Para cada modelo, são abordados os principais determinantes de valor, suas limitações e aplicabilidade prática.
Resumo:
Discute-se como a assimetria de informações afeta os modelos de precificação de ativos e algumas das consequências para os testes de eficiência. No primeiro capítulo são apresentados dois modelos que partiram da hipótese que os agentes possuem informação completa sobre as variáveis econômicas: o CAPM e o Black-Scholes. No segundo capítulo procura-se verificar até que ponto é possível modelar a economia dadas estas imperfeições. Partindo de uma variação de AkerIoff (1970), mostra-se que quando uma parte de posse de uma informação superior transaciona com outra, ocorre uma falha de mercado, a seleção adversa, podendo até gerar o colapso do mercado. O segundo modelo analisado, Bray (1989), mostra como as informações privilegiadas são incorporadas ao preço e o último modelo, Kyle (1985), analisa como a presença de um agente com informação privilegiada afeta a liquidez do mercado. O terceiro capítulo faz um teste para a eficiência do mercado de câmbio brasileiro. Apesar de não se poder negar a presença de co integração entre as séries, não se pode aceitar a hipótese de eficiência semi-forte, ou seja, a hipótese de que o mercado futuro seria um estimador não viesado para o mercado à vista, o que pode ser interpretado como indicação de informação incompleta ou imperfeita.
Um estudo sobre a produtividade total dos fatores em setores de diferentes intensidades tecnólogicas
Resumo:
Este trabalho investigou o problema da determinação da produtividade total dos fatores em diversos setores industriais. Tal determinação se dá por meio de estimação de funções de produção, obtendo-se a produtividade a partir do resíduo destas estimações. A questão que aflora deste procedimento é a existência de correlação entre os resíduos e as variáveis explicativas, implicando em diversos vieses, entre eles o de simultaneidade, de variáveis omitidas e de seleção. Neste trabalho foram abordados diversos métodos de estimação de funções de produção, entre eles os métodos de Olley e Pakes e Levinsohn e Petrin. Todos os métodos foram aplicados a diversos setores da economia. A escolha dos setores se deu com base na intensidade tecnológica de cada um, sendo então escolhidos quatro setores de alta intensidade tecnológica e quatro de baixa intensidade tecnológica. A hipótese básica, fio condutor deste trabalho, é que os diversos métodos de estimação de funções de produção apresentam diferentes resultados quando aplicados a setores de diferentes intensidades tecnológicas. Um dos objetivos deste estudo foi identificar se determinado método seria mais adequado a setores de baixa intensidade tecnológica, enquanto outro seria mais apropriado a setores de alta intensidade tecnológica. Conclui-se que o método de Olley e Pakes é levemente superior ao de Levinsohn e Petrin em ambos os grupos de setores, mas não a ponto de se descartar o segundo método. A sensibilidade dos resultados aos diferentes métodos sugere que todos devem ser consultados. Um resultado adicional deste trabalho é a constatação de que houve queda ou estagnação da produtividade nos setores selecionados para a década de 1996 a 2005.
Resumo:
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
Resumo:
Uma questão decisiva na literatura empírica de avaliação do regime de metas diz respeito ao papel desta estratégia monetária na redução do nível da taxa de inação verificada nos países que a adotaram. Neste trabalho utilizamos o método de Controle Sintético desenvolvido por Abadie, Dimond e Hainmuller (2010) para investigar o impacto do regime de metas sobre a taxa de Inflação em sete países da OCDE: Austrália, Canadá, Espanha, Finlândia, Nova Zelândia, Reino Unido e Suécia. Nossos resultados indicam que a opção pelo regime de metas contribuiu para redução da taxa de inflação em pelo menos dois destes países: Finlândia e Reino Unido. Antes desta parte empírica, estendemos a análise de Abadie, Dimond e Hainmuller( 2010) de um modelo estatístico utilizado para motivar a utilização do Contole Sintético.
Resumo:
Esta dissertação pretende ser uma abordagem empírica para testar a validade de um modelo matemático para avaliação de comportamentos proposto por Ziviani (1974), quanto ao seu emprego para avaliar e quantificar respostas a questões de múltipla escolha, tendo como critério o modelo tradicional da psicometria clássica. É portanto, um estudo comparativo entre os resultados (escores) obtidos através deste modelo, por um lado, e através do método tradicional, em termos da dicotomia certo-errado, por outro. Visa mostrar como as variações no instrumento de medida (teste) ou instrumentos de medida com características diferentes determinam variações nos escores fornecidos pelos dois modelos e que estes escores são tanto mais equivalentes quanto "melhor" for o teste a que se referem.