971 resultados para Adsorção Métodos de simulação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foram investigados diferentes métodos de preparação de amostra para a determinação de níquel e vanádio em óleo cru usando a espectrometria de absorção atômica com forno de grafite (GF AAS). Investigou-se o uso de xileno como diluente, o qual foi inadequado devido à baixa estabilidade de níquel nas soluções e resultando na contaminação do equipamento. As soluções diluídas em isobutilmetilcetona apresentaram melhor estabilidade, mas não houve reprodutibilidade das medidas com os padrões orgânicos de níquel. Melhores resultados foram obtidos com emulsões óleo-em-água, usando Triton X-100 como surfactante. Também foi estudado o uso de padrões aquosos (inorgânicos) para o preparo das emulsões. Após o estabelecimento de curvas de pirólise para padrão e amostra de óleo cru, observou-se diferença no comportamento térmico do níquel na matriz de óleo cru. Foi então realizada uma investigação usando um espectrômetro de absorção atômica com fonte contínua de alta resolução (HR-CS AAS), equipamento com elevada capacidade de correção de fundo, e constatou-se que cerca de 50 % do analito é perdido em temperaturas abaixo de 400 ºC, enquanto que o restante é termicamente estável até pelo menos 1200 ºC. A fim de resolver o problema de perda de níquel volátil, foi investigado o uso de paládio como modificador químico. Através de curvas de pirólise com e sem paládio, observou-se que a mesma perda também ocorreu para o vanádio. Após a otimização da melhor quantidade de paládio, verificou-se que foi necessária uma quantidade de 20 µg de paládio para estabilização de níquel e vanádio. A determinação de níquel e vanádio total em amostras de óleo cru foi realizada usando-se paládio como modificador químico. A especiação destes elementos foi possível através da determinação das espécies estáveis, provavelmente compostos salinos não porfirínicos de níquel e vanádio, sem a adição de paládio, e a fração de compostos voláteis (provavelmente porfirinas de níquel e vanádio) foi calculada por diferença. Estabeleceram-se as figuras de mérito obtendo-se valores de massa característica de 19 e 33 pg e limite de detecção de 43 e 113 pg para níquel e vanádio, respectivamente. Esses resultados são compatíveis com dados reportados na literatura. A exatidão deste procedimento foi verificada pela análise dos materiais de referência certificados de metais traço em óleo residual (SRM 1634c) para níquel e vanádio e o petróleo (RM 8505) somente para vanádio e também por comparação com os resultados obtidos por HR-CS AAS para várias amostras de óleo cru. A aplicação do teste estatístico t-student aos resultados de níquel e vanádio total obtidos por GF AAS e HR-CS AAS mostrou que os mesmos não são significativamente diferentes a um nível de 95% de confiança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A revisão de conceitos trata do tema risco e análise de risco, sob o aspecto teórico, definindo e explorando as dimensões dadas pelos estudiosos do assunto e pelos profissionais de seguro, dando conceitos de risco e técnicas de gestão de risco. Apresenta na seção prática um estudo de caso de subscrição de apólice de um grande lote de automóveis, derivado de uma situação real, modelando o problema e aplicando o método da simulação como ferramenta de análise de risco para problemas de incerteza na indústria de seguros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho e apresentado um avanço na tecnica GILTT(Generalized Integral and Laplace Transform Technique) solucionando analiticamente um sistema de EDO's(Equações Diferenciais Ordinarias) de segunda ordem resultante da transformação pela GITT(Generalized Integral Transform Technique). Este tipo de problema usualmente aparece quando esta tecnica é aplicada na solução de problemas bidimensionais estacionários. A principal idéia consiste na redução de ordem do problema transformado em outro sistema de EDO's lineares de primeira ordem e a solução analítica deste problema, pela técnica da transformada de Laplace. Como exemplo de aplicação é resolvida a equação da energia linear bidimensional e estacionária. São apresentadas simulações numéricas e comparações com resultados disponíveis na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo apresenta um sistema real de produção, numa fábrica de máquinas agrícolas localizada no Paraná, cuja produção é regida pela sazonalidade.à feita a análise do processo produtivo atual da peça mais complexa produzida na empresa, processo que hoje tem sua produção empurrada. Através de simulação computacional, é estudado o desempenho do sistema como ele é atualmente, e propostas alternativas com a produção sendo gerida através de kanban ou de CONWIP. São utilizados como medidas de desempenho a quantidade total produzida, inventário em processo e tempo de ciclo. Com a equalização do nível de serviços dos modelos, através do ajuste das quantidades de cartões kanban e CONWIP, torna-se possível uma comparação mais adequada dos sistemas de gestão, e escolha do que melhor se adapta à situação estudada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

à consenso na análise antitruste que o ato de concentração de empresas com participação significativa deve sofrer averiguações quanto a sua aprovação em decorrência dos efeitos prejudiciais que pode gerar sobre a concorrência na indústria. Concorrência é sempre desejável por favorecer melhores níveis de bem-estar econômico. à luz das investigações econômicas que os sistemas de defesa da concorrência realizam, este trabalho analisa as mensurações da simulação de efeitos unilaterais de concentrações horizontais. As avaliações realizadas testam a utilização do modelo PC-AIDS (Proportionaly Calibrated AIDS), de Epstein e Rubinfeld (2002). Dentre algumas conclusões que se extraem do uso do modelo temos que: (i) em mercados com baixa concentração econômica, o modelo avaliado para um intervalo da vizinhança da elasticidade-preço própria estimada, traz mensurações robustas, e (ii) para mercados com alta concentração econômica uma atenção maior deve ser dada à correspondência dos valores calibrados e estimados das elasticidades-preços próprias, para que não ocorra sub ou superestimação dos efeitos unilaterais do ato de concentração. Esse resultado é avaliado no caso Nestlé/Garoto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo analisar a participação de mercado dos diferentes grupos estratégicos que compõem o setor de agências de internet no Brasil, bem como as mudanças decorrentes de alterações nas variáveis críticas de concorrência, tais como preço, investimento em propaganda, investimento em tecnologia e disponibilidade de mão-de-obra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica â simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.