891 resultados para simulação sequencial gaussiana


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta o modelo de simulação microscópico, STIRO (Simulador de Tráfego Ininterrupto ROdoviário), desenvolvido para representar trechos de rodovias de pista simples em aclives com faixas adicionais para veículos lentos. STIRO foi utilizado permitir para avaliar as condições de tráfego sob diferentes alternativas de projeto e demanda. O comportamento dos veículos é representado pelos modelos de car-following e lane-changing. No STIRO, o modelo de car-following ainda incorpora uma restrição ao desempenho motriz baseado na relação entre massa e potência de cada categoria de veículo. O trabalho apresenta um estudo sobre diferenças entre as velocidades dos veículos pesados e automóveis e as melhorias proporcionadas pela implantação de faixas adicionais. Por fim, foi realizado um projeto de experimentos para determinar o efeito sobre a velocidade média de percurso dos veículos e ocupação média da via causado por fatores como inclinação da rampa, proporção de veículos pesados no fluxo de tráfego, extensão da rampa, e outras variáveis consideradas no modelo STIRO.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma abordagem numérica da fratura baseada no Método dos Elementos Finitos na qual são considerados materiais frágeis como objeto de estudo. As simulações realizadas são possíveis através de um algoritmo computacional que consiste na implementação de molas entre as faces dos elementos finitos. Esta composição constitui o método denominado Interfaces Coesivas. As molas fornecem o efeito de coesão e é representado por leis constitutivas do tipo bi-linear. Sua descrição é apresentada, bem como sua implementação na análise. Tanto o modo I como o modo II de ruptura são considerados. Com o objetivo de verificar o presente modelo com outros resultados e soluções, são analisados exemplos numéricos e experimentais extraídos da literatura. Tais exemplos tratam da nucleação, propagação e eventuais paradas de trincas em peças estruturais submetidas aos mais diversos carregamentos e condições de contorno. É ainda discutido como os parâmetros de fratura do material interferem no processo de ruptura. Uma tentativa é feita de determinar estes parâmetros, em especial no caso de concreto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata da aplicabilidade da Simulação de Monte Carlo para a análise de riscos e, conseqüentemente, o apoio à decisão de investir ou não em um projeto. São abordados métodos de análise de riscos e seleção de projetos, bem como a natureza, vantagens e limitações da Simulação de Monte Carío. Por fim este instrumento tem sua viabilidade analisada sob a luz do processo de análise de riscos de uma empresa brasileira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A melhoria da qualidade da prestação de serviços em virtude do aumento da competitividade nas empresas vem se tornando uma realidade evidente para aquelas que desejam continuar atuantes no mercado de serviços. Esta melhoria deve ter como objetivo a satisfação das necessidades de seus clientes e para isto, abordagens de Qualidade como Lean Seis Sigma encontram as condições propícias para sua utilização. Lean Seis Sigma é uma metodologia de melhoria de qualidade que apresenta foco na variabilidade dos processos e objetiva a redução de falhas ou defeitos por meio do arcabouço de técnicas e ferramentas estatísticas da qualidade. Este trabalho tem como proposta a apresentação de um roteiro de referência para a aplicação de Lean Seis Sigma em Serviços utilizando-se, ainda, de Simulação Computacional de processos, uma poderosa ferramenta que possibilita maior agilidade e precisão à aplicação do roteiro. Inicialmente foi realizada uma revisão bibliográfica para apresentar um referencial teórico de conceitos sobre Lean Seis Sigma, Simulação Computacional e Casos de Implementação para que, a partir desta base, fosse desenvolvida o roteiro de aplicação de Lean Seis Sigma em Serviços. Para validação da proposição, realizou-se um estudo de caso em um processo de serviço de uma grande instituição financeira, aplicando-se o roteiro proposto e analisando os resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho apresenta análise e comentários sobre os critérios ideais para a tomada de decisão de viabilidade de um negócio imobiliário. Inicia comparando e elegendo os indicadores financeiros mais adequados. Posteriormente trata a decisão diante do risco e incerteza do mercado de incorporações imobiliárias utilizando como ferramentas a gestão dinâmica e a simulação para estimar a velocidade de vendas e obter probabilidade dos resultados. O modelo desenvolvido confere e recomenda um tratamento mais técnico e apurado ao processo de tomada de decisão e expõe suas vantagens diante da realidade mais simplista na análise de fluxo de caixa que é característica dominante do mercado atual

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A revisão de conceitos trata do tema risco e análise de risco, sob o aspecto teórico, definindo e explorando as dimensões dadas pelos estudiosos do assunto e pelos profissionais de seguro, dando conceitos de risco e técnicas de gestão de risco. Apresenta na seção prática um estudo de caso de subscrição de apólice de um grande lote de automóveis, derivado de uma situação real, modelando o problema e aplicando o método da simulação como ferramenta de análise de risco para problemas de incerteza na indústria de seguros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho e apresentado um avanço na tecnica GILTT(Generalized Integral and Laplace Transform Technique) solucionando analiticamente um sistema de EDO's(Equações Diferenciais Ordinarias) de segunda ordem resultante da transformação pela GITT(Generalized Integral Transform Technique). Este tipo de problema usualmente aparece quando esta tecnica é aplicada na solução de problemas bidimensionais estacionários. A principal idéia consiste na redução de ordem do problema transformado em outro sistema de EDO's lineares de primeira ordem e a solução analítica deste problema, pela técnica da transformada de Laplace. Como exemplo de aplicação é resolvida a equação da energia linear bidimensional e estacionária. São apresentadas simulações numéricas e comparações com resultados disponíveis na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo apresenta um sistema real de produção, numa fábrica de máquinas agrícolas localizada no Paraná, cuja produção é regida pela sazonalidade.É feita a análise do processo produtivo atual da peça mais complexa produzida na empresa, processo que hoje tem sua produção empurrada. Através de simulação computacional, é estudado o desempenho do sistema como ele é atualmente, e propostas alternativas com a produção sendo gerida através de kanban ou de CONWIP. São utilizados como medidas de desempenho a quantidade total produzida, inventário em processo e tempo de ciclo. Com a equalização do nível de serviços dos modelos, através do ajuste das quantidades de cartões kanban e CONWIP, torna-se possível uma comparação mais adequada dos sistemas de gestão, e escolha do que melhor se adapta à situação estudada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É consenso na análise antitruste que o ato de concentração de empresas com participação significativa deve sofrer averiguações quanto a sua aprovação em decorrência dos efeitos prejudiciais que pode gerar sobre a concorrência na indústria. Concorrência é sempre desejável por favorecer melhores níveis de bem-estar econômico. À luz das investigações econômicas que os sistemas de defesa da concorrência realizam, este trabalho analisa as mensurações da simulação de efeitos unilaterais de concentrações horizontais. As avaliações realizadas testam a utilização do modelo PC-AIDS (Proportionaly Calibrated AIDS), de Epstein e Rubinfeld (2002). Dentre algumas conclusões que se extraem do uso do modelo temos que: (i) em mercados com baixa concentração econômica, o modelo avaliado para um intervalo da vizinhança da elasticidade-preço própria estimada, traz mensurações robustas, e (ii) para mercados com alta concentração econômica uma atenção maior deve ser dada à correspondência dos valores calibrados e estimados das elasticidades-preços próprias, para que não ocorra sub ou superestimação dos efeitos unilaterais do ato de concentração. Esse resultado é avaliado no caso Nestlé/Garoto.