999 resultados para SIMULAÇÃO (AVALIAÇÃO)
Resumo:
Os critérios de outorga adotados nas legislações dos estados inseridos no semi-árido - a fim de regulamentar a vazão de referência a partir de açudes - tem se baseado simplesmente em volumes (vazões) associados a níveis de confiabilidade de atendimento à demanda, não estabelecendo políticas operacionais que tornem seus usos menos vulneráveis às falhas prolongadas e concentradas que são comuns à região. Este trabalho tem o objetivo de avaliar as vazões de referência segundo as políticas de operação (PO) padrão e volumes de alerta. A primeira é uma operação menos arrojada se comparada com a segunda. Isto decorre do fato que na primeira não há maiores preocupações com a vulnerabilidade nos períodos de falha. Já a política de operação baseada em volumes de alerta assegura que na pior situação um suprimento mínimo será realizado. Foi elaborado um modelo de simulação com sub-tarefas de operação de reservatório, operação de projetos hidroagrícolas, operação de atendimento às demandas, avaliação econômica dos déficits e fornecimento de indicadores para subsidiar as avaliações. Dentre os indicadores fornecidos pelo modelo destacam-se: confiabilidade mensal da demanda primária, confiabilidade mensal da demanda secundária, confiabilidade anual do sucesso da atividade agrícola, anuidade equivalente dos custos de falha na demanda primária, anuidade equivalente dos benefícios líquidos da agricultura, anuidade líquida equivalente e total evaporado. Diante da análise de tais indicadores chegou-se à conclusão de que a PO volumes de alerta apresentou resultados superiores à operação padrão. O fato de assegurar o suprimento durante os longos e concentrados períodos de falha gera uma economia que não é superada pelo incremento de água oferecido pela PO padrão.Constatou-se também que a PO padrão coloca todas as categorias de demanda sob o mesmo patamar de vulnerabilidade, enquanto que na PO volumes de alerta as cotas são oferecidas com garantias diferenciadas, sendo mais atraentes do ponto de vista do gerenciamento.
Resumo:
Trata da aplicabilidade da Simulação de Monte Carlo para a análise de riscos e, conseqüentemente, o apoio à decisão de investir ou não em um projeto. São abordados métodos de análise de riscos e seleção de projetos, bem como a natureza, vantagens e limitações da Simulação de Monte Carío. Por fim este instrumento tem sua viabilidade analisada sob a luz do processo de análise de riscos de uma empresa brasileira.
Resumo:
A revisão de conceitos trata do tema risco e análise de risco, sob o aspecto teórico, definindo e explorando as dimensões dadas pelos estudiosos do assunto e pelos profissionais de seguro, dando conceitos de risco e técnicas de gestão de risco. Apresenta na seção prática um estudo de caso de subscrição de apólice de um grande lote de automóveis, derivado de uma situação real, modelando o problema e aplicando o método da simulação como ferramenta de análise de risco para problemas de incerteza na indústria de seguros.
Resumo:
O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
O objeto de estudo deste trabalho é uma avaliação dos impactos econômicos e ambientais de um possível acordo comercial da Área de Livre Comércio da Américas (ALCA) concomitantemente com as reduções de emissões de CO2 tratadas pelo Protocolo de Quioto. Acordos globais de redução de CO2 podem distorcer os resultados que seriam obtidos pelos acordos comerciais, e os acordos comerciais tendem a gerar mais emissões de CO2. Os cenários são construídos para a simulação de eliminação dos gravames tarifários entre os membros da ALCA bem como de redução de emissão de CO2 para os signatários do Protocolo, admitindo ainda a possibilidade de execução de um dos mecanismos de flexibilidade do Protocolo de Quioto – o comércio de emissões. O instrumento utilizado para as simulações - GTAP-E - é uma versão modificada do GTAP (Global Trade Analysis Project) desenvolvido pela Universidade de Purdue. O GTAP-E (energia), foi projetado para analisar assuntos relacionados ao uso de energia e impactos de políticas de mudança climática. Ele difere do modelo GTAP padrão principalmente pela descrição mais detalhada das possibilidades de substituição de uso entre as diferentes fontes de energia. Esse modelo utiliza uma base de dados que, além dos dados usualmente utilizados pelo GTAP padrão, inclui elasticidades de substituição para o uso dos commodities energia e quantidades de emissões de CO2 gerados pela queima dos combustíveis fósseis (carvão, petróleo cru e gás natural), e também pelo uso de produtos derivados do petróleo e geração de eletricidade Os resultados obtidos corroboraram a hipótese que a política ambiental de redução de emissões, apesar de contribuir para a diminuição de CO2 na atmosfera, de forma geral, afeta negativamente o bem-estar econômico dos países que abatem emissões, principalmente através do encarecimento das commodities de energia e a conseqüente redução do seu uso. Esse efeito é mais pronunciado em países cuja matriz energética é mais intensiva em carvão e petróleo. Para o Brasil, os resultados mostraram que a melhor estratégia para participar do processo de redução de emissões seria a de o país estar inserido diretamente no mecanismo de comércio de emissões. Essa situação traria ganhos de bemestar econômico, avaliados pela variação equivalente da renda, superiores, em comparação às alternativas em que o mesmo não participa de tal mecanismo.
Resumo:
O objetivo deste trabalho foi o de analisar o movimento da água no perfil de solos hidromórficos, do tipo glei, com camada de impedimento, quando irrigados por sulcos. Esses solos têm vocação para o cultivo do arroz irrigado por inundação, sendo considerados marginais para outros cultivos. A monocultura, decorrente dessas características, traz consigo o surgimento de limitações ao cultivo, destacando-se entre elas o surgimento de invasoras como arroz vermelho e preto, (Oryza sativa L.) que, por serem da mesma espécie da planta cultivada, não podem ser erradicadas por meio de controle químico com aplicação de herbicidas. A introdução de cultivos alternativos ao de arroz é limitada, entre outros fatores, pela pequena capacidade de armazenamento de água desses solos, o que torna a irrigação prática imprescindível nesses casos. A pequena profundidade da camada impermeável, entretanto, constitui um impedimento à penetração tanto do sistema radicular como da água. Considerando que, neste método a profundidade de umedecimento não é a mesma, em conseqüência de o tempo de permanência da lâmina sobre a superfície também não ser o mesmo, para que a profundidade mínima de irrigação seja igual à profundidade do sistema radicular, haverá sempre um excesso que irá percolar além dessa profundidade. Como a profundidade destes solos está em torno de 0,40m, o excesso de água ao ter sua percolação impedida, tende a saturar o perfil de maneira ascendente, a partir da camada de impedimento. Buscando uma contribuição para a solução da problemática, procurou-se acompanhar o movimento da água de irrigação no perfil desse tipo de solo, quando irrigado pelo método de sulcos. Para tal, foi implantado um cultivo de sorgo granífero (Sorghun bicolor L.), irrigado por sulcos retilíneos com 200m de comprimento e espaçamento de 0,95m. O movimento da água no interior do solo foi monitorado por meio das variações de umidade, com a utilização da prática da reflectometria no domínio do tempo (TDR). As variações do conteúdo de água do solo, durante e após 24 horas cessada a irrigação, indicaram que a distribuição da água no perfil do solo foi bastante boa, não restando pontos com deficiência de umidade e não alcançando, a saturação, uma altura muito significativa, que pudesse comprometer o desenvolvimento de cultivos mesofíticos. A eficiência de aplicação calculada foi de 84%, considerada muito alta para esse método de irrigação. Foi aplicado, utilizando-se os dados do experimento, um modelo de simulação de irrigação superficial, desenvolvido pelo U. S. Water Conervation Laboratory, do U. S. Department of Agriculture, Simulation Irrigation Model SRFR. A simulação realizada pelo modelo não representou o movimento da água no solo, da mesma forma como este foi observado no campo.
Resumo:
A análise do comportamento estrutural sob incêndio constitui uma parte importante da engenharia de proteção contra incêndio, especialmente no caso de estruturas de aço, por sua alta condutividade térmica e relativa esbeltez das seções. As dificuldades econômicas e práticas, associadas à avaliação do comportamento estrutural, por meio de ensaios em escala real, têm estimulado o desenvolvimento e uso de métodos de simulação numérica. Esta tese trata da simulação numérica do comportamento de estruturas de aço sob condições de incêndio e se divide em três partes. As duas primeiras partes foram desenvolvidas na Universidade de Liége, na Bélgica, usando-se o programa SAFIR como ferramenta numérica. A terceira parte foi desenvolvida de forma independente, na Universidade Federal do Rio Grande do Sul. Na primeira parte, é feito um estudo comparativo entre o uso de elementos finitos de viga e de casca, na modelagem de vigas simplesmente apoiadas, sujeitas a flambagem lateral por torção. Os esforços de torção, presentes no caso de flambagem lateral, podem levar a uma plastificação da seção transversal e à conseqüente redução da rigidez à torção da seção. Da mesma forma, a degradação das propriedades do material, com o aumento da temperatura, leva à redução da rigidez à torção Havia dúvidas se o modelo com elementos de viga, com uma rigidez à torção constante, poderia fornecer uma resposta aceitável. O estudo mostrou que uma resposta com boa precisão pode ser conseguida, usando-se elementos de viga, desde que o módulo de elasticidade transversal seja ajustado para refletir seu valor correspondente à temperatura de falha. Isso implica um processo iterativo, uma vez que a temperatura de falha não é previamente conhecida. Por outro lado, a degradação da rigidez à torção, por efeitos de plastificação, pode ser ignorada. Na segunda parte, é feita a comparação entre as modelagens bidimensional e tridimensional, de galpões industriais de um andar, sob incêndio. Comumente, a estrutura de galpões industriais é composta por pórticos-tipo, dispostos em paralelo. A análise desses galpões é comumente feita pela simulação no plano do pórtico de aço ou, simplesmente, da treliça da cobertura Na análise bidimensional, importantes efeitos fora do plano são ignorados, como a redistribuição de esforços devido à degradação do material ou à expansão térmica, ou instabilidade lateral dos elementos. A importância desses efeitos e a adequabilidade do modelo 2D para representar o comportamento real são discutidas. Na terceira parte, um modelo numérico para a simulação tridimensional do comportamento de estruturas de aço sob incêndio é apresentado. O modelo é baseado no conceito de rótulas plásticas generalizadas, com modificações para melhor representar a formação e expansão da plastificação no elemento. A descrição cinemática adotada permite obter bons resultados, mesmo com o uso de poucos elementos. A determinação do vetor de esforços internos no elemento, incluindo os efeitos da temperatura, é detalhada. O procedimento foi validado por comparação com ensaios e com modelos numéricos mais sofisticados, como o programa SAFIR. Os resultados demonstram que o procedimento proposto pode ser usado como uma forma alternativa de análise 3D de estruturas sob incêndio, com precisão razoável e baixo esforço computacional.
Resumo:
A manutenção de um sistema bancário hígido e com níveis de concorrência que estimulem a oferta de produtos financeiros que atendam à sociedade é um objetivo desejável, porém difícil de ser atingido. A dificuldade resine no trade-off, ainda não consensual, entre questões ligadas à estabilidade sistêmica e questões concorrenciais. Claramente, os sistemas bancários são indispensáveis no processamento de fluxo de capitais e na administração da intermediação entre poupadores e tomadores de crédito (Freixas e Roche, 2007). Essa atividade tem a característica marcante de risco de solvência (Diammond e Dybvig, 1983), mas, ainda assim, não há conformidade de motivo e forma de regulá-la (Dewatripont e Tirole, 1994). Sobre estas questões desenvolvemos uma análise histórico-institucional com o objetivo de contextualizar o estado atual no Brasil. Vale notar que, no setor bancário, também não há consenso sobre as formas de mensurar variáveis importantes para a literatura de Organização Industrial, como Poder de Mercado e Nível de Concorrência. Para contribuir com a discussão metodológica quanto às bases de dados e aos modelos de competição, foram realizados testes com os modelos Bresnahan e Lau (1982), Panzar e Rosse (1987) e Boone (2008), além das medidas usuais de concentração Cn e HHI, avaliando o setor bancário pelas unidades bancárias (CNPJ) e pelos Conglomerados Financeiros. Os testes apontam diferença estatística no uso destas bases a partir de 2004. Outra lacuna existente na literatura é a ausência de modelos para a simulação das variações da oferta de crédito provenientes de variações na estrutura ou modo de competição. Este trabalho também traz contribuições no entendimento das relações de Poder de Mercado e Nível de Competição no Mercado de Empréstimos Bancário brasileiro. Para tanto, são realizados testes, sobre uma estrutura de função de produção, onde os resultados confirmam as hipóteses clássicas quanto ao uso de poder de mercado de forma unilateral e à eficiência de escala, no nível do conglomerado bancário.
Resumo:
O principal objetivo deste trabalho é estabelecer caminhos apropriados para a estimativa da eficiência de pratos valvulados com downcomer e pratos dualflow em colunas de destilação industriais. O conhecimento da eficiência tem importância fundamental no projeto e na avaliação do desempenho de colunas de destilação. Pesquisando a literatura, pôde ser identificada uma árvore de alternativas para compor o modelo de eficiência de prato, dependendo dos modelos de transferência de massa, do modelo de distribuição das vazões de líquido e vapor sobre o prato, do modelo de arraste de líquido, do modelo de equilíbrio da mistura multi-componente, dos modelos de propriedades físicas, do modelo da altura da espuma sobre o prato e da definição de eficiência. Neste trabalho, diferentes métodos para a predição da eficiência em pratos valvulados e pratos dualflow foram compostos e comparados contra dados de três colunas de destilação industriais sob diferentes condições operacionais. Os modelos foram inseridos no simulador Aspen Plus 12.1, em linguagem Fortran, junto com dados geométricos dos pratos, propriedades dos fluidos e dados de operação das colunas de destilação industriais. Para cada coluna foi escolhido o melhor pacote termodinâmico pela verificação dos perfis de temperatura e composições de topo e fundo obtidos via simulação contra os valores reais correspondentes das colunas de destilação industriais. Foi feita uma modificação no parâmetro da fração de furos que estão em jetting no modelo hidráulico da dispersão acima do prato de Garcia (1999). Essa modificação produziu resultados melhores na predição da fração de furos em jetting e eficiência dos pratos dualflow e resultados similares aos de Garcia (1999) para a eficiência dos pratos valvulados.
Resumo:
A análise do galgamento de estruturas portuárias não só é importante para a avaliação da segurança de bens, pessoas e equipamentos e das atividades junto a elas desenvolvidas, como também a nível económico e financeiro. A finalidade deste trabalho é a aplicação da metodologia desenvolvida pelo Laboratório Nacional de Engenharia Civil (LNEC) para a avaliação do risco de galgamento de estruturas portuárias ao Porto de Ponta Delgada, Açores, num período de dois anos (2011 e 2012), para cinco secções nele enquadradas. A metodologia desenvolvida ao longo desde trabalho apresenta como componentes essenciais a caraterização da agitação marítima a que estão sujeitas as secções em estudo e o cálculo do caudal médio de galgamento por metro linear de estrutura. Estas duas variáveis, inicialmente estudadas e indispensáveis neste trabalho, são obtidas com base em dados de agitação marítima em águas profundas fornecidas pelo modelo regional de previsão de agitação WAVEWATCH III, que, acoplado ao modelo espetral SWAN e ao modelo de declive suave DREAMS, permite a obtenção da agitação marítima incidente na entrada do porto e no seu interior, respetivamente. Os resultados do modelo SWAN são validados mediante uma comparação com dados medidos in situ pela boia ondógrafo localizada ao largo da zona em estudo. Os parâmetros de agitação marítima obtidos para as cinco secções em análise permitem determinar o caudal médio de galgamento, com recurso à ferramenta NN_OVERTOPPING, baseada em redes neuronais.Em seguida, como resultado da combinação entre os valores de probabilidades e de consequências associadas, quando ultrapassado um determinado caudal médio de galgamento admissível anteriormente estabelecido para cada zona em estudo, é obtido um grau de risco de galgamento para cada zona analisada, o que permite criar um mapa de risco que servirá de informação para o planeamento de operações e de futuras intervenções nessa envolvente.
Resumo:
Os danos provocados por sismos encontram-se diretamente relacionados com os movimentos do solo que este possa provocar, com a vulnerabilidade da estrutura geológica e com a capacidade das construções para resistirem a tais ações. A preocupação na salvaguarda da vida humana e no mitigar dos danos provocados por eventos sísmicos conduziu a um grande avanço e aperfeiçoamento na compreensão do fenómeno, nas suas consequências e nas técnicas de conceção e de dimensionamento sismo-resistentes. À medida que as exigências técnicas evoluem, procura-se desenvolver métodos de análise que descrevam melhor o comportamento real das estruturas. Embora atualmente as análises dinâmicas tridimensionais lineares com base em análises modais e em coeficientes de comportamento sejam muito utilizadas, devido essencialmente à sua simplicidade e rapidez de execução, tem-se verificado uma crescente aderência a novas metodologias que têm diretamente em conta o comportamento não linear das estruturas quando sujeitas a ações sísmicas. Esta tese tem como principal objetivo estudar diferentes técnicas de simulação numérica do comportamento sísmico de estruturas de betão armado. São descritas as principais características das metodologias de simulação numérica mais utilizadas tanto em gabinete de projeto como em estudos de investigação. É dada especial atenção às análises dinâmicas não lineares, uma vez que esta técnica foi utilizada para simular o comportamento de uma estrutura de betão armado de um piso, que foi ensaiada no âmbito da 15ª Conferência Mundial em Engenharia Sísmica. Para avaliar a capacidade de simulação desta técnica, os resultados numéricos são diretamente comparados com os resultados experimentais, sendo possível verificar uma boa concordâncias entre ambos.
Resumo:
Nowadays, evaluation methods to measure thermal performance of buildings have been developed in order to improve thermal comfort in buildings and reduce the use of energy with active cooling and heating systems. However, in developed countries, the criteria used in rating systems to asses the thermal and energy performance of buildings have demonstrated some limitations when applied to naturally ventilated building in tropical climates. The present research has as its main objective to propose a method to evaluate the thermal performance of low-rise residential buildings in warm humid climates, through computational simulation. The method was developed in order to conceive a suitable rating system for the athermal performance assessment of such buildings using as criteria the indoor air temperature and a thermal comfort adaptive model. The research made use of the software VisualDOE 4.1 in two simulations runs of a base case modeled for two basic types of occupancies: living room and bedroom. In the first simulation run, sensitive analyses were made to identify the variables with the higher impact over the cases´ thermal performance. Besides that, the results also allowed the formulation of design recommendations to warm humid climates toward an improvement on the thermal performance of residential building in similar situations. The results of the second simulation run was used to identify the named Thermal Performance Spectrum (TPS) of both occupancies types, which reflect the variations on the thermal performance considering the local climate, building typology, chosen construction material and studied occupancies. This analysis generates an index named IDTR Thermal Performance Resultant Index, which was configured as a thermal performance rating system. It correlates the thermal performance with the number of hours that the indoor air temperature was on each of the six thermal comfort bands pre-defined that received weights to measure the discomfort intensity. The use of this rating system showed to be appropriated when used in one of the simulated cases, presenting advantages in relation to other evaluation methods and becoming a tool for the understanding of building thermal behavior
Resumo:
The new oil reservoirs discoveries in onshore and ultra deep water offshore fields and complex trajectories require the optimization of procedures to reduce the stops operation during the well drilling, especially because the platforms and equipment high cost, and risks which are inherent to the operation. Among the most important aspects stands out the drilling fluids project and their behavior against different situations that may occur during the process. By means of sedimentation experiments, a correlation has been validated to determe the sedimentation particles velocity in variable viscosity fluids over time, applying the correction due to effective viscosity that is a shear rate and time function. The viscosity evolution over time was obtained by carrying out rheologic tests using a fixed shear rate, small enough to not interfere in the fluid gelling process. With the sedimentation particles velocity and the fluid viscosity over time equations an iterative procedure was proposed to determine the particles displacement over time. These equations were implemented in a case study to simulate the cuttings sedimentation generated in the oil well drilling during stops operation, especially in the connections and tripping, allowing the drilling fluid project in order to maintain the cuttings in suspension, avoiding risks, such as stuck pipe and in more drastic conditions, the loss of the well