166 resultados para PROBABILIDADE E ESTATISTICA APLICADAS
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
Foram produzidas dispersões aquosas não-poluentes e inovadoras de poli(uretano-uréia) à base de poli(glicol propilênico) (PPG) e de copolímeros em bloco, poli(glicol etilênicob-glicol propilênico), (EG-b-PG) com teor de 7% de unidades de glicol etilênico. Os poli(uretano-uréia)s foram preparados, em duas etapas, pelo método do prepolímero. Na primeira etapa, foram obtidos anionômeros, sintetizados em massa, à base do copolímero EG-bPG, PPG, ácido dimetilol propiônico (DMPA) (gerador dos sítios aniônicos) e diisocianato de isoforona (IPDI). Ainda na primeira etapa, os grupos carboxílicos do DMPA foram submetidos à neutralização com trietilamina (TEA). Na segunda etapa, foi realizada a dispersão do prepolímero anionômero e, em seguida, foi conduzida a reação de extensão de cadeia com a hidrazina (HYD). Nas diferentes formulações, foram variadas a razão NCO/OH e as proporções de PPG e do copolímero em bloco EG-b-PG. Além disso, foram obtidas dispersões aquosas programadas para teores de sólidos de 40 e 50%. As dispersões foram avaliadas quanto ao teor de sólidos totais, tamanho médio de partícula e viscosidade. Os filmes, obtidos por vazamento das dispersões, foram avaliados quanto à absorção de água, termogravimetria (TG) e propriedades mecânicas (ensaio de tração). Os filmes vazados e os monômeros foram caracterizados por espectrometria na região de infravermelho (FTIR) As dispersões obtidas se mostraram adequadas para serem aplicadas como revestimento para madeira, metais e vidro
Resumo:
Este trabalho tem como objetivo interpretar o fenômeno político expressado por Tenório Cavalcanti - político popular que atuou fundamentalmente em áreas periféricas e pobres da cidade e do estado do Rio de Janeiro entre as décadas de 1930 e 1960. Pretendo mostrar a narrativa, os símbolos e os códigos culturais que construíram a sua imagem pública e como a sua atuação marcou a dinâmica e a estruturação do campo político do Rio de Janeiro. A pesquisa baseia-se, fundamentalmente, no jornal Luta Democrática, entre os anos de 1954 e 1964, e nos seus discursos pronunciados na Câmara dos Deputados, entre 1951 e 1964. A partir da análise das fontes procuro mostrar de que maneira os elementos que constituem o fenômeno servem como ferramenta analítica para compreender melhor a construção de identidades sociais, os mecanismos de representação política, a forma como foram percebidos os processos de inclusão e exclusão social, assim como os conflitos sociais daquele período.
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.
Resumo:
O propósito da tese é analisar em que circunstâncias presidentes brasileiros recorrem a mecanismos de controle político sobre a burocracia pública. O argumento central é que o recurso presidencial a nomeações políticas, decretos regulamentares detalhados e criação de órgãos públicos centralizados na Presidência deverá variar em função de fatores políticos e características das coalizões de governo. Por meio de nomeações políticas, presidentes podem monitorar o comportamento de servidores públicos sob a influência indesejada de ministros do gabinete. Com decretos regulamentares detalhados podem reduzir a autonomia decisória de servidores públicos na interpretação de leis vagas. Por fim, por meio da criação de órgãos públicos centralizados na Presidência, podem gerar condições mais favoráveis ao futuro controle da burocracia pública. O propósito da tese será desdobrado em três problemas de pesquisa, com desenhos orientados para variáveis. O primeiro, desenvolvido no primeiro capítulo, aborda como a heterogeneidade política da coalizão afeta o controle presidencial sobre a burocracia pública por meio de nomeações políticas. O segundo problema, discutido no capítulo seguinte, analisa como a rotatividade ministerial e a demanda pela implementação interministerial de uma mesma lei afetam o grau de detalhamento de decretos regulamentares. Por fim, o terceiro problema de pesquisa, abordado no último capítulo, avalia como a composição heterogênea dos gabinetes afeta a criação de burocracias centralizadas na Presidência da República. Por meio de métodos estatísticos, foram estimados modelos de regressão linear multivariada a fim de analisar os determinantes 1. das nomeações políticas e 2. do grau de detalhamento dos decretos regulamentares, bem como modelos de regressão logística binária para avaliar a probabilidade de centralização presidencial na criação de órgãos públicos. A politização da burocracia federal tende a aumentar quando o conflito entre parceiros da coalizão é maior, uma alternativa presidencial às orientações ministeriais indesejadas sobre a burocracia pública. Decretos regulamentares tendem a ser mais detalhados quando ministérios são mais voláteis e quando há implementação interministerial, uma alternativa presidencial à autonomia da burocracia pública. Por fim, a centralização tende a crescer quando o conflito de políticas entre presidente e ministros é maior, uma saída às orientações ministeriais nocivas às preferências do presidente.
Resumo:
Este trabalho tem por objetivo propor um modelo de pensamento projetual que oriente o designer de experiências interativas no formato de websites. Baseia-se em um corpo teórico e diretrizes adequadas para estimular a manutenção da atividade do usuário e o prolongamento da experiência interativa no tempo, aumentando a probabilidade da ocorrência de momentos memoráveis e emocionalmente positivos ao interator, sem prejuízo à usabilidade do sistema. Esta abordagem se afasta do paradigma de projeto voltado para o cumprimento de objetivos e tarefas, no qual procura-se reduzir o tempo de interação aumentando a produtividade do interator. Ao contrário, aqui se propõe um olhar voltado para o engajamento em uma atividade, sendo esta o fim em si.
Estratégias para distribuição e fixação de médicos em sistemas nacionais de saúde: o caso brasileiro
Resumo:
A distribuição geográfica de médicos é um problema com que se defrontam os sistemas nacionais de saúde e, no Brasil, tem se tornado um dos desafios para a consolidação do Sistema único de Saúde (SUS). A análise dos determinantes dessa distribuição está fundamentado em abordagens sobre o mercado de trabalho em saúde e no médico sua formação ou oferta inserido no contexto histórico, político, social e institucional em que são construídos. O referencial de análise proposto neste estudo tem como objetivo evidenciar os fatores e condicionantes que interferem na distribuição e fixação de médicos identificar possíveis estratégias de intervenção que podem ser aplicadas à realidade brasileira, no contexto das políticas públicas. O mote para essa discussão é a compreensão de que a forte concentração geográfica dos profissionais e dos serviços impede a concretização dos princípios que regem o Sistema Único de Saúde, particularmente no que se refere à universalização, à integralidade e à própria descentralização. As estratégias tentadas pelo governo brasileiro também são abordadas, mais especificamente, o Projeto Rondon, o Programa de Interiorização das Ações de Saúde e Saneamento (PIASS) e o Programa de Interiorização do SUS (PISUS). Essa análise é complementada com um estudo de caso sobre a experiência recente no campo da política pública em saúde destinada a minimizar a má distribuição de médicos no território nacional: o Programa de Interiorização do Trabalho em Saúde (PITS), implementado pelo Ministério da Saúde em 2001. Sua condição de estratégia inédita na política de recursos humanos em saúde em nosso país permitiu identificar aspectos relevantes para qualquer iniciativa que pretenda fortalecer a distribuição de profissionais de saúde, para além dos grandes centros urbanos. Por fim, o estudo oferece um referencial de análise para a distribuição e a fixação de médicos, construído a partir dos elementos contemplados na revisão da literatura, na discussão teórica, no aporte das experiências nacionais e internacionais e nos resultados obtidos no estudo de caso.
Resumo:
Durante as últimas décadas, observou-se um aumento da preocupação em relação aos ecossistemas marinhos devido à grande entrada de poluentes, resultando em efeitos deletérios em organismos aquáticos e seres humanos. Dentre as atividades humanas que podem introduzir compostos tóxicos persistentes e bioacumulativos (PBTs Persistent Bioaccumulative Toxicants) no ambiente marinho está o uso de tintas antiincrustrantes, aplicadas nos cascos de navios para evitar que algas, mexilhões e outros organismos se fixem às embarcações. Não raramente, compostos organoestânicos (OTs) como o Tributilestanho (TBT) ou o Trifenilestanho (TPT) constituíam o princípio ativo de tal preparado. Devido à alta toxicidade desses compostos, a IMO (Organização Marítima Internacional) baniu totalmente o uso dos mesmos. Como os OTs são prontamente bioacumulados, elevadas concentrações de estanho total (SnT) vêm sendo encontradas em cetáceos (Mammalia, Cetacea). Os botos-cinza (Sotalia guianensis Van Beneden, 1864) ocupam elevados níveis tróficos e bioacumulam os PBTs aos quais estão expostos. Alguns autores relataram que o estanho hepático em cetáceos se encontra predominantemente na forma orgânica, visto que, na forma inorgânica tal metal é pobremente absorvido pela mucosa gastrintestinal, de forma que as concentrações hepáticas de SnT refletem o input antrópico de OTs. O presente estudo teve como principal objetivo, avaliar a exposição de botos-cinza aos OTs, através determinação das concentrações hepáticas de estanho total (SnT = orgânico + inorgânico), por Espectrometria de Absorção Atômica com Atomização em Forno de Grafite (GFAAS Graphite Furnace Atomic Absorption Spectrometry). Para tal, amostras de botos-cinza de diferentes áreas do litoral brasileiro, compreendendo a Região da Grande Vitória (GV), Baía de Guanabara (BG), Baía de Sepetiba (B.Sep), a Baía de Paranaguá (PR) e a Baía da Babitonga (SC), foram analisadas, visando comparar ambientes distintamente contaminados com OTs. Sendo assim, as concentrações hepáticas de SnT (em ng/g, peso seco) de botos-cinza variaram de <312 (limite de detecção) a 8.250, para a GV (n=22); de <312 a 14.100, para B.Sep (n = 38); <312 a 5.147, para PR (n= 22), bem como de 626 a 24.780 (ng/g, peso seco) para os botos de SC (n=10). As maiores concentrações foram verificadas nos botos da BG (n=11), variando de 1.265 a 24.882 (ng/g, peso seco). As concentrações encontradas na Baía de Guanabara (BG) estão entre as mais elevadas detectadas em cetáceos.
Resumo:
Técnicas de limpeza química ou mecânica são comumente empregadas para evitar a formação de biofilmes e problemas associados com a colonização de superfícies por micro-organismos. Neste trabalho, amostras de aço inox 304L foram submetidas a ensaios acelerados de crescimento de biofilme, o qual foi posteriormente removido por tratamentos de limpeza e desinfecção (choque térmico com água a 70C por 1h, limpeza com ácido fosfórico 20 % v/v por 30min e desinfecção com peróxido de hidrogênio 0,17 % v/v por 1h). Com o objetivo de verificar a influência destes tratamentos na remoção do biofilme, este foi caracterizado (por quantificação microbiana e análises de espectroscopia de impedância eletroquímica - EIE), antes e após a aplicação dos tratamentos. Dois casos foram estudados. No primeiro caso, simularam-se condições presentes em tubulações de ambientes hospitalares e sistemas de distribuição de água quente. O micro-organismo utilizado foi a bactéria Serratia marcences. O processo de formação de biofilme e posterior limpeza e desinfecção foi realizado de modo contínuo durante 15 semanas. Os resultados de quantificação microbiana e de EIE mostraram que desde a primeira semana de exposição e ao longo dos ensaios, formou-se um biofilme aderente à superfície do aço e que o emprego dos tratamentos de limpeza e desinfecção não foi eficaz na remoção do biofilme. Em um segundo caso, simularam-se condições presentes em tubulações da indústria de água mineral, empregando-se a bactéria Pseudomonas aeruginosa. Neste caso, as técnicas de limpeza e desinfecção foram aplicadas individualmente e em conjunto. A aplicação de choque térmico, assim como da limpeza ácida, sobre um biofilme com 72 h de formação foi capaz de eliminar as bactérias viáveis, presentes na superfície do aço. Entretanto, a desinfecção com peróxido de hidrogênio não foi capaz de eliminá-las. Nas duas condições, porém, as análises de EIE do sistema aço/biofilme mostraram que o mesmo não foi completamente removido da superfície do metal. Correlacionando os dois casos, pode-se inferir que a superfície do aço inox 304L é rapidamente colonizada pelas duas espécies microbianas e que as técnicas de limpeza e desinfecção são capazes de reduzir e até eliminar as células viáveis, embora não removam completamente o biofilme da superfície. Por outro lado, é importante ressaltar que fatores como a arquitetura, espessura e porosidade do biofilme, e propriedades intrínsecas da superfície, são fatores que afetam os valores de impedância medidos, sendo necessário considerá-los na análise, tanto da formação do biofilme, quanto dos efeitos dos procedimentos de limpeza e desinfecção
Resumo:
Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.
Resumo:
O presente trabalho problematiza a Câmara Municipal da cidade-corte do Rio de Janeiro como uma sociedade de discurso. Por meio de seus enunciados, visíveis a partir das Posturas Municipais, é possível entender o discurso como um mecanismo de poder, que estabelece relações e sujeições. Prática que busca formar sistematicamente os objetos de que fala, a lei é um dispositivo de poder e um espaço de exterioridade, que cria e desenvolve uma rede de lugares distintos. Este saber/poder inventa formas de percepção e hierarquizações, fabrica evidências e organiza lugares. Produz mais que dizibilidades, saberes que devem circular, ser conhecidos e obedecidos. Há toda uma produção de visibilidades, ancorada às normas, que procura formar individualidades docilizadas. Oficiais nomeados e transgressores são, portanto, efeitos de uma governamentalidade que, após a emancipação política do Brasil, se volta ao cotidiano em seus mais efêmeros detalhes. Assim, esta tese de doutorado objetiva cartografar esta matriz discursiva e os dispositivos de sujeição experimentados pela Câmara Municipal, analisando suas Posturas e Registros de Infração, como práticas de subjetivação aplicadas no governo da cidade.
Resumo:
O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.