960 resultados para Probabilidade de default
Resumo:
A carcinogênese epitelial ovariana tem sido foco de estudos científicos em todo o mundo desenvolvido. A angiogênese tumoral ovariana é um processo multifatorial que resulta em vários produtos pró-angiogênicos. Entre eles, o fator de crescimento vascular endotelial (VEGF) é predominante. Os objetivos deste estudo foram relacionar as dosagens do VEGF dos fluidos peritoneais, do plasma periférico e do infundíbulo pélvico aos níveis de citorredução em pacientes operadas de adenocarcinoma epitelial de ovário (CEO); formular um modelo probabilístico de citorredução e utilizar estas dosagens para estimar a probabilidade do desfecho de citorredução. Além disto, foi criada uma nova variável chamada carga de VEGF. Pelo procedimento step-wise a citorredução foi melhor descrita pela carga de VEGF, mas faltou Normalidade aos resíduos, não sendo possível a adequação de um modelo matemático. Porém, a curva ROC, forneceu uma área sob a curva de 0,84, com sensibilidade de 71,4 % e especificidade variando de 69,5 a 73,9%. O ponto de corte ótimo foi 15,52 log de picograma de carga de VEGF. A odds-ratio (OR) calculada para citorredução ótima descrita pela carga de VEGF foi de 11 (IC= 2,59 ; 46,78). No grupo com estágio avançado (III e IV), a OR foi de 6 (IC= 1,15; 31,22). Apesar do pequeno número de casos, esta nova variável pode vir a ser um auxiliar na determinação de situações onde cirurgia citorredutora deixa de ser a pedra fundamental do tratamento primário do CEO e a indução quimioterápica passe a ter o principal papel na citorredução química antes da cirugia nestes casos.
Resumo:
A abrangente constitucionalização, o acesso ao direito, ainda que incipiente, no Brasil, o dinamismo de uma sociedade massificada e o fluxo quase instantâneo de informações e de ideias colocaram e vem colocando em xeque o Estado enquanto provedor dos direitos básicos e, dentre eles, o acesso à justiça e a correlata função jurisdicional. Autorizado magistério doutrinário vislumbrou, como se verá, apresentar o sistema brasileiro, no que concerne à estabilização da relação processual, em específico, mais desvantagens do que vantagens. Entreviu-se, assim, oportunidade de uma revisitação do sistema processual, aproveitando-se a legislação e ideário vigentes, em uma perspectiva mais profícua e no intuito de se conferir tudo aquilo e exatamente aquilo que se busca pelo processo, enfim, maior probabilidade de pacificação. Assim, o propósito da presente dissertação é estudar o aproveitamento da demanda quanto aos fatos dedutíveis pelas partes e que advenham ou sejam conhecidos no curso do processo como meio, então, de concretização do processo justo, um processo balizado por garantias, um processo humanizado e conforme os reclamos da sociedade hodierna. A pesquisa se concentra na legislação, doutrina e jurisprudência brasileiras, contando, outrossim, com singelo exame de ordenamentos similares. Em paralelo, estudam-se os princípios que suportam o tema, notadamente o princípio do contraditório participativo, qualificado que é pela ampla participação dos sujeitos da crise de direito material. O trabalho procura demonstrar, enfim, que é viável a proposta no contexto de um Direito Processual afinado com os ditames constitucionais.
Resumo:
Este estudo avalia o impacto da liberalização comercial entre Brasil e China sobre o comércio, produção, preços, investimento, poupança e emprego. O objetivo da análise é identificar a existência de uma oportunidade de comércio para o Brasil que viabilize um maior crescimento, incremente as exportações brasileiras e reduza o desemprego. A hipótese principal é a existência de ganhos de bem estar no comércio com a China. O modelo utilizado é o GLOBAL TRADE ANALYSIS PROJECT (GTAP) com 10 regiões, 10 produtos, 5 fatores, com retornos constantes de escala e competição perfeita nas atividades de produção. Destacam-se na análise os produtos agropecuários. Utilizam-se três fechamentos macroeconômicos (closure) para avaliar separadamente alguns agregados: a configuração padrão dos modelos CGE (preço da poupança endógeno e pleno emprego); preço da poupança exógeno; e desemprego. Conclui-se que pode haver benefícios para os dois países com o acordo.
Resumo:
Elucidating the intricate relationship between brain structure and function, both in healthy and pathological conditions, is a key challenge for modern neuroscience. Recent progress in neuroimaging has helped advance our understanding of this important issue, with diffusion images providing information about structural connectivity (SC) and functional magnetic resonance imaging shedding light on resting state functional connectivity (rsFC). Here, we adopt a systems approach, relying on modular hierarchical clustering, to study together SC and rsFC datasets gathered independently from healthy human subjects. Our novel approach allows us to find a common skeleton shared by structure and function from which a new, optimal, brain partition can be extracted. We describe the emerging common structure-function modules (SFMs) in detail and compare them with commonly employed anatomical or functional parcellations. Our results underline the strong correspondence between brain structure and resting-state dynamics as well as the emerging coherent organization of the human brain.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
A tuberculose (TB) é uma doença que foi declarada pela Organização Mundial de Saúde como emergência mundial em 1993. As ferramentas disponíveis hoje para controle da TB são: o diagnóstico precoce e o tratamento eficiente. Porém, o abandono do tratamento de TB é um problema enfrentado mundialmente em proporções que podem variar entre 3% a 80%. Por isso, a identificação dos fatores que são preditores do abandono do tratamento de TB pode ajudar a desenvolver melhores estratégias para o seu controle. O objetivo deste trabalho é, através de uma metanálise, fazer uma estimativa sumária da medida de associação entre cada um dos fatores (a) relacionados ao serviço de saúde, (b) relacionado ao quadro clínico e à terapia da TB e (c) relacionados aos indivíduos e o abandono do tratamento de TB. A estratégia de busca eletrônica remota para a recuperação de publicações relevantes foi desenvolvida de forma específica para as diferentes bases consideradas relevantes (MEDLINE [Pubmed] e LILCS). Buscas por referências cruzadas, além da consulta à base de revisões sistemáticas COCHRANE, também foram realizadas. Investigações foram incluídas se fossem trabalhos observacionais ou experimentais que estudem fatores de risco ou preditores do desfecho de interesse (abandono do tratamento de tuberculose) através de comparações de dois ou mais grupos e se seus dados pudessem ser extraídos. Dois revisores classificaram os trabalhos e extraíram dados de forma mascarada e as discordâncias resolvidas. Mais de 190 textos completos foram aptos à combinação de dados. Destes, foi possível extrair dados para combinação de 40 exposições. Destas, 19 foram demonstradas nesta investigação. Das 19 demonstradas, 13 exposições estudadas apresentaram associação e poderiam ser considerados preditores (sexo masculino, alcoolismo, infecção pelo HIV/SIDA, uso de drogas ilícitas, nacionalidade estrangeira, analfabetismo, retratamento, baciloscopia positiva, abandono prévio, tratamento de curta duração, acesso fácil à unidade de saúde, treinamento para adesão, tuberculose extrapulmonar) e seis não apresentaram associação (desemprego, efeitos adversos, tuberculose resistente, necessidade de hospitalização, demora para o início do tratamento, espera longa para a consulta). Porém, essas associações devem ser consideradas de forma conservadora devido à elevada heterogeneidade encontrada em todas as exposições. Apenas cinco exposições apresentaram explicação parcial e uma apresentou explicação total para a heterogeneidade. O viés de publicação foi detectado em apenas duas das 19 exposições.
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
O propósito da tese é analisar em que circunstâncias presidentes brasileiros recorrem a mecanismos de controle político sobre a burocracia pública. O argumento central é que o recurso presidencial a nomeações políticas, decretos regulamentares detalhados e criação de órgãos públicos centralizados na Presidência deverá variar em função de fatores políticos e características das coalizões de governo. Por meio de nomeações políticas, presidentes podem monitorar o comportamento de servidores públicos sob a influência indesejada de ministros do gabinete. Com decretos regulamentares detalhados podem reduzir a autonomia decisória de servidores públicos na interpretação de leis vagas. Por fim, por meio da criação de órgãos públicos centralizados na Presidência, podem gerar condições mais favoráveis ao futuro controle da burocracia pública. O propósito da tese será desdobrado em três problemas de pesquisa, com desenhos orientados para variáveis. O primeiro, desenvolvido no primeiro capítulo, aborda como a heterogeneidade política da coalizão afeta o controle presidencial sobre a burocracia pública por meio de nomeações políticas. O segundo problema, discutido no capítulo seguinte, analisa como a rotatividade ministerial e a demanda pela implementação interministerial de uma mesma lei afetam o grau de detalhamento de decretos regulamentares. Por fim, o terceiro problema de pesquisa, abordado no último capítulo, avalia como a composição heterogênea dos gabinetes afeta a criação de burocracias centralizadas na Presidência da República. Por meio de métodos estatísticos, foram estimados modelos de regressão linear multivariada a fim de analisar os determinantes 1. das nomeações políticas e 2. do grau de detalhamento dos decretos regulamentares, bem como modelos de regressão logística binária para avaliar a probabilidade de centralização presidencial na criação de órgãos públicos. A politização da burocracia federal tende a aumentar quando o conflito entre parceiros da coalizão é maior, uma alternativa presidencial às orientações ministeriais indesejadas sobre a burocracia pública. Decretos regulamentares tendem a ser mais detalhados quando ministérios são mais voláteis e quando há implementação interministerial, uma alternativa presidencial à autonomia da burocracia pública. Por fim, a centralização tende a crescer quando o conflito de políticas entre presidente e ministros é maior, uma saída às orientações ministeriais nocivas às preferências do presidente.
Resumo:
Este trabalho tem por objetivo propor um modelo de pensamento projetual que oriente o designer de experiências interativas no formato de websites. Baseia-se em um corpo teórico e diretrizes adequadas para estimular a manutenção da atividade do usuário e o prolongamento da experiência interativa no tempo, aumentando a probabilidade da ocorrência de momentos memoráveis e emocionalmente positivos ao interator, sem prejuízo à usabilidade do sistema. Esta abordagem se afasta do paradigma de projeto voltado para o cumprimento de objetivos e tarefas, no qual procura-se reduzir o tempo de interação aumentando a produtividade do interator. Ao contrário, aqui se propõe um olhar voltado para o engajamento em uma atividade, sendo esta o fim em si.
Resumo:
A presente investigação se volta para a expressão de objeto direto anafórico (ODA) na produção de dados espontâneos de aquisição bilíngue simultânea (BFLA Bilingual First Language Acquisition) de Português Brasileiro (PB) e de inglês. A literatura em BFLA tem assumido que as duas línguas são adquiridas de maneira independente (DE HOUWER, 1990, 2005; PARADIS; GENESEE, 1996), porém indica que pode haver momentos de interação entre os dois sistemas linguísticos, resultando em transferência entre propriedades paramétricas das línguas (HULK; MÜLLER, 2000; MÜLLER; HULK, 2001; PÉREZ-LEROUX, et al 2009 ; STRIK; PÉREZ-LEROUX, 2011; SORACE, 2011). Essa investigação é conduzida com base na teoria de Princípios & Parâmetros (CHOMSKY, 1981) do Gerativismo, reformulada com o Programa Minimalista (CHOMSKY, 1995). PB e inglês se diferenciam em relação à marcação paramétrica para ODA: o PB admite objeto nulo anafórico (ON) e o inglês não. A hipótese de trabalho adotada é de que haverá transferência do PB para o inglês. Dois tipos de categorias nulas são observados: objetos nulos dêitico (Odeit) e anafórico (ON). Assume-se que a manifestação do primeiro tipo indica um estágio default universal, que constituiria uma estratégia facilitadora (RIZZI, 2005). A possibilidade de uso de ONs agramaticais no inglês é concebida como resultado da presença de dados ambíguos, que reforçariam essa possibilidade equivocadamente no inglês, em consonância com o defendido em Hulk & Müller (2000) e Müller & Hulk (2001). Assume-se, ademais, que as restrições semânticas que regem a distribuição das formas possíveis para ODA no PB (CYRINO, 2006; LOPES, 2009) só poderiam ser detectadas em uma faixa etária mais alta. São analisados dados espontâneos de três bilíngues simultâneos (N, L e A) em interação com seus pais. N foi acompanhado dos 2;1,18 aos 3;8,24 anos de idade, enquanto L foi acompanhada dos 2;5,30 aos 3;1,1 anos e A foi acompanhado dos 3;2,6 aos 3;8,26 anos. As manifestações de ODA foram identificadas e classificadas em DP, pronome, ON e ODeit. Comparando os bilíngues, constatou-se que cada criança parece estar em um momento de aquisição: N apresenta instâncias de ODeit em contextos imperativos e pronomes aparecem apenas no inglês aos 2;5,2 anos. L tem preferência por DPs nas duas línguas e usa pronomes apenas na língua inglesa. Aos 2;6,22 anos, surgem instâncias de ON com mais frequência no PB, mas também no inglês. A criança A apresenta todos os tipos de preenchimento de ODA e ONs aparecem nas duas línguas. Os dados indicam que ONs agramaticais estão presentes no inglês, sugerindo que há transferência do PB para o inglês
Resumo:
Esta tese desenvolve estudo do ensino de Redação com análise de textos discentes, cujo marco regulatório para a produção das aulas são as Competências e Habilidades inscritas nos PCN. Objetiva-se a correção de redações por meio digital que (1) identifica os problemas do texto produzido pelo redator, (2) fornece instruções para correção do problema apontado, (3) propõe retextualização para nova correção e (4) utiliza os desvios apontados como orientadores das aulas de Gramática. O trabalho final tem por objetivo principal ensinar a redigir no registro padrão por meio da correção comentada de textos produzidos por clientes, que podem ser alunos ou não, uma vez que o trabalho ocorre pela Internet (à distância), com ferramentas do MS Word. A instrução gramatical incidente sobre problemas detectados no texto é subsidiada por instruções semióticas de cunho didático-pedagógico. Testado em turmas regulares do Ensino Médio, em Cursos Preparatórios para processos seletivos, este projeto constatou sua eficácia, pois os redatores (1) compreenderam o quê e por que erraram, (2) assimilaram os mecanismos linguísticos de correção/adequação e (3) praticaram a substituição de estruturas, orientados por princípios da Teoria da Iconicidade Verbal (SIMÕES, [1994], 2009). Assim, os sujeitos foram-se apropriando das regras de estruturação da língua, por meio das quais se tornou possível a produção de textos eficientes, adequados à situação de comunicação. Paralelamente foram-se formando leitores críticos. A negociação de textos, a técnica de correção digital, mediada pela Internet e por isso realizada à distância (mesmo quando combinada com aulas presenciais)e a forma da instrução semiótico-gramatical é o que se pretende demonstrar nesta tese
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.
Resumo:
O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.