657 resultados para DISTRIBUIÇÕES UNIFORMES
Resumo:
O modelo demanda-controle proposto por Karasek caracteriza as situações de estresse no ambiente laboral que é definido pela alta exigência no trabalho resultante da combinação do efeito da demanda psicológica no trabalho (estressores) e moderadores do estresse, especialmente a capacidade de tomar decisões (controle). Existem diversas formas de operacionalizar a exposição (alta exigência no trabalho) descritas na literatura. No entanto, não há consenso sobre qual a melhor operacionalização. Outra questão negligenciada pela maioria dos autores é a forma funcional da curva exposição-resposta ou não linearidade da associação. Entre os desfechos avaliados em estudos sobre os efeitos do estresse no trabalho, usando o modelo demanda-controle, estão as doenças cardiovasculares, como a hipertensão arterial. Contudo, os resultados relatados parecem conflitantes sobre a associação entre o estresse no trabalho e a hipertensão arterial. Os objetivos deste trabalho são estudar a associação entre o estresse no trabalho e aumento da pressão arterial/hipertensão arterial usando as diferentes formas de operacionalização do estresse no trabalho e avaliar a curva exposição-resposta quanto à linearidade. O trabalho é um estudo seccional desenvolvido na população do Estudo Pró-Saúde que é composta por servidores públicos de uma universidade no Rio de Janeiro. Modelos de regressão usando diferentes distribuições foram usados para estimar a associação entre a alta exigência no trabalho e a pressão arterial/hipertensão arterial. Funções não lineares foram utilizadas para investigar a linearidade da associação entre a exposição e os desfechos. Os resultados sugerem que a relação entre a dimensão controle e a pressão arterial seja não linear. Foram observadas associações significativas entre alta exigência no trabalho e pressão arterial sistólica e diastólica para algumas formas de operacionalização da exposição, quando analisados separadamente. No entanto, quando analisadas de forma conjunta por meio do modelo de resposta bivariada não foi encontrada associação. Também não foi encontrada associação entre a alta exigência no trabalho e hipertensão arterial para nenhuma forma de operacionalização da exposição. Os modelos estatísticos com melhor ajuste foram aqueles em que a exposição foi operacionalizada por meio de quadrantes gerados pela mediana de cada uma das dimensões e de forma dicotômica com termo de interação entre demanda psicológica e controle. Neste estudo estas foram as formas mais adequadas de operacionalização. Os resultados também mostram que a associação entre a dimensão controle e a pressão arterial é não linear. Conclui-se que não há garantia de linearidade da associação entre estresse no trabalho e pressão arterial e que essa associação pode ser influenciada pela forma de operacionalização da exposição e do desfecho ou da estratégia de modelagem.
Resumo:
Pesquisa de natureza descritiva e abordagem quantitativa de dados sobre a Aplicabilidade da Norma Regulamentadora-32 (NR 32) do Ministério do Trabalho e Emprego (MTE), visando mobilizar os trabalhadores de enfermagem para reduzir a exposição aos riscos inerentes do trabalho em estabelecimentos de saúde. Problema de pesquisa: Quais os fatores que interferem na implantação da Norma Regulamentadora-32 nas enfermarias de um Hospital Público Estadual do Rio de Janeiro, na visão dos trabalhadores de enfermagem? Teve como objetivo geral analisar os fatores que interferem na aplicabilidade da NR 32 pela enfermagem, em um hospital público do Rio de Janeiro. A população foi composta de 138 trabalhadores de enfermagem das enfermarias de clínica médica, cirúrgica e ortopédica. Utilizou-se para a coleta de dados um questionário estruturado com perguntas fechadas. Os dados foram coletados no período de 28 de janeiro a 14 de fevereiro de 2009, e analisados através do Programa Statical Package for the Social Sciences (SPSS) versão 13 for Windows e Microsoft Office Excel 2003. Os resultados apontaram que os trabalhadores de enfermagem desse hospital estão, em sua maioria, na faixa etária de 30-49 anos, com pelo menos 1 ano de atuação no mesmo setor e formaram-se há 15 anos ou mais, além disso, 68,1% são estatutários. Constatou-se que há recomendações da NR-32 e precauções-padrão não são seguidas pelos participantes da pesquisa. Os fatores que interferem no cumprimento da atual legislação vão desde o desconhecimento dos riscos ocupacionais e comportamento dos trabalhadores, até a falta de uma ação efetiva de Educação Continuada e da Comissão de Controle de Infecção Hospitalar (CCIH). Destacaram-se, entre outros, o uso de adornos (51,8%); calçado aberto (48,9%); alimentação no posto de trabalho (46,3%); uso da pia para outras finalidades (44,9%), reencape ou desconexão manual de agulhas (36,4%); sair do local de trabalho com uniforme ou Equipamento de Proteção Individual - EPI (21%); limite de recipiente de descarte de perfurocortantes não respeitado (11,8%), falta de uso de EPI quando auxilia no exame com Raios-X (32,6%) e na manipulação de quimioterápicos (7,8%). A instituição não fornece uniformes nem calçados. Outros fatores institucionais foram a falta de equipamentos, a falta de um política de prevenção e promoção da saúde, inexistência de serviço de saúde ocupacional e instalações físicas inadequadas. Tal descumprimento expõe, de forma excessiva, os trabalhadores de enfermagem aos mais variados fatores de riscos ocupacionais, podendo refletir na sua saúde e no processo de trabalho. Recomenda-se um trabalho efetivo e integrado dos Programas de Educação Continuada e CCIH para esclarecimento dos trabalhadores de enfermagem, e implantação do Serviço de Saúde do Trabalhador. Sugere-se aos gestores expandirem este estudo para os demais setores das unidades hospitalares e outras instituições públicas de saúde para o conhecimento da situação de trabalho, bem como a criação de espaços de discussão para a busca de soluções dos problemas com a participação dos trabalhadores.
Resumo:
Neste trabalho estudamos as características das distribuições da lacuna de rapidez em amostras de eventos de minimum bias de colisões pp a ps=7 TeV no CMS/LHC. Tais eventos são constituídos por processos difrativos, além de processos de QCD mole. São investigados o tamanho e a localização das lacunas, assim como as correlações entre as distribuições obtidas a partir dos objetos reconstruídos no detector e as distribuições obtidas a partir das partículas geradas via simulação Monte Carlo. Uma boa compreensão dessas distribuições pode, eventualmente, possibilitar a caracterização de eventos difrativos nos dados.
Resumo:
206 p.
Resumo:
As florestas tropicais brasileiras (Amazônia e a Mata Atlântica) possuem alta diversidade de espécies e atualmente estão separadas por um cinturão de vegetação aberta. Parte deste cinturão é ocupada pela Caatinga, onde se encontram os Brejos de Altitude, testemunhos das conexões históricas entre a Mata Atlântica e a Amazônia. O Centro de Endemismos Pernambuco (CEPE) é a unidade biogeográfica que compõe a Mata Atlântica ao norte do rio São Francisco e contém diversos táxons endêmicos. Esta região apresenta uma mastofauna compartilhada com a Amazônia, devido às conexões existentes durante o Cenozóico. A presença do rio São Francisco em seu limite sul pode atuar como barreira ao fluxo gênico e explicar os endemismos encontrados no CEPE. Contrastando com sua situação peculiar, a mastofauna do CEPE ainda carece de estudos aprofundados sobre a identificação de suas espécies, padrões geográficos e relações filogenéticas. Revisões recentes têm identificado espécies diferentes ao norte e ao sul do rio São Francisco, mas poucos trabalhos têm proposto hipóteses biogeográficas para o CEPE. Para ampliar o conhecimento sobre a identidade e distribuição geográfica dos pequenos mamíferos do CEPE e sua estrutura filogeográfica, foram realizados levantamentos de espécies e análises de diversidade genética e morfométrica para algumas espécies. Os levantamentos consistiram de visitas às coleções científicas a fim de identificar as espécies ocorrentes no CEPE e excursões de coleta com 5 a 17 noites consecutivas em 12 localidades ao longo do CEPE, que totalizaram 64691 armadilhas noites e resultaram na coleta de 476 exemplares de 31 espécies. As espécies foram identificadas com base na morfologia externa e craniana e por análises citogenéticas. Para investigar a biogeografia do CEPE, análises de genética de populações, filogeográficas e morfométricas foram realizadas para os marsupiais Caluromys philander, Didelphis aurita, Marmosa murina, Metachirus nudicaudatus e os roedores Akodon cursor, Oecomys catherinae e Rhipidomys mastacalis para avaliar a existência de diferenciação nas populações do CEPE e suas relações com as linhagens Amazônicas e Atlânticas. Estes resultados mostraram que a diversificação dos pequenos mamíferos do CEPE ocorreu tanto no Terciário quanto no Quaternário. Algumas populações, como em Caluromys philander e Oecomys catherinae, mostraram afinidades com linhagens amazônicas, enquanto outras, como em Metachirus nudicaudatus e Rhipidomys mastacalis, apresentaram afinidades com linhagens atlânticas. Os pequenos mamíferos do CEPE apresentaram diferenciação em relação às suas linhagens irmãs, com algumas linhagens podendo tratar-se de espécies ainda não descritas (e.g. Didelphis aff. aurita e Rhipidomys aff. mastacalis). Esta diferenciação provavelmente foi causada pelos eventos cíclicos de flutuações climáticas que provocaram elevações no nível do mar e retração das florestas tropicais, isolando as populações do CEPE. Por fim, para auxiliar na identificação das espécies em novas coletas, de suas distribuições geográficas e de suas características citogenéticas e ecológicas, foi elaborado um guia reunindo todas as informações disponíveis sobre as espécies de pequenos mamíferos do CEPE.
Resumo:
Os fatores que explicam a distribuição observada em plantas e animais é uma pergunta que intriga naturalistas, biogeógrafos e ecólogos há mais de um século. Ainda nos primórdios da disciplina de ecologia, as tolerâncias ambientais já haviam sido apontadas como as grandes responsáveis pelo padrão observado da distribuição dos seres vivos, o que mais tarde levou à concepção de nicho ecológico das espécies. Nos últimos anos, o estudo das distribuições dos organismos ganhou grande impulso e destaque na literatura. O motivo foi a maior disponibilidade de catálogos de presença de espécies, o desenvolvimento de bancos de variáveis ambientais de todo o planeta e de ferramentas computacionais capazes de projetar mapas de distribuição potencial de um dado organismo. Estes instrumentos, coletivamente chamados de Modelos de Distribuição de Espécies (MDEs) têm sido desde então amplamente utilizados em estudos de diferentes escopos. Um deles é a avaliação de potenciais áreas suscetíveis à invasão de organismos exóticos. Este estudo tem, portanto, o objetivo de compreender, através de MDEs, os fatores subjacentes à distribuição de duas espécies de corais escleractíneos invasores nativos do Oceano Pacífico e ambas invasoras bem sucedidas de diversas partes do Oceano Atlântico, destacadamente o litoral fluminense. Os resultados mostraram que os modelos preditivos da espécie Tubastraea coccinea (LESSON, 1829), cosmopolita amplamente difundida na sua região nativa pelo Indo- Pacífico demonstraram de maneira satisfatória suas áreas de distribuição nas áreas invadidas do Atlântico. Sua distribuição está basicamente associada a regiões com alta disponibilidade de calcita e baixa produtividade fitoplanctônica. Por outro lado, a aplicação de MDEs foi incapaz de predizer a distribuição de T. tagusensis (WELLS,1982) no Atlântico. Essta espécie, ao contrário de sua congênere, tem distribuição bastante restrita em sua região nativa, o arquipélago de Galápagos. Através de análises posteriores foi possível constatar a mudança no nicho observado durante o processo de invasão. Finalmente, o sucesso preditivo para T. coccinea e o fracasso dos modelos para T. tagusensis levantam importantes questões sobre quais os aspectos ecológicos das espécies são mais favoráveis à aplicação de MDEs. Adicionalmente, lança importantes ressalvas na utilização recentemente tão difundida destas ferramentas como forma de previsão de invasões biológicas e em estudos de efeitos de alterações climáticas sobre a distribuição das espécies.
Resumo:
Panulirus argus (Latreille, 1804) é uma das principais espécies de lagosta no Atlântico, sendo um dos maiores recursos pesqueiros do Atlântico Ocidental, onde apresenta um alto valor comercial. A forte explotação da espécie resulta em uma grande pressão sobre suas populações. Recentemente, foi descoberto que sob o binômio P. argus estão contidas duas espécies crípticas que ocorrem em alopatria, uma na região do Caribe e outra na costa brasileira. Esta tese tem como objetivo estudar como se estruturam geneticamente as populações dessas duas espécies, com o propósito de fornecer mais informações para a determinação de estoques e um correto manejo das espécies, e analisar os processos históricos evolutivos que moldaram suas histórias demográficas. Para tal, foram estudados dois marcadores mitocondriais (região controle e o gene da Citocromo Oxidase I) e loci de microssatélites de indivíduos de 7 regiões do Caribe (Florida, Bahamas, Turks e Caicos, Porto Rico, Cuba, Colômbia e Venezuela) e 11 estados do Brasil (Pará, Maranhão, Piauí, Ceará, Rio Grande do Norte, Pernambuco, Alagoas, Bahia, Espírito Santo, Rio de Janeiro e São Paulo). Dentro de cada espécie foram observadas duas linhagens mitocondriais diferentes, que co-ocorriam, de maneira homogênea, ao longo de suas distribuições. Hipotetiso que essas linhagens foram formadas a partir de um evento de vicariância com contato secundário ou como consequência de um efeito gargalo seguido de expansão. As duas linhagens são evidentes nas sequências da região controle mitocondrial, mas no gene da COI foram evidentes apenas em P. cf. argus do Caribe. As linhagens do Brasil se separaram há aproximadamente 233 - 288 mil anos e cada uma sofreu expansão em tempos diferentes, a primeira se expandiu há 100 mil anos e a segunda linhagem há 50 mil anos. As linhagens do Caribe se separaram cerca de 1 milhão de anos atrás e possuem o mesmo tempo de expansão, 50 mil anos. Os microssatélites não revelaram subdivisão populacional para nenhuma das duas espécies, porém os marcadores, juntos, sugeriram um fluxo gênico diferenciado entre localidades expostas a diferentes correntes marítimas. Considerando que essas lagostas são intensamente explotadas, é importante ser cuidadoso no momento de definir estoques pesqueiros. Para a espécie do Brasil, dois estoques pesqueiros foram sugeridos, o primeiro do Pará à Bahia e o segundo do sul da Bahia a São Paulo. Para a espécie do Caribe, foi mantida e reforçada a hipótese de quatro estoques sugerida pela FAO (Norte, Sul, Centro-Norte e Centro-Sul).
Resumo:
As instituições financeiras são obrigadas por acordos internacionais, como o Acordo de Basiléia, a avaliar o risco de mercado ao qual a instituição está propensa de forma a evitar possíveis contaminações de desastres financeiros em seu patrimônio. Com o intuito de capturar tais fenômenos, surge a necessidade de construir modelos que capturem com mais acurácia movimentos extremos das séries de retornos. O trabalho teve como principal objetivo aplicar a Teoria do Valor Extremo juntamente com Copulas na estimação de quantis extremos para o VaR. Ele utiliza técnicas de simulação de Monte Carlo, Teoria do Valor Extremo e Cópulas com distribuições gaussianas e t. Em contrapartida, as estimativas produzidas serão comparadas com as de um segundo modelo, chamado de simulação histórica de Monte Carlo filtrada, mais conhecida como filtered historical simulation (FHS). As técnicas serão aplicadas a um portfólio de ações de empresas brasileiras.
Resumo:
Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.
Resumo:
Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono.
Resumo:
Apresenta-se neste trabalho um estudo sobre o impacto do empilhamento de eventos (pile-up), nas distribuições das variáveis comumente utilizadas para identificar eventos difrativos, na topologia de difração dura simples produzindo dijatos, nas condições do CMS para baixa luminosidade (2 x 1033 cm -2 s-1). O cenário de baixa luminosidade citado acima equivale aproximadamente a 5 eventos de pile-up em média por cruzamento de pacotes. Para simular o sinal, difrativos (com e sem pile-up), usamos o gerador POMWIG (1). Para os eventos não-difrativos (com e sem pile-up), utilizamos o gerador PYTHIA (2),bem como para a produção dos eventos de pile-up (eventos simulados utilizando eventos de minimum bias).
Resumo:
A filosofia viveu um tempo de luminosidade crua em que havia contentamento (pelo menos entre os filósofos dignos de serem estudados) com a postulação das condições de possibilidade que cabiam no horizonte que essa luz podia, então, iluminar. Tudo que escapasse desse horizonte era obscuridade, irracionalidade, mera especulação e, pior de todas as ofensas: metafísica. Mas, alguma filosofia do séc. XX encontrou uma outra distribuição de luminosidade que permitiu um pensamento em claro-escuro, em tonalidades nuançadas em que a nitidez absoluta dos contornos se viu fluidificar, em que as figuras puras e sólidas se mostraram como híbridas, nebulosas derramadas, em que os objetos entraram na história e os homens se misturaram com a natureza, em que os movimentos do mundo e as imagens na consciência saíram da dualidade das qualidades primárias e secundárias e se aventuraram em novas perspectivas (aventuras que ainda atravessam desde a fenomenologia até o cinema). É neste cenário de novas distribuições que reaparece a questão da individuação apontando para uma outra concepção do indivíduo, não mais substancial e suporte de qualidades, não mais ancorado nos pares matéria e forma, atual e potencial. Tais pares se revelam insuficientes por não darem conta das impurezas que vêm à tona e das surpreendentes possibilidades inventadas (simbioses, alianças, infecções) e não somente atualizadas a partir de um potencial (filiação, reprodução). Nesse novo modo de compor, o atributo não mais se remete a um predicado qualidade, mas ao acontecimento, não mais às possibilidades latentes, mas à potência a ser inventada nas composições, nas relações constituintes dos diferentes modos de existência. Simondon foi o primeiro filósofo a levar em conta, de modo específico, o indivíduo se inventando em composição, daí ter renovado a questão da individuação e transformado o estatuto da relação. O ser é relação, tal é, com Simondon, a proposição que passa a figurar no centro do pensamento da individuação. Mas se, por um lado, havia essa promoção da relação, por outro lado, parecia não haver a liberação dos modos que, enfim, remetiam a uma natureza dos possíveis. Mesmo não funcionando como princípio, essa natureza parecia capturar os modos num potencial, de tal maneira que um novo humanismo, tão sufocante quanto qualquer outro, acompanhava toda a produção de Simondon. Não à toa, sua narrativa dos diferentes modos se fecha no encontro de uma unidade capaz de suportar o multirealismo dos híbridos que surgiam por toda parte. As metas, os sentidos do devir que povoam a obra de Simondon não seriam os ecos de uma velha moral da pureza, da luminosidade branca?Para escapar desse rebatimento da aventura dos modos em tipos privilegiados de relação que levavam a restaurar a unidade perdida, era preciso se lançar na inocência do processo das inumeráveis atividades de um tecido sem base, jogo de linhas impuras em cruzamentos inventados a cada momento. Nesse sentido: era o pensamento especulativo, expresso em sua própria escrita em zig-zag, de Whitehead já um antídoto aos possíveis rebatimentos da nova filosofia da individuação num mundo por demais reconhecido? É esse o espírito da composição nesse trabalho: a individuação simondoneana com a insistência em se entregar à aventura inocente dos processos se fazendo que se encontra em Whitehead (e nos muitos aliados que foram convocados para que outras músicas se façam ouvir).
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.
Resumo:
Partículas nanoestruturadas têm sido amplamente utilizadas como carga de reforço em matrizes elastoméricas, sendo substitutos eficazes das cargas convencionais, já consagradas, como o negro de fumo, mica, sílica. Em especial, as argilas têm mostrado grande potencial ao que se refere a melhor dispersão na matriz polimérica, em função de sua elevada razão de aspecto. Dentro do vasto universo de argilominerais, as argilas aniônicas, também conhecidas hidróxido duplo lamelar (HDL), apresentam como vantagem a possibilidade de ser projetada estruturalmente para as mais diversas finalidades, ao se modificar os ânions ou os cátions, ou até mesmo combiná-los na estrutura lamelar. E dentre os métodos existentes para se preparar compósitos a base de elastômero/argila, a co-coagulação do látex, é uma forma bastante eficaz e economicamente viável, uma vez que a borracha obtida após processo de coagulação já contém a carga incorporada. Este trabalho se dedicou a avaliar o processo de co-coagulação do látex de NBR e HDL, visando a obtenção de nanocompósitos. Para tanto HDL de composição Mg/Al-CO3 foi modificado com ânions DS, DBS e ST e foram preparadas suspensões aquosas, utilizando como ferramentas de dispersão ultraturrax e ultrassom de ponteira. As variáveis de processo avaliadas foram tipo e teor de HDL, tempo de mistura látex/suspensão aquosa de HDL, quantidade de coagulante e velocidade de agitação. Por fim, os coágulos obtidos foram formulados para avaliar a influência dos HDL na cinética de vulcanização e também para determinação das propriedades mecânicas convencionais. Os resultados obtidos comprovaram que a metodologia de dispersão de hidrotalcita ao látex nitrílico de modo prévio ao processo de coagulação é uma alternativa viável para a obtenção de nanocompósitos. O uso do ultrassom de ponteira como ferramenta na dispersão aquosa de HDL contribuiu para maior estabilidade da suspensão e o ajuste nos parâmetros do sistema de coagulação, levaram a obtenção de grumos uniformes do ponto de vista macroscópico e microscópico. As micrografias dos coágulos não vulcanizados obtidas por MEV-FEG confirmaram as informações apuradas a partir dos difratogramas de raios-X que apontou a formação de um sistema parcialmente esfoliado, em função da ausência dos picos característicos da hidrotalcita, além de indicarem a coexistência de partículas em dimensões micrométrica a nanométricas em uma mesma estrutura. A composição química do HDL, com a presença de átomos de magnésio e alumínio combinados com grupos hidroxila favoreceu a redução tanto o tempo de indução como de pré-cura. As propriedades mecânicas que se mostraram mais sensíveis ao grau de dispersão da carga foram a dureza, a deformação permanente à compressão (DPC) e o módulo de tração a 300% de deformação (E300), em especial para os compósitos contendo 10% m/m de HDL natural e modificado com estearato. A resistência à chama dos nanocompósitos de NBR-HDL vulcanizados apresentou um ligeiro aumento quando comparados à NBR pura, visto que esta é uma característica própria da hidrotalcita, decorrente da sua composição química