986 resultados para Coeficientes ofensivos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem o objetivo geral de investigar a associação entre estresse e acidentes no trabalho em funcionários técnico-administrativos efetivos de uma universidade pública no Rio de Janeiro por meio de modelos multiníveis. Para alcançar tal objetivo, a tese foi distribuída em dois artigos. O primeiro artigo investiga a associação entre estresse e acidentes no trabalho considerando componentes hierárquicos da estrutura dos dados por meio de modelos multiníveis com funcionários no primeiro nível agrupados em setores de trabalho no segundo nível. O segundo artigo investiga o comportamento dos coeficientes fixos e aleatórios dos modelos multiníveis com classificação cruzada entre setores de trabalho e grupos ocupacionais em relação aos modelos multiníveis que consideram apenas componentes hierárquicos dos setores de trabalho, ignorando o ajuste dos grupos ocupacionais. O estresse psicossocial no trabalho foi abordado a partir das relações entre alta demanda psicológica e baixo controle do processo laboral, Estas dimensões foram captadas por meio da versão resumida da escala Karasek, que também contém informações sobre o apoio social no trabalho. Dimensões isoladas do estresse no trabalho (demanda e controle), razão entre demanda psicológica e controle do trabalho (Razão D/C) e o apoio social no trabalho foram mensurados no nível individual e nos setores de trabalho. De modo geral, os resultados destacam a demanda psicológica mensurada no nível individual como um importante fator associado à ocorrência de acidentes de trabalho. O apoio social no trabalho, mensurado no nível individual e no setor de trabalho, apresentou associação inversa à prevalência de acidentes de trabalho, sendo, no setor, acentuada entre as mulheres. Os resultados também mostram que os parâmetros fixos dos modelos com e sem classificação cruzada foram semelhantes e que, de modo geral, os erros padrões (EP) foram um pouco maiores nos modelos com classificação cruzada, apesar deste comportamento do EP não ter sido observado quando relacionado aos coeficientes fixos das variáveis agregadas no setor de trabalho. A maior distinção entre as duas abordagens foi observada em relação aos coeficientes aleatórios relacionados aos setores de trabalho, que alteraram substancialmente após ajustar o efeito da ocupação por meio dos modelos com classificação cruzada. Este estudo reforça a importância de características psicossociais na ocorrência de acidentes de trabalho e contribui para o conhecimento dessas relações a partir de abordagens analíticas que refinam a captação da estrutura de dependência dos indivíduos em seu ambiente de trabalho. Sugere-se a realização de outros estudos com metodologia similar, que permitam aprofundar o conhecimento sobre estresse e acidentes no trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Es]En este proyecto se analizan el diseño y la evaluación de dos métodos para la supresión de la interferencia generada por las compresiones torácicas proporcionadas por el dispositivo mecánico LUCAS, en el electrocardiograma (ECG) durante el masaje de resucitación cardiopulmonar. El objetivo es encontrar un método que elimine el artefacto generado en el ECG de una manera efectiva, que permita el diagnóstico fiable del ritmo cardiaco. Encontrar un método eficaz sería de gran ayuda para no tener que interrumpir el masaje de resucitación para el análisis correcto del ritmo cardiaco, lo que supondría un aumento en las probabilidades de resucitación. Para llevar a cabo el proyecto se ha generado una base de datos propia partiendo de registros de paradas cardiorrespiratorias extra-hospitalarias. Esta nueva base de datos contiene 410 cortes correspondientes a 86 pacientes, siendo todos los episodios de 30 segundos de duración y durante los cuales el paciente, recibe masaje cardiaco. Por otro lado, se ha desarrollado una interfaz gráfica para caracterizar los métodos de supresión del artefacto. Esta, muestra las señales del ECG, de impedancia torácica y del ECG tras eliminar el artefacto en tiempo. Mediante esta herramienta se han procesado los registros aplicando un filtro adaptativo y un filtro de coeficientes constantes. La evaluación de los métodos se ha realizado en base a la sensibilidad y especificidad del algoritmo de clasificación de ritmos con las señales ECG filtradas. La mayor aportación del proyecto, por tanto, es el desarrollo de una potente herramienta eficaz para evaluar métodos de supresión del artefacto causado en el ECG por las compresiones torácicas al realizar el masaje de resucitación cardiopulmonar, y su posterior diagnóstico. Un instrumento que puede ser implementado para analizar episodios de resucitación de cualquier tipo de procedencia y capaz de integrar nuevos métodos de supresión del artefacto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A descoberta de reservatórios de petróleo na camada do pré-sal abriu novas perspectivas para a economia brasileira. A grandes profundidades, com elevado teor de CO2 e submetidos a altas pressões e temperaturas, a exploração de petróleo das camadas de pré-sal constitui um considerável desafio tecnológico. Neste contexto, o conhecimento dos coeficientes de compressibilidade são fundamentais para o estudo do comportamento termodinâmico e escoamento dos fluidos destes campos de produção. Com este objetivo, foram determinadas experimentalmente nesta dissertação a massa específica e a velocidade do som de sistemas envolvendo quatro hidrocarbonetos puros: n-decano, n-hexadecano, decalina e tetralina, assim como para sistemas multicompostos envolvendo estes hidrocarbonetos e para uma amostra de condensado de petróleo. Os resultados obtidos permitiram o cálculo dos coeficientes de compressibilidade isentrópica, isotérmica e isentálpica. É apresentada uma avaliação sobre a capacidade de se correlacionar dados experimentais de velocidade do som aos dados calculados pelas equações de estado de Peng-Robinson e Lee-Kesler com regras de mistura: (i) Spencer e Danner e (ii) Lee-Kesler

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las ideas básicas de la teoría de los espacios de Hilbert tienen como origen diversos problemas del análisis funcional, entre los cuales podemos citar los relativos a ciertas ecuaciones integrales lineales. Concretamente, un precedente de los métodos de la teoría espectral de operadores fue precisamente el enfoque de I. Fredholm de resolución de ciertas ecuaciones integrales mediante la teoría de matrices y determinantes infinitos utilizando el método de coeficientes indeterminados. Imitando la técnica de von Koch para desarrollar determinantes infinitos, Fredholm desarrolló su famoso teorema de alternativa en la resolución de las ecuaciones que llevan su nombre. Algunos tipos de ecuaciones integrales lineales están relacionados con operadores acotados completamente continuos y la teoría espectral para esta clase de operadores se podrá aplicar en la resolución de estas ecuaciones. En esta memoria se estudian distintos aspectos de estas y otras ecuaciones integrales. En el capítulo 1 se definen los conceptos básicos necesarios para el seguimiento de la misma, como es la de operador lineal y sus propiedades. Se distingue una clase importante de operadores, los compactos. Y se demuestra que todo operador integral pertenece a esta clase de operadores. En los capítulos 2 y 3 se introduce el concepto de ecuación integral, diferenciando las de Fredholm de las de Volterra, y se estudian diferentes técnicas de resolución de dichas ecuaciones, como son el teorema de alternativa, el teorema espectral para operadores compactos y autoadjuntos, ecuaciones integrales con núcleos degenerados y resolución por el método de aproximaciones sucesivas. Para finalizar, en el apéndice se resuelven algunos ejercicios utilizando los diferentes métodos estudiados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo descrever o potencial de biossorção de lantânio pelas microalgas Ankistrodesmus sp. e Golenkinia sp. livres e pellets de alginato de cálcio, com e sem as microalgas imobilizadas, a partir de soluções aquosas. Para isso foram realizados estudos em regime batelada e em coluna de leito fixo. Modelos cinéticos de pseudo-primeira ordem e de segunda ordem e isotermas de equilíbrio de Langmuir e de Freundlich foram utilizados para a descrição quantitativa e a previsão do comportamento de adsorção do metal pelas biomassas livres e imobilizadas no sistema descontínuo. Os dados foram mais bem ajustados pelo modelo cinético de segunda ordem, com coeficientes de determinação (r2) maiores que 0,98. Foram obtidos tempos de equilibrio muito curtos, na faixa de 1-30 minutos. A isoterma de Langmuir foi a que melhor se ajustou aos dados experimentais, com valores de r2 maiores que 0,94. Foram observados valores de qmáx, isto é, a quantidade máxima de metal captado pelo biossorvente, entre 0,96 e 10,43 mmol/g. As células livres mostraram-se mais eficientes do que os pellets caracterizados com e sem os micro-organismos. Os pellets mostraram melhor potencial quando contendo microalgas imobilizadas, em comparação com eles puros. No estudo dinâmico, 12 L de solução contendo uma concentração de La (III) de 150 mmol/L ascenderam pela coluna contendo Ankistrodesmus sp. e Golenkinia sp. imobilizadas e pellets de alginato de cálcio puros durante 8 horas. No último minuto, os três biossorventes ainda apresentaram cerca de 80% de eficiência de remoção. Desta forma, o ponto de satuação não foi atingido. A rápida e alta capacidade de adsorção das microalgas revelou que sua aplicação em escala superior é possível em ambos os processos estudados, uma vez que a imobilização desses biomateriais não mudou a sua capacidade de sorção e nem o rápido contato entre o adsorvente e o soluto no processo de biossorção de lantânio

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] Este estudio analiza la relación entre productividad laboral, innovación radical, innovación incremental, tecnología incorporada en maquinaria y equipos, utilización de la capacidad productiva y formación. Los datos utilizados son de empresas españolas, manufactureras y de servicios, procedentes de la Business Environment and enterprise Performance Survey (BEEPS). La técnica empleada para estimar los coeficientes del modelo es la regresión mínimo cuadrática ordinaria, ya que la variable dependiente (productividad laboral) es continua. Los resultados indican que la innovación radical y la formación influyen positiva y significativamente sobre la productividad laboral. La influencia de la tecnología incorporada también es significativa, pero de signo negativo. Finalmente, señalar que las empresas que más exportan y las de mayor tamaño alcanzan mayores niveles de productividad. Los hallazgos encontrados en este estudio tienen implicaciones para los responsables de la política económica. Los decisores políticos españoles deben promover y subsidiar la adquisición de maquinaria y equipos más eficientes para las empresas que alcanzan menores niveles de productividad, así como subsidiar la formación de trabajadores cualificados en el manejo de estos nuevos equipos. Además, también deben promover y subsidiar el desarrollo de actividades de elevado contenido en I+D para las empresas que consiguen elevados niveles de productividad, a fin de que incrementen su desempeño en innovación radical. La promoción y subsidiación de programas de formación relacionados con la I+D también resulta esencial en este tipo de empresas, máxime en un escenario caracterizado por un cambio tecnológico intenso y que se produce con gran rapidez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga a utilização do solo do Aterro Sanitário de Rio das Ostras como forma de tratamento de lixiviado, de modo a quantificar a redução de contaminastes, cor e valores de DQO. A utilização do solo argiloso para redução de contaminantes, cor e valores de valores de DQO foi estudada usando três lixiviados diferentes: Rio das Ostras, Morro do Céu e aterro grande porte em ensaios para medida de sorção. As análises de redução de cor e valores de DQO foram realizadas, tendo o resultado mostrado uma redução de cor que variou de 45 a 73% e valores de DQO entre 7 e 66%, usando ensaios do tipo Batch Tests pelo Método CSI. Outros ensaios foram realizados pelo Método ECI de Batch Tests que mostraram resultados melhores de redução de cor, entre 60 e 80% apresentando uma capacidade de sorção do solo argiloso de 22 mg/g. Os ensaios de sorção, com os três lixiviados, foram também utilizados, para estudo do comportamento de certos contaminantes amônio, potássio, sódio e cálcio com relação ao solo argiloso de Rio das Ostras. Foi observada uma dessorção para os íons sódio e cálcio e também uma alta sorção para os íons amônio e potássio. O solo e o lixiviado do Aterro Sanitário de Rio das Ostras foram utilizados para pesquisa de determinação dos coeficientes de difusão molecular para os íons amônio, potássio, sódio, cloreto e cálcio, simulados nos programas computacionais POLLUTE e MPHMTP. Os resultados do coeficiente de difusão para o POLLUTE variaram entre 0,03 m2/ano e 0,1 m2/ano sendo no MPHMTP de 0,06 m2/ano a 0,1 m2/ano. Os dados experimentais mostraram melhor comportamento nas simulações realizadas no MPHMTP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A degradação ambiental do Noroeste do Estado do Rio de Janeiro tem se intensificado nas últimas décadas devido às práticas agrícolas não preservacionistas. Esta situação, que decorre do uso inadequado do solo, tem implicado em mudanças na oferta hídrica em grau variável nos municípios da região com prejuízos econômicos nas atividades dos pequenos e médios proprietários rurais e na qualidade de vida. A abordagem para enfrentar problemas deste tipo depende da participação efetiva das instâncias de governo e dos órgãos responsáveis pela gestão dos recursos hídricos. No âmbito da hidrologia os modelos hidrológicos com base no uso e ocupação do solo são ferramentas que podem auxiliar com ótimo custo e benefício a geração de informações em bacias hidrográficas, instrumentadas ou não. Os modelos são úteis ao planejamento e à tomada de decisão por possibilitarem a previsão de vazões e simulação de cenários sobre o uso do solo e qualidade da água. Neste sentido, o presente estudo pretende dar sua contribuição ao avaliar a adequabilidade do modelo SWAT simular o processo chuva-vazão na microbacia experimental de Santa Maria e Cambiocó, com 13,5 km2, localizada na região hidrográfica do rio Muriaé, afluente do rio Paraíba do Sul. O SWAT tem sido empregado em bacias agrícolas nos EUA, na Europa e, atualmente, na China, sudeste asiático e Irã, entre outros países, e na última década maior inserção no meio acadêmico brasileiro. A versão 2005 do modelo foi utilizada por meio da sua interface SIG para simular as vazões médias diárias com base na precipitação medida no intervalo de 15 minutos no período de 2005/2006. As vazões simuladas foram comparadas com as vazões observadas no exutório da microbacia. Foram testadas as ferramentas de análise de sensibilidade e autocalibração. O método de calibração manual foi usado para o ajuste por tentativa e erro. Os parâmetros ajustados corresponderam ao CN2 e ESCO. Os valores obtidos na calibração para os coeficientes estatísticos R2, NSE, PBIAS e RSR foram 0,80, 0,80, 7,02 e 0,45, respectivamente, indicando escore muito bom, o que foi confirmado pela inspeção dos hidrogramas. As saídas validadas para período diferente da calibração forneceram para os mesmos coeficientes os valores 0,84, 0,80, 25,92 e 0,44. Os dois primeiros, com escore muito bom. O valor de PBIAS, no limite do satisfatório, e RSR, muito bom. O desempenho permitiu concluir que a simulação com o SWAT foi adequada. Em relação às pesquisas que têm sido realizadas no Brasil os valores obtidos para os indicadores foram semelhantes, indicando a capacidade do modelo para novos estudos nesta microbacia que considerem os usos consuntivos e cenários de uso do solo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise de fundações sob solicitações dinâmicas é algo sempre presente em projetos na área industrial. É um campo pouco explorado na área de engenharia geotécnica, onde existem relativamente poucas informações no Brasil, de maneira geral. O método mais comum de realizar essas análises é a simplificação de modelos estruturais a partir do uso de molas. Sabe-se que esses coeficientes de reação têm uma variação relativamente grande e que esse enfoque de projeto pode, em alguns casos, mostrar-se contra a segurança ou levar a superdimensionamentos desnecessários. Verifica-se, então, a necessidade de uma avaliação mais criteriosa, utilizando a interação solo x estrutura, onde as molas comumente utilizadas nas análises vibratórias convencionais são substituídas pela rigidez real do solo quando concebido como um meio contínuo, através de sua discretização pelo método dos elementos finitos. A presente dissertação analisa o problema através do módulo de dinâmica do programa Plaxis 2D. Neste tipo de análise, além da modelagem do solo como um meio contínuo, torna-se possível introduzir condições de contorno específicas ao problema em estudo, múltiplas camadas de solo, sejam horizontais ou inclinadas, além da introdução de amortecedores capazes de evitar a reflexão espúria das ondas incidentes nos limites da malha de elementos finitos e assim modelar mais adequadamente a perda de energia por radiação. A presente dissertação compara medições experimentais e soluções eficientes de métodos vibratórios clássicos com a resposta obtida pelo MEF, mostrando resultados bastante satisfatórios tanto pelos métodos clássicos quanto pelo MEF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento da população e dos núcleos urbanos durante o século XX, sobretudo nos países em desenvolvimento, contribuiu para o aumento das áreas impermeáveis das bacias hidrográficas, com impactos importantes nos sistemas de drenagem urbana e na ocorrência de enchentes associadas. As enchentes trazem prejuízos materiais, na saúde e sociais. Recentemente, têm sido propostas práticas conservacionistas e medidas compensatórias, que buscam contribuir para o controle das enchentes urbanas, através do retardo do pico e amortecimento dos hidrogramas. Modelos matemáticos hidrológicos-hidráulicos permitem a simulação da adoção destas medidas de controle, demonstrando e otimizando sua localização. Esta dissertação apresenta os resultados da aplicação do modelo hidrológico Storm Water Management Model (SWMM) à bacia hidrográfica de estudo e representativa do rio Morto localizada em área peri-urbana em Jacarepaguá na cidade do Rio de Janeiro, com área de 9,41 km. O processamento do modelo SWMM foi realizado com o apoio da interface Storm and Sanitary Analysis (SSA), integrada ao sistema AutoCAD Civil 3D. Além da verificação da adequabilidade do modelo à representação dos sistemas hidrológico e hidráulico na bacia, foram desenvolvidos estudos para dois cenários como medidas de controle de enchentes: cenário 1, envolvendo implantação de um reservatório de detenção e, cenário 2, considerando a implantação de reservatórios de águas pluviais nos lotes. Os hidrogramas resultantes foram comparados ao hidrograma resultante da simulação nas condições atuais. Além disso, foram avaliados os custos associados a cada um dos cenários usando o sistema de orçamento da Empresa Rio Águas da PCRJ. Nas simulações foram adotadas a base cartográfica, e os dados climatológicos e hidrológicos previamente observados no contexto do projeto HIDROCIDADES, Rede de Pesquisa BRUM/FINEP, na qual este estudo se insere. Foram representados os processos de geração e propagação do escoamento superficial e de base. Durante o processo de calibração, realizou-se a análise de sensibilidade dos parâmetros, resultando como parâmetros mais sensíveis os relativos às áreas impermeáveis, especialmente o percentual de área impermeável da bacia (Ai). A calibração foi realizada através do ajuste manual de sete parâmetros do escoamento superficial e cinco do escoamento de base para três eventos. Foram obtidos coeficientes de determinação entre 0,52 e 0,64, e a diferença entre os volumes escoados e observados entre 0,60% e 4,96%. Para a validação do modelo foi adotado um evento pluviométrico excepcional observado na cidade em abril de 2010, que à época causou enchentes e grandes transtornos na cidade. Neste caso, o coeficiente de determinação foi igual a 0,78 e a diferença entre volumes foi de 15%. As principais distorções entre hidrogramas observados e simulados foram verificados para as vazões máximas. Em ambos os cenários as enchentes foram controladas. A partir destes estudos, pôde-se concluir que o melhor custo-benefício foi o cenário 2. Para este cenário, foi observado maiores amortecimento e retardo da vazão de pico do hidrograma, igual a 21,51% da vazão simulada para as condições atuais da bacia. Os custos de implantação orçados para os reservatórios de lote ficaram 52% a menos do que o do reservatório de detenção.