17 resultados para Análise estática linear
em Biblioteca de Teses e Dissertações da USP
Resumo:
O método dos elementos finitos é o método numérico mais difundido na análise de estruturas. Ao longo das últimas décadas foram formulados inúmeros elementos finitos para análise de cascas e placas. As formulações de elementos finitos lidam bem com o campo de deslocamentos, mas geralmente faltam testes que possam validar os resultados obtidos para o campo das tensões. Este trabalho analisa o elemento finito T6-3i, um elemento finito triangular de seis nós proposto dentro de uma formulação geometricamente exata, em relação aos seus resultados de tensões, comparando-os com as teorias analíticas de placas, resultados de tabelas para o cálculo de momentos em placas retangulares e do ANSYSr, um software comercial para análise estrutural, mostrando que o T6-3i pode apresentar resultados insatisfatórios. Na segunda parte deste trabalho, as potencialidades do T6-3i são expandidas, sendo proposta uma formulação dinâmica para análise não linear de cascas. Utiliza-se um modelo Lagrangiano atualizado e a forma fraca é obtida do Teorema dos Trabalhos Virtuais. São feitas simulações numéricas da deformação de domos finos que apresentam vários snap-throughs e snap-backs, incluindo domos com vincos curvos, mostrando a robustez, simplicidade e versatilidade do elemento na sua formulação e na geração das malhas não estruturadas necessárias para as simulações.
Resumo:
Este trabalho consiste em investigar as relações entre poética e contexto em duas obras: O padre e a moça (longa-metragem ficcional que Joaquim Pedro de Andrade finalizou em 1965), e o poema (de que Joaquim Pedro se apropria) O padre, a moça (publicado por Carlos Drummond de Andrade em Lição de coisas, de 1962). Como se trata de duas obras profundamente dialogais, a investigação sobre o caráter de empenho estético-ideológico orienta-se, evidentemente, pelo cotejo. O contexto dos 1960 (atravessado pelos dilemas da modernização capitalista dependente e periférica) revela-se fundamental para a compreensão de aspectos temático-formais de ambas as obras (uma, anterior ao Golpe de 1964, a outra, imediatamente posterior). A presença do contexto em ambos os textos, entretanto, exige a compreensão sobre as mediações propriamente artísticas. Para tanto, a pesquisa procura orientar-se pelo método de redução estrutural (desenvolvido por Antônio Candido); nem por isso, abre mão de refletir sobre seus pressupostos teórico-metodológicos (tomados à análise estética, mas também às reflexões sociológicas, historiográficas e filosóficas).
Avaliação de métodos numéricos de análise linear de estabilidade para perfis de aço formados a frio.
Resumo:
Para o projeto de estruturas com perfis de aço formados a frio, é fundamental a compreensão dos fenômenos da instabilidade local e global, uma vez que estes apresentam alta esbeltez e baixa rigidez à torção. A determinação do carregamento crítico e a identificação do modo de instabilidade contribuem para o entendimento do comportamento dessas estruturas. Este trabalho avalia três metodologias para a análise linear de estabilidade de perfis de aço formados a frio isolados, com o objetivo de determinar os carregamentos críticos elásticos de bifurcação e os modos de instabilidade associados. Estritamente, analisa-se perfis de seção U enrijecido e Z enrijecido isolados, de diversos comprimentos e diferentes condições de vinculação e carregamento. Determinam-se os carregamentos críticos elásticos de bifurcação e os modos de instabilidade globais e locais por meio de: (i) análise com o Método das Faixas Finitas (MFF), através do uso do programa computacional CUFSM; (ii) análise com elementos finitos de barra baseados na Teoria Generalizada de Vigas (MEF-GBT), via uso do programa GBTUL; e (iii) análise com elementos finitos de casca (MEF-cascas) por meio do uso do programa ABAQUS. Algumas restrições e ressalvas com relação ao uso do MFF são apresentadas, assim como limitações da Teoria Generalizada de Viga e precauções a serem tomadas nos modelos de cascas. Analisa-se também a influência do grau de discretização da seção transversal. No entanto, não é feita avaliação em relação aos procedimentos normativos e tampouco análises não lineares, considerando as imperfeições geométricas iniciais, tensões residuais e o comportamento elastoplástico do material.
Resumo:
O objeto deste trabalho é a análise do aproveitamento múltiplo do reservatório de Barra Bonita, localizado na confluência entre os rios Piracicaba e Tietê, no estado de São Paulo e pertencente ao chamado sistema Tietê-Paraná. Será realizada a otimização da operação do reservatório, através de programação linear, com o objetivo de aumentar a geração de energia elétrica, através da maximização da vazão turbinada. Em seguida, a partir dos resultados da otimização da geração de energia, serão utilizadas técnicas de simulação computacional, para se obter índices de desempenho conhecidos como confiabilidade, resiliência e vulnerabilidade, além de outros fornecidos pelo próprio modelo de simulação a ser utilizado. Estes índices auxiliam a avaliação da freqüência, magnitude e duração dos possíveis conflitos existentes. Serão analisados os possíveis conflitos entre a navegação, o armazenamento no reservatório, a geração de energia e a ocorrência de enchentes na cidade de Barra Bonita, localizada a jusante da barragem.
Resumo:
Uniões por prendedores são elementos amplamente utilizados na indústria aeronáutica para a união de partes constituintes da aeronave. Contudo, devido à sua geometria e aos carregamentos sofridos, estes elementos estão frequentemente sujeitos a falhas por fadiga. Assim, para um projeto e dimensionamento bem executado dessas juntas, é necessário conhecer seu comportamento mecânico e o campo de tensões ao qual estão sujeitas. O método dos elementos finitos certamente atende a estas necessidades; porém, o uso de elementos sólidos tridimensionais para a representação destas uniões pode levar a análises demasiadamente demoradas e custosas, sendo desejável o uso de modelos mais simplificados. Nesse trabalho, juntas de topo assimétricas são modeladas pelo método dos elementos finitos, utilizando tanto elementos sólidos tridimensionais quanto elementos de casca, com o objetivo de encontrar um modelo relativamente simples que apresente resultados satisfatórios e requeira um menor tempo de solução. Os resultados numéricos obtidos são comparados com resultados experimentais, que utilizam extensômetros e fotoelasticidade.
Resumo:
Propõe-se método novo e completo para análise de acetona em ar exalado envolvendo coleta com pré-concentração em água, derivatização química e determinação eletroquímica assistida por novo algoritmo de processamento de sinais. Na literatura recente a acetona expirada vem sendo avaliada como biomarcador para monitoramento não invasivo de quadros clínicos como diabetes e insuficiência cardíaca, daí a importância da proposta. Entre as aminas que reagem com acetona para formar iminas eletroativas, estudadas por polarografia em meados do século passado, a glicina apresentou melhor conjunto de características para a definição do método de determinação por voltametria de onda quadrada sem a necessidade de remoção de oxigênio (25 Hz, amplitude de 20 mV, incremento de 5 mV, eletrodo de gota de mercúrio). O meio reacional, composto de glicina (2 mol·L-1) em meio NaOH (1 mol·L-1), serviu também de eletrólito e o pico de redução da imina em -1,57 V vs. Ag|AgCl constituiu o sinal analítico. Para tratamento dos sinais, foi desenvolvido e avaliado um algoritmo inovador baseado em interpolação de linha base por ajuste de curvas de Bézier e ajuste de gaussiana ao pico. Essa combinação permitiu reconhecimento e quantificação de picos relativamente baixos e largos sobre linha com curvatura acentuada e ruído, situação em que métodos convencionais falham e curvas do tipo spline se mostraram menos apropriadas. A implementação do algoritmo (disponível em http://github.com/batistagl/chemapps) foi realizada utilizando programa open source de álgebra matricial integrado diretamente com software de controle do potenciostato. Para demonstrar a generalidade da extensão dos recursos nativos do equipamento mediante integração com programação externa em linguagem Octave (open source), implementou-se a técnica da cronocoulometria tridimensional, com visualização de resultados já tratados em projeções de malha de perspectiva 3D sob qualquer ângulo. A determinação eletroquímica de acetona em fase aquosa, assistida pelo algoritmo baseado em curvas de Bézier, é rápida e automática, tem limite de detecção de 3,5·10-6 mol·L-1 (0,2 mg·L-1) e faixa linear que atende aos requisitos da análise em ar exalado. O acetaldeído, comumente presente em ar exalado, em especial, após consumo de bebidas alcoólicas, dá origem a pico voltamétrico em -1,40 V, contornando interferência que prejudica vários outros métodos publicados na literatura e abrindo possibilidade de determinação simultânea. Resultados obtidos com amostras reais são concordantes com os obtidos por método espectrofotométrico, em uso rotineiro desde o seu aperfeiçoamento na dissertação de mestrado do autor desta tese. Em relação à dissertação, também se otimizou a geometria do dispositivo de coleta, de modo a concentrar a acetona num volume menor de água gelada e prover maior conforto ao paciente. O método completo apresentado, englobando o dispositivo de amostragem aperfeiçoado e o novo e efetivo algoritmo para tratamento automático de sinais voltamétricos, está pronto para ser aplicado. Evolução para um analisador portátil depende de melhorias no limite de detecção e facilidade de obtenção eletrodos sólidos (impressos) com filme de mercúrio, vez que eletrodos de bismuto ou diamante dopado com boro, entre outros, não apresentaram resposta.
Resumo:
O objetivo dessa pesquisa foi avaliar aspectos genéticos que relacionados à produção in vitro de embriões na raça Guzerá. O primeiro estudo focou na estimação de (co) variâncias genéticas e fenotípicas em características relacionadas a produção de embriões e na detecção de possível associação com a idade ao primeiro parto (AFC). Foi detectada baixa e média herdabilidade para características relacionadas à produção de oócitos e embriões. Houve fraca associação genética entre características ligadas a reprodução artificial e a idade ao primeiro parto. O segundo estudo avaliou tendências genéticas e de endogamia em uma população Guzerá no Brasil. Doadoras e embriões produzidos in vitro foram considerados como duas subpopulações de forma a realizar comparações acerca das diferenças de variação anual genética e do coeficiente de endogamia. A tendência anual do coeficiente de endogamia (F) foi superior para a população geral, sendo detectado efeito quadrático. No entanto, a média de F para a sub- população de embriões foi maior do que na população geral e das doadoras. Foi observado ganho genético anual superior para a idade ao primeiro parto e para a produção de leite (305 dias) entre embriões produzidos in vitro do que entre doadoras ou entre a população geral. O terceiro estudo examinou os efeitos do coeficiente de endogamia da doadora, do reprodutor (usado na fertilização in vitro) e dos embriões sobre resultados de produção in vitro de embriões na raça Guzerá. Foi detectado efeito da endogamia da doadora e dos embriões sobre as características estudadas. O quarto (e último) estudo foi elaborado para comparar a adequação de modelos mistos lineares e generalizados sob método de Máxima Verossimilhança Restrita (REML) e sua adequação a variáveis discretas. Quatro modelos hierárquicos assumindo diferentes distribuições para dados de contagem encontrados no banco. Inferência foi realizada com base em diagnósticos de resíduo e comparação de razões entre componentes de variância para os modelos em cada variável. Modelos Poisson superaram tanto o modelo linear (com e sem transformação da variável) quanto binomial negativo à qualidade do ajuste e capacidade preditiva, apesar de claras diferenças observadas na distribuição das variáveis. Entre os modelos testados, a pior qualidade de ajuste foi obtida para o modelo linear mediante transformação logarítmica (Log10 X +1) da variável resposta.
Resumo:
In the analysis of heart rate variability (HRV) are used temporal series that contains the distances between successive heartbeats in order to assess autonomic regulation of the cardiovascular system. These series are obtained from the electrocardiogram (ECG) signal analysis, which can be affected by different types of artifacts leading to incorrect interpretations in the analysis of the HRV signals. Classic approach to deal with these artifacts implies the use of correction methods, some of them based on interpolation, substitution or statistical techniques. However, there are few studies that shows the accuracy and performance of these correction methods on real HRV signals. This study aims to determine the performance of some linear and non-linear correction methods on HRV signals with induced artefacts by quantification of its linear and nonlinear HRV parameters. As part of the methodology, ECG signals of rats measured using the technique of telemetry were used to generate real heart rate variability signals without any error. In these series were simulated missing points (beats) in different quantities in order to emulate a real experimental situation as accurately as possible. In order to compare recovering efficiency, deletion (DEL), linear interpolation (LI), cubic spline interpolation (CI), moving average window (MAW) and nonlinear predictive interpolation (NPI) were used as correction methods for the series with induced artifacts. The accuracy of each correction method was known through the results obtained after the measurement of the mean value of the series (AVNN), standard deviation (SDNN), root mean square error of the differences between successive heartbeats (RMSSD), Lomb\'s periodogram (LSP), Detrended Fluctuation Analysis (DFA), multiscale entropy (MSE) and symbolic dynamics (SD) on each HRV signal with and without artifacts. The results show that, at low levels of missing points the performance of all correction techniques are very similar with very close values for each HRV parameter. However, at higher levels of losses only the NPI method allows to obtain HRV parameters with low error values and low quantity of significant differences in comparison to the values calculated for the same signals without the presence of missing points.
Resumo:
Nos últimos anos, a partir do surgimento da ideia de Estado Democrático de Direito, a moderna doutrina processualista passou a entender o processo não só como meio destinado à pacificação social, passando a encará-lo como mecanismo destinado a fazer valer garantias e direitos constitucionais e a alcançar a pacificação justa dos litígios. A partir deste novo contexto, verificou-se a limitação de alguns institutos processuais vigentes, que embora pudessem auxiliar na obtenção do escopo de pacificação, deixavam de resguardar ou de implementar, em alguns momentos, determinadas garantias constitucionais, o que prejudicava o fim último de acesso à ordem jurídica justa. Uma das limitações verificadas a partir da perspectiva publicista de processo corresponde à regra estática de distribuição dos encargos probatórios conforme a natureza dos fatos alegados, uma vez que esta deixava de observar eventual impossibilidade da parte em cumprir com seu encargo. Ante tal limitação, foi desenvolvida uma teoria destinada a reequilibrar a relação processual, assegurando a implementação das garantias constitucionais, quando a regra estática de distribuição dos encargos probatórios não se mostrava suficiente a assegurar o acesso à ordem jurídica justa. Denominada de distribuição dinâmica do ônus da prova (ou teoria das cargas probatórias dinâmicas) a teoria foi pensada a fim de, em tais situações e conforme as peculiaridades do caso concreto, determinar a redistribuição do encargo probatório a fim de que este recaia sobre as partes em melhores condições. Contudo, há grande divergência doutrinária sobre a viabilidade prática da distribuição dinâmica do ônus da prova, sendo apontados diversos problemas que podem decorrer de sua aplicação. O presente trabalho pretende contribuir com a análise do tema, a partir de um estudo sobre as razões que impuseram a criação do instituto, bem como as contribuições que sua implementação traz ao processo civil, encarado sobre a ótica de processo constitucional, e os riscos que podem decorrer de sua aplicação, de forma a verificar se existe viabilidade em sua aplicação e eventuais formas de se afastar os problemas apontados pelos críticos à teoria.
Resumo:
A lamotrigina (LTG) é um fármaco pertencente à classe das feniltriazinas utilizado no tratamento de crises epilépticas generalizadas e focais e no tratamento adjunto da epilepsia refratária. Devido à alta variabilidade interindividual, às interações medicamentosas e aos efeitos adversos apresentados durante a administração da LTG, a monitorização terapêutica nos pacientes que fazem uso deste fármaco é necessária para ajuste de dose individual e evitar os efeitos adversos. Assim, o objetivo deste trabalho foi a avaliação de duas técnicas de microextração: a microextração em fase líquida com fibras ocas (HF-LPME) e a microextração líquido-líquido dispersiva (DLLME) para análise da lamotrigina em amostras de plasma de pacientes epilépticos. Primeiramente foram definidas as condições eletroforéticas: foi utilizado um capilar de sílica fundida de 75 ?m de diâmetro interno e 50 cm de comprimento efetivo. O eletrólito de corrida (BGE) foi composto por ácido 2-morfolinoetanosulfônico (MES), na concentração de 130 mmol L-1 e pH 5,0. As análises foram realizadas à temperatura de 20°C e tensão de 15 kV. A amostra foi injetada hidrodinamicamente (0,5 psi por 10 s) e a detecção foi feita em 214 nm. Nestas condições a LTG e o padrão interno (PI), lidocaína, puderam ser analisados em menos de 7 minutos. A HF-LPME foi avaliada no modo de 3 fases, usando 500 ?L de plasma e 3,5 mL de solução fosfato de sódio 50 mmol L-1 pH 9,0 como fase doadora. O solvente utilizado para impregnar a fibra foi o 1-octanol. Como fase aceptora foram utilizados 60 ?L de solução de ácido clorídrico pH 4,0. Para avaliação da DLLME, foi necessária uma etapa de pré-tratamento da amostra (500 ?L de plasma) com 1 mL de acetonitrila. Após isto, 1,3 mL do sobrenadante foram adicionados a 4 mL de solução fosfato de sódio 50 mmol L-1 pH 9,0 e 120 ?L de clorofórmio (solvente extrator) foram injetados nesta amostra aquosa e 165 ?L de fase sedimentada foram recuperados. As características de desempenho analítico para ambos os métodos foram avaliadas, sendo obtida linearidade na faixa de concentração plasmática de 1-20 ?g/mL e limite inferior de quantificação (LIQ) de 1 ?g mL-1. Os ensaios de precisão e exatidão apresentaram valores de acordo com os guias oficiais. Além disso, os métodos foram seletivos, não apresentaram efeito residual e as amostras foram estáveis. Os valores de recuperação foram de 54,3 e 23% para HF-LPME e DLLME, respectivamente. Os métodos validados foram aplicados com sucesso em amostras de plasma de pacientes epilépticos em tratamento com a LTG. Além disso, as duas técnicas foram comparadas e a HF-LPME apresentou vantagens em relação à DLLME, mostrando ser uma técnica promissora para análise de matrizes complexas, com reduzido consumo de solvente orgânico e possibilidade de automação.
Resumo:
Este trabalho propõe uma extensão do método de propagação de feixe (BPM - Beam Propagation Method) para a análise de guias de ondas ópticos e acopladores baseados em materiais não-lineares do tipo Kerr. Este método se destina à investigação de estruturas onde a utilização da equação escalar de Helmholtz (EEH) em seu limite paraxial não mais se aplica. Os métodos desenvolvidos para este fim são denominados na literatura como métodos de propagação de feixe de ângulo largo. O formalismo aqui desenvolvido é baseado na técnica das diferenças finitas e nos esquemas de Crank-Nicholson (CN) e Douglas generalizado (GD). Estes esquemas apresentam como característica o fato de apresentarem um erro de truncamento em relação ao passo de discretização transversal, Δx, proporcional a O(Δx2) para o primeiro e O(Δx4). A convergência do método em ambos esquemas é otimizada pela utilização de um algoritmo interativo para a correção do campo no meio não-linear. O formalismo de ângulo largo é obtido pela expansão da EEH para os esquemas CN e GD em termos de polinômios aproximantes de Padé de ordem (1,0) e (1,1) para CN e GD, e (2,2) e (3,3) para CN. Os aproximantes de ordem superior a (1,1) apresentam sérios problemas de estabilidade. Este problema é eliminado pela rotação dos aproximantes no plano complexo. Duas condições de contorno nos extremos da janela computacional são também investigadas: 1) (TBC - Transparent Boundary Condition) e 2) condição de contorno absorvente (TAB - Transparent Absorbing Boundary). Estas condições de contorno possuem a facilidade de evitar que reflexões indesejáveis sejam transmitidas para dentro da janela computacional. Um estudo comparativo da influência destas condições de contorno na solução de guias de ondas ópticos não-lineares é também abordada neste trabalho.
Resumo:
De modo a satisfazer aspectos de resistência, custo ou conforto, o aperfeiçoamento do desempenho das estruturas é uma meta sempre almejada na Engenharia. Melhorias têm sido alcançadas dado ao crescente uso de materiais compósitos, pois estes apresentam propriedades físicas diferenciadas capazes de atender as necessidades de projeto. Associado ao emprego de compósitos, o estudo da plasticidade demonstra uma interessante alternativa para aumentar o desempenho estrutural ao conferir uma capacidade resistente adicional ao conjunto. Entretanto, alguns problemas podem ser encontrados na análise elastoplástica de compósitos, além das próprias dificuldades inerentes à incorporação de fibras na matriz, no caso de compósitos reforçados. A forma na qual um compósito reforçado por fibras e suas fases têm sua representação e simulação é de extrema importância para garantir que os resultados obtidos sejam compatíveis com a realidade. À medida que se desenvolvem modelos mais refinados, surgem problemas referentes ao custo computacional, além da necessidade de compatibilização dos graus de liberdade entre os nós das malhas de elementos finitos da matriz e do reforço, muitas vezes exigindo a coincidência das referidas malhas. O presente trabalho utiliza formulações que permitem a representação de compósitos reforçados com fibras sem que haja a necessidade de coincidência entre malhas. Além disso, este permite a simulação do meio e do reforço em regime elastoplástico com o objetivo de melhor estudar o real comportamento. O modelo constitutivo adotado para a plasticidade é o de von Mises 2D associativo com encruamento linear positivo e a solução deste modelo foi obtida através de um processo iterativo. A formulação de elementos finitos posicional é adotada com descrição Lagrangeana Total e apresenta as posições do corpo no espaço como parâmetros nodais. Com o intuito de averiguar a correta implementação das formulações consideradas, exemplos para validação e apresentação das funcionalidades do código computacional desenvolvido foram analisados.
Resumo:
O aumento da concentração de gases de efeito estufa na atmosfera levou a uma preocupação de como se reduzir as emissões destes gases. Desta preocupação surgiram instrumentos de regulação a fim de reduzir ou controlar os níveis de poluição. Dentro deste contexto, esta pesquisa analisou o setor de transportes de cargas, com ênfase no transporte de soja. No Brasil, o setor de transportes é um dos principais responsáveis pelas emissões de gases de efeito estufa provenientes da queima de combustíveis fósseis. No setor de transportes, as emissões diferem entre os modais, sendo que as ferrovias e hidrovias poluem menos que as rodovias. Desta forma, simulou-se por meio de um modelo de programação linear se a adoção de medidas regulatórias sobre as emissões de CO2 traria uma alteração no uso das ferrovias e hidrovias. Uma das constatações, ao se utilizar o modelo de Minimização de Fluxo de Custo Mínimo para o transporte de soja em 2013, foi que a capacidade de embarque nos terminais ferroviários e hidroviários desempenha um papel fundamental na redução das emissões de CO2. Se não houver capacidade suficiente, a adoção de uma taxa pode não provocar a redução das emissões. No caso do sistema de compra e crédito de carbono, seria necessária a compra de créditos de carbono, numa situação em que a capacidade de embarque nos terminais intermodais seja limitada. Verificou-se, ainda, que melhorias na infraestrutura podem desempenhar um papel mitigador das emissões. Um aumento da capacidade dos terminais ferroviários e hidroviários existentes, bem como o aumento da capacidade dos portos, pode provocar a redução das emissões de CO2. Se os projetos de expansão das ferrovias e hidrovias desenvolvidos por órgãos governamentais saírem do papel, pode-se chegar a uma redução de pouco mais de 50% das emissões de CO2. Consideraram-se ainda quais seriam os efeitos do aumento do uso de biodiesel como combustível e percebeu-se que seria possível obter reduções tanto das emissões quanto do custo de transporte. Efeitos semelhantes foram encontrados quando se simulou um aumento da eficiência energética. Por fim, percebeu-se nesta pesquisa que a adoção de uma taxa não traria tantos benefícios, econômicos e ambientais, quanto a melhoria da infraestrutura logística do país.
Resumo:
Desde a década de 1980 diversos autores apresentaram correlações entre provas de carga estática e ensaios de carregamento dinâmico em estacas. Para uma boa correlação é fundamental que os testes sejam bem executados e que atinjam a ruptura segundo algum critério, como o de Davisson, por exemplo, além de levar em conta o intervalo de tempo entre a execução da prova de carga estática e do ensaio dinâmico, face ao efeito \"set up\". Após a realização do ensaio dinâmico realiza-se a análise CAPWAP que permite a determinação da distribuição do atrito lateral em profundidade, a carga de ponta e outros parâmetros dos solos tais como quakes e damping. A análise CAPWAP é realizada por tentativas através do procedimento \"signal matching\", isto é, o melhor ajuste entre os sinais de força medido pelos sensores e o calculado. É relativamente fácil mostrar que a mesma solução pode ser obtida através de dados de entrada diferentes. Isso significa que apesar de apresentarem cargas mobilizadas próximas o formato da curva da simulação de prova de carga estática, obtida pelo CAPWAP, assim como a distribuição do atrito lateral, podem ser diferentes, mesmo que as análises apresentem \"match quality\" (MQWU) satisfatórios. Uma forma de corrigir o formato da curva simulada do CAPWAP, assim como a distribuição do atrito lateral, é através da comparação com provas de carga estática (PCE). A sobreposição das duas curvas, a simulada e a \"real\", permite a determinação do quake do fuste através do trecho inicial da curva carga-recalque da prova de carga estática, que por sua vez permite uma melhor definição da distribuição do atrito lateral e da reação de ponta. Neste contexto surge o conceito de \"match quality de recalques\" (MQR). Quando a PCE não está disponível, propõe-se efetuar um carregamento estático utilizando o peso próprio do martelo do bate-estaca (CEPM). Mostra-se, através de dois casos de obra, em que estavam disponíveis ensaios de carregamento dinâmico e PCEs, que esse procedimento permite obter uma melhor solução do ponto de vista físico, isto é consistente com as características do subsolo e com a curva carga-recalque da PCE, e não apenas matemático, através da avaliação do \"match quality\" (MQWU).
Resumo:
As viroses causam perdas significativas na cultura do melão. Dentre essas, o vírus do mosaico amarelo da abobrinha-de-moita (Zucchini yellow mosaic virus- ZYMV) possui grande importância para a cultura e é encontrado em todos os locais de plantio de cucurbitáceas. O controle desse vírus através da resistência genética é a forma mais eficiente de manejo. O acesso PI414723 é a única fonte de resistência de meloeiro ao ZYMV. Essa resistência é oligogênica e supostamente condicionada por três genes dominantes: Zym-1, Zym-2 e Zym-3. A localização cromossômica do gene Zym-1 já foi confirmada no grupo de ligação 2, próximo ao marcador CMAG36. Entretanto, a localização de Zym-2 ainda carece de confirmação experimental, muito embora existam evidências de sua localização no grupo de ligação 10 (LGX). Sendo assim, um dos objetivos do presente trabalho foi confirmar a localização do gene Zym-2 através de análises de ligação com marcadores microssatélites (SSRs). Para tanto, foi utilizada uma população F2 derivada do cruzamento PI414723 x \'Védrantais\'. As plantas foram inoculadas mecanicamente com o isolado RN6-F, patótipo 0, duas vezes em um intervalo de 24 h. A confirmação da infecção e a quantificação dos títulos virais nas plantas F2 foram realizadas através do teste PTA-ELISA. O DNA genômico das plantas foi extraído da primeira folha verdadeira e utilizado nas reações de PCR com primers específicos para SSRs selecionados pertencentes ao LGX. Observou-se uma distribuição assimétrica de classes de absorbância e maior frequência de indivíduos F2 na classe com menor valor (0,1 a 0,2), sugerindo a existência de um gene de efeito maior. O teste chi-quadrado mostrou que todos os marcadores segregaram na frequência esperada (1:2:1), exceto o marcador CMCT134b. A ligação do Zym-2 aos marcadores foi confirmada por meio de regressão linear simples. Dos marcadores analisados, a regressão linear foi significativa para MU6549 e CMBR55, com p-valores de 0,011 e 0,0054, respectivamente. As análises de ligação mostraram que as ordens e as distâncias entre os marcadores condizem com os mapas presentes na literatura. Um segundo objetivo do estudo foi o de avaliar a reação ao ZYMV de 42 acessos de meloeiro oriundos da região Nordeste do Brasil, com o intuito de explorar novas fontes de resistência. Foram realizados dois experimentos utilizando a mesma metodologia citada anteriormente. O título viral médio entre os acessos variou de 0,123 a 0,621 no experimento 1 e de 0,019 a 0,368 no experimento 2. Alguns acessos apresentaram consistentemente baixos títulos virais, próximos aos do acesso resistente PI414723 e dos controles negativos (plantas não inoculadas da cultivar \'Védrantais\'). Portanto, estes acessos mostram-se como potenciais fontes de resistência ao vírus para o emprego em programas de melhoramento.