693 resultados para Calibração de camêra
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.
Resumo:
Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.
Resumo:
La recherche portera sur la montée des vidéos de gay bashing depuis 2013. Par vidéo de gay bashing, nous entendons des vidéos documentant l’abus physique ou verbal d’individus perçus par les agresseurs comme étant gais, lesbiennes, bisexuels, transgenres ou queer, mais nous nous concentrerons spécifiquement sur des vidéos montrant des agressions envers des hommes. Ces vidéos peuvent être enregistrées par les agresseurs eux-mêmes ou par des témoins de la scène. Il s’agira de situer cette montée dans un contexte politique de retour de lois et sentiments anti-LGBT dans les pays d’où proviennent certaines des vidéos étudiées et par rapport aux différentes théories anthropologiques et socio-historiques concernant les sources et motivations derrière les actes de violence homophobe. Le corpus se composera de trois vidéos venant de Russie («Putin’s Crackdown on LGBT Teens un Russia»), de Lybie («Gay torture and violent in Lybia») et des États-Unis («Attack at gay pride event in Detroit»). L’analyse du corpus se fera en trois temps : d’abord l’analyse de la forme et du contenu des vidéos en tant que tels, ensuite, l’analyse de leur circulation et des différents utilisateurs qui distribuent les vidéos en ligne, et, finalement, l’analyse de la réception des vidéos en portant attention aux commentaires des utilisateurs. Il s’agira de montrer comment les vidéos de gay-bashing effectuent une rupture par rapport à une vision de YouTube, et autres médias sociaux, comme libérateurs et comme lieux d’expression de soi (particulièrement pour les membres des communautés LGBT) et les transforment en lieux d’une humiliation triplée par l’enregistrement de l’humiliation physique et sa diffusion sur le web. Il s’agira ensuite de voir comment la circulation et la redistribution de ces vidéos par différents groupes et utilisateurs les instrumentalisent selon différents agendas politiques et idéologiques, pour finalement se questionner, en s’inspirant du triangle de l’humiliation de Donald Klein, sur le rôle ambivalent du témoin (physique ou virtuel) dont la présence est nécessaire pour qu’il y ait humiliation. Finalement, nous nous intéresserons aux vidéos de témoignages de gay-bashing, vidéos faites par les victimes elles-mêmes, racontant leur traumatisme à la caméra, renouant ainsi avec les vidéos de coming out sous la forme de l’aveu et de la spectacularisation du soi. La présente recherche sera également l’occasion de développer des outils théoriques et méthodologiques propres aux nouveaux médias et aux nouvelles formes et contenus qui s’y développent.
Resumo:
O objectivo deste trabalho foi o desenvolvimento e validação de uma metodologia analítica para a determinação de clorpromazina em sangue total, tendo a protriptilina sido usada como padrão interno. A extracção e purificação dos analitos foi efectuada por extracção em fase sólida com colunas Oasis® HLB, e análise posterior por cromatografia gasosa com detector de espectrometria de massa de impacto electrónico (GC/EI-MS). Para a preparação das curvas de calibração foram fortificadas diariamente amostras de sangue branco com concentrações crescentes de clorpromazina entre 0,01 e 5 µg/mL. Foi utilizado um modelo de regressão linear, sendo os coeficientes de correlação superiores a 0,998. Os coeficientes de variação e os erros relativos foram respectivamente inferiores a 12 e 13%, cumprindo assim critérios internacionalmente aceites para a validação de métodos bioanalíticos. Foram também estudados os limites de detecção e quantificação, sendo de 3 e 10 ng/mL respectivamente. A interferência de outras substâncias foi excluída por análise de dez amostras brancas de sangue. O rendimento médio do método foi de 81%. Em virtude da sua simplicidade e rapidez, este método pode ser aplicado na determinação deste antipsicótico em amostras de sangue total, sendo adequado para análises de rotina no âmbito da toxicologia clínica e forense.
Resumo:
The most damaging winds in a severe extratropical cyclone often occur just ahead of the evaporating ends of cloud filaments emanating from the so-called cloud head. These winds are associated with low-level jets (LLJs), sometimes occurring just above the boundary layer. The question then arises as to how the high momentum is transferred to the surface. An opportunity to address this question arose when the severe ‘St Jude's Day’ windstorm travelled across southern England on 28 October 2013. We have carried out a mesoanalysis of a network of 1 min resolution automatic weather stations and high-resolution Doppler radar scans from the sensitive S-band Chilbolton Advanced Meteorological Radar (CAMRa), along with satellite and radar network imagery and numerical weather prediction products. We show that, although the damaging winds occurred in a relatively dry region of the cyclone, there was evidence within the LLJ of abundant precipitation residues from shallow convective clouds that were evaporating in a localized region of descent. We find that pockets of high momentum were transported towards the surface by the few remaining actively precipitating convective clouds within the LLJ and also by precipitation-free convection in the boundary layer that was able to entrain evaporatively cooled air from the LLJ. The boundary-layer convection was organized in along-wind rolls separated by 500 to about 3000 m, the spacing varying according to the vertical extent of the convection. The spacing was greatest where the strongest winds penetrated to the surface. A run with a medium-resolution version of the Weather Research and Forecasting (WRF) model was able to reproduce the properties of the observed LLJ. It confirmed the LLJ to be a sting jet, which descended over the leading edge of a weaker cold-conveyor-belt jet.
Resumo:
Este trabalho apresenta um sistema microcontrolado para aquisição dinâmica de sinais. O sistema possui condicionadores analógicos para três canais de entrada, possibilitando a leitura de sinais diferenciais provenientes de transdutores ligados em ponte de Wheatstone. Estes condicionadores provêem tensão de excitação AC, com portadora de 5 kHz. A parte digital do sistema baseia-se no microcontrolador Intel 80C196. Apresenta interface com o usuário através de teclado e mostrador de cristal líquido. A taxa de aquisição é de 1000 amostras/s e o armazenamento dos dados é feito em memória Flash de 4 Mbits. Também possibilita comunicação digital serial com um microcomputador tipo PC para análise e tratamento dos dados adquiridos. Um protótipo do equipamento foi montado interligando as partes analógica e digital. Para a calibração dos condicionadores de sinais foi adotado o procedimento de calibração estática, tendo como referência uma unidade de calibração resistiva padrão. Foi determinado o comportamento dos condicionadores através de ensaios dinâmicos, sendo apresentados gráficos de resposta em amplitude e fase em função da freqüência do sinal de entrada. Os dados resultantes de ensaios estáticos e dinâmicos foram adquiridos por um osciloscópio digital e pelo sistema de aquisição desenvolvido. São mostrados gráficos comparativos dos sinais obtidos com ambos os equipamentos.
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.
Resumo:
Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
Testes de toxicidade crônica, analisando a inibição de crescimento algáceo após 96 horas, foram realizados a fim de conhecer a sensibilidade de Raphidocelis subcapitata (conhecida como Selenastrum capricornutum), ao sulfato de cobre (CuSO4.5H2O) e do sulfato de zinco (ZnSO4.7H2O). A inibição do crescimento algal seguiu uma tendência exponencial negativa em função do aumento de concentração das duas substâncias, sendo descrita através das seguintes equações: y = 6257208,7. e-5,581.Cu; y = 7003223,1. e- 5,452.Zn; onde y é o número de células de R. subcapitata após 96 horas de exposição a diferentes concentrações de sulfato de cobre e sulfato de zinco, respectivamente. Valores de CE(I)50 demonstraram maior sensibilidade de R. subcapitata ao sulfato de cobre (CE(I)50;96h=0,154 mg.L-1) quando comparada com sulfato de zinco (CE(I)50;96h=0,215 mg.L-1). A densidade algácea foi determinada através de contagem celular e por técnica espectrofotométrica. Foi obtida uma curva de calibração para estimativa de densidade algácea correlacionando valores de absorbância e número de células por contagem, em 684 nm. A curva foi determinada através de um modelo empírico: y = 7,2578.10-8 . x1,0219 (n=130; r2=0,9998); onde y é a medida de absorbância e x é o número de células. A análise de resíduos demonstrou que a equação pode ser utilizada até a densidades de 5.000.000 de células e valores de absorbância até 0,5.
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Resumo:
O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.
Resumo:
O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.
Resumo:
Nesta dissertação desenvolve-se um equipamento de compressão confinada com medição de tensão lateral e avalia-se o comportamento, sobre a trajetória de tensões Ko, de um solo e de misturas de solo-fibra e solo-cimento, considerando a influência da adição de fibras de diferentes comprimentos e de cimento em variadas quantidades ao solo estudado bem como o efeito da tensão de cura e índice de vazios de cura na trajetória de tensões Ko, na tensão lateral, nas deformações verticais e nos valores de Ko. O solo utilizado no estudo é uma areia fina de granulometria uniforme extraída de uma jazida localizada no município de Osório – RS. O trabalho de pesquisa realizado com esses solos tem seu enfoque dividido em duas partes principais: (1) projeto, construção, validação e calibração do equipamento; (2) ensaios de compressão confinada com medição de tensão lateral em amostras de solocimento- fibra com dois comprimentos de fibras (6mm e 12 mm), três teores de cimento (1%, 3% e 7%) e em três diferentes condições de cura (cura sob tensão vertical de 0 kPa, cura sob tensão vertical de 0 kPa com índice de vazios modificado pela aplicação anterior à cura de uma tensão vertical de 500 kPa e cura sob tensão vertical de 500 kPa). Os níveis de tensões aplicados neste trabalho chegam a 3000 kPa. Os resultados mostram que o equipamento de compressão confinada com medição de tensões laterais funciona satisfatoriamente, apresentando dados coerentes e confiáveis A inclusão de fibras, bem como o aumento do comprimento das mesmas, diminui os valores de tensão lateral e de Ko em relação ao material sem reforço. A presença de cimento reduz a tensão lateral e gera uma tensão lateral residual, a qual aumenta com o teor de cimento. Da mesma forma, um acréscimo na rigidez ocorre com o aumento da quantidade de cimento. O efeito da cimentação diminui os valores de Ko e os tornam não mais constantes no carregamento. A alteração das condições de cura não causa mudanças significativas no que diz respeito às tensões, mas a rigidez inicial é aumentada com a mudança do índice de vazios e da tensão de cura dos materiais cimentados, sendo o acréscimo maior para a segunda.