107 resultados para Demonstrativos complexos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tradicionalmente o processo de desenvolvimento do produto (PDP) tem sido realizado através do cumprimento seqüencial de metas relacionadas a fases segmentadas. Entretanto, o aumento da complexidade dos produtos e dos processos, observado nas últimas décadas, tem exigido das empresas a modificação da forma de conduzir esse processo. Neste contexto, o atendimento rápido e eficaz às solicitações de mercado tem sido considerado essencial ao sucesso das empresas nos mais variados setores. Em resposta às novas demandas, muitas empresas passaram a utilizar práticas relacionadas à organização simultânea do desenvolvimento do produto, as quais são amplamente conhecidas como engenharia simultânea (ES). Da sua parte, a comunidade acadêmica tem procurado entender este novo processo, através da busca de um novo referencial teórico. A partir dessas novas abordagens vários trabalhos têm sido desenvolvidos no sentido de contribuir para a melhoria do PDP. Entretanto, um assunto pouco investigado é o planejamento e controle desse processo Assim, o objetivo deste trabalho consiste em propor um conjunto de diretrizes para a integração do planejamento e controle dos processos de projeto e produção na construção civil, para empreendimentos complexos, rápidos e com elevado grau de incerteza. O método de pesquisa envolveu a realização de quatro estudos de caso em uma empresa construtora de Porto Alegre, que atua no mercado de edificações industriais, comerciais e hospitalares para clientes privados. Esses estudos tiveram empreendimentos de construção civil como objeto de análise. A integração do planejamento e controle do PDP foi a unidade de análise. O estudo constatou que a integração do planejamento e controle integrado dos processos de projeto e produção é viável e essencial à redução de perdas no PDP. Para este fim, podem ser utilizados métodos e ferramentas simples para o planejamento e controle do processo de projeto ao longo do PDP. Como contribuições conceituais, este trabalho possibilitou o melhor conhecimento da natureza do processo de projeto no que diz respeito ao estabelecimento de planos de projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O acoplamento de radiação óptica em sistemas multicamadas tem sido objeto de diversas pesquisas, não somente acadêmicas, mas também para aplicações industriais, tanto na área de sensores ópticos, como na de processadores ópticos e na de comunicações ópticas. Existe uma variedade de técnicas que são exploradas nestes estudos. Nesta tese, focalizamos nossa atenção no acoplamento de radiação laser ou mesmo de luz branca incoerente a um filme tipo multicamadas e estudamos os mecanismos físicos que governam as reflexões e as perdas por absorção nas multicamadas, efeitos que normalmente não parecem quando a incidência ocorre diretamente do ar para o filme. A técnica que exploramos é conhecida como reflexão interna total atenuada, ATR. A presença de um filme fino metálico permite o estudo experimental de plasmons de superfície e do acoplamento a modos guiados do sistema multicamadas. Além dos estudos experimentais, apresentamos um cálculo teórico iterativo para a refletividade dos filmes do tipo multicamadas para um número qualquer de camadas, que apresenta vantagens computacionais no ajuste dos dados experimentais ou em simulações. Esta contribuição não necessita as aproximações encontradas em um grande número de trabalhos que envolvem sistemas mais simples. Apresentamos também o cálculo do fluxo de energia dentro de cada camada individual do sistema, o que nos permite determinar o tipo de modo acoplado e a sua localização. O método foi aplicado a diversos sistemas, quando uma das camadas foi modificada. Estes estudos foram realizados como função do ângulo de incidência e do comprimento de onda da radiação incidente para uma variedade de sistemas multicamadas. Nossa simulação teórica se mostra bastante adequada e útil para a projeção de sistemas multicamadas complexos com camadas metálicas e dielétricas para sensores óticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, estudamos a posição de átomos de F na estrutura cristalina do Si. As amostras foram pré-amorfizadas utilizando um feixe de Si de 200 keV e, após, implantadas com F. Então recristalizamos a camada amorfa através do processo de Epitaxia de Fase Sólida (EFS). Empregamos as técnicas de Espectrometria de Retroespalhamento Rutherford, na condição de canalização iônica, e de Análise por Reação Nuclear (NRA), através da reação ressonante ( ) O p F 16 19 , αγ , à 5 , 340 keV, para determinar a posição dos átomos de F e, depois, reproduzimos os resultados experimentais através do programa de simulação computacional chamado Simulação Adaptada de Canalização de Íons Rápidos em Sólidos (CASSIS - Channeling Adapted Simulation of Swift Ions in Solids). Os resultados obtidos apontam para duas possíveis combinações lineares distintas de sítios. Uma delas concorda com a proposta teórica de Hirose et al. (Materials Science & Engineering B – 91-92, 148, 2002), para uma condição experimental similar. Nessa configuração, os átomos de F estão na forma de complexos entre átomos de flúor e vacâncias (F-V). A outra combinação ainda não foi proposta na literatura e também pode ser pensada como um tipo de complexo F-V.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para avaliar associação entre infarto do miocárdio e a presença no eletrocardiograma de extra-sístoles supraventriculares ou ventriculares com morfologia QR, foi realizado um estudo de caso-controle aninhado em um estudo transversal. No período de janeiro de 2000 a maio de 2004 foram realizados 6244 exames de cateterismo cardíaco na Unidade de Hemodinâmica do Serviço de Cardiologia do Hospital de Clínicas de Porto Alegre. Deste grupo foram selecionados 35 pacientes com infarto do miocárdio (IM) e 11 sem IM, sendo que destes 46 pacientes 33 já apresentavam extra-sístoles espontaneamente e os outros 13 tiveram suas extra-sístoles obtidas em estimulação elétrica programada. Deste modo, nosso estudo constitui-se 35 casos de IM com extra-sistoles espontâneas ou provocadas e 11 controles sem IM. Com extra-sistolia (espontânea ou provocada). Os traçados eletrocardiográficos foram estudados, e observaram-se, quais os pacientes que apresentaram nas extra-sístoles morfologia tipo QR (QRS, QRs, Qrs) com duração maior ou igual a 0,04 segundos, considerando-se este sinal como positivo para IM. A utilização do eletrocardiograma em ritmo sinusal para o diagnóstico de IM em nosso estudo levou a uma estimativa de sensibilidade em torno de 86% e uma especificidade de 91%.Como conseqüência direta destes achados, temos que do ponto de vista do eletrocardiograma em ritmo sinusal havia 31 pacientes supostamente com IM e 15 livres do desfecho. Não obstante, dos 31 supostos pacientes com IM, 30 eram verdadeiros positivos e 1 falso negativo. Por outro lado, dos 15 pacientes supostamente sem IM, havia 5 falsos negativos e 10 verdadeiramente negativos. Tomando o grupo de pacientes supostamente livres de IM, como foco de ação corretiva para diagnóstico do ECG em ritmo sinusal, tem-se a necessidade de reverter uma taxa de falsos negativos de 14% Aplicando-se os critérios diagnósticos de IM no ECG obtido em extra-sístoles verifica-se que, apesar de ocorrer uma queda na especificidade, temos uma estimativa de sensibilidade em torno de 100%. Assim, a utilização combinada do ECG em extra-sístoles seguindo o ECG em ritmo sinusal promove a redução da taxa de falsos negativos de 14% para 0% enquanto que enquanto que a proporção de falsos positivos ficou em torno de 27%. Desta forma, a análise da morfologia das extra-sístoles supraventriculares e ventriculares podem ser de utilidade no diagnóstico de IM quando a morfologia dos batimentos sinusais é não diagnostica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste estudo buscou-se entender as relações dos Jatos de Nível Baixo (JNB) na geração de convecção em escala sinótica e a sua associação com eventos de intensa precipitação. Observou-se o perfil vertical do vento através de radiossondagens realizadas no Aeroporto Internacional Salgado Filho em Porto Alegre e em Uruguaiana no interior do estado do Rio Grande do Sul, Brasil. Analisou-se a sua variabilidade sazonal, intra e inter-sazonalidade. Estimaram-se suas escalas e intensidades predominantes, descrevendo a interação dos JNB's e o seu importante papel na circulação geral da atmosfera e no transporte de vapor de água e calor das regiões equatoriais para regiões de latitudes médias, influenciando diretamente o balanço hídrico de extensas bacias hidrográficas interligadas neste transporte. Os JNB's associados neste intenso transporte apresentam uma tendência de estarem ligados a eventos convectivos noturnos e na geração de Complexos Convectivos de Mesoescala (CCM), que geram elevados índices pluviométricos que podem causar importante impacto econômico Utilizam-se várias técnicas estatísticas para realização deste estudo, como a Análise das Componentes Principais, Classificação Não-Hierárquica dos JNB's, cálculo das correlações dos sinais das séries temporais dos JNB's e as precipitações, com a utilização de técnicas "Bootstrap", uso de técnicas geoestatísticas, com o cálculo do variograma da precipitação máxima e dos seus dias de evento com ajustamento de um modelo para o variograma teórico. Realiza-se a modelagem com o uso do modelo meteorológico "Model Mesoscale Five" (MM5) para estudar a estrutura e caracterizar o transporte realizado pelo JNB. O emprego destas metodologias facilita o entendimento da complexidade das interações de diferentes escalas meteorológicas envolvidas nos processos sinóticos de macro e mesoescala. Em tal complexidade, o trabalho realizado pelos JNB's nesta interação é o de ser a escala efetiva de transporte na baixa atmosfera, que realiza o importante papel de acoplar a meteorologia regional e o ciclo hidrológico em escala continental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dinâmica de propagação da ruptura durante terremotos é um dos assuntos mais relevantes e complexos em Sismologia. Um critério constitutivo para a falha que descreva corretamente a relação das variáveis estáticas (tensões normais e tangenciais) com as variáveis cinéticas (deslocamentos e velocidades) na interface é necessário para efetuar uma análise dinâmica confiável. A fim de determinar um critério constitutivo para o deslizamento com atrito ao longo da falha sísmica, primeiramente apresentam-se métodos para caracterizar as superfícies deslizantes e discutem-se os principais critérios constitutivos que têm sido usados. Também são apresentados os resultados de um estudo experimental realizado, evidenciando, para sólidos metálicos em contato, uma lei constitutiva de variação do atrito com a velocidade. Um modelo numérico tridimensional baseado no Método dos Elementos Discretos (DEM) é usado para representar a região de rocha adjacente à falha. O modelo consiste de uma estrutura tridimensional periódica com massas concentradas nos nós, interconectadas por elementos visco-elásticos unidimensionais. Inicialmente, de acordo com modelos usuais em Sismologia, admite-se que o material é elástico, linear e homogêneo. Em uma segunda análise, a influência da não-homogeneidade do material é avaliada considerando que a massa específica, o módulo de Young e o coeficiente de atrito são campos aleatórios Gaussianos correlacionados. Na análise seguinte, o efeito da fratura na região de rocha adjacente à falha é também numericamente avaliado. Por fim, a influência de ruptura de micro-asperezas nas superfícies deslizantes é analisada. Através de simulação de Monte Carlo, as relações constitutivas macro (ou globais) para a falha são obtidas, admitindo como leis constitutivas micro (ou locais) os dois critérios mais usados em Sismologia: a lei de variação do atrito com a velocidade e a lei de variação do atrito com o deslizamento. Quando os blocos de rocha são admitidos serem elásticos e homogêneos não há um efeito de escala. Novamente, quando a rocha é considerada não-homogênea não há um efeito de escala significativo, apenas pequenas variações nos parâmetros das leis constitutivas macro em relação às leis micro são percebidas, exceto pela influência do campo aleatório do coeficiente de atrito, o qual apresenta um efeito de escala perceptível. A ocorrência de fratura nas proximidades da falha não causa modificações significativas nas leis constitutivas macro, apenas causa algumas oscilações em torno da lei sem fratura. Finalmente, obtém-se um critério constitutivo macro que leva em consideração a ruptura por cisalhamento das micro-asperezas nas superfícies deslizantes. O modelo é chamado lei modificada de variação do atrito com a velocidade e é considerado um critério constitutivo mais geral.