127 resultados para Tolerância a falha (Computação)
Resumo:
A dinâmica de propagação da ruptura durante terremotos é um dos assuntos mais relevantes e complexos em Sismologia. Um critério constitutivo para a falha que descreva corretamente a relação das variáveis estáticas (tensões normais e tangenciais) com as variáveis cinéticas (deslocamentos e velocidades) na interface é necessário para efetuar uma análise dinâmica confiável. A fim de determinar um critério constitutivo para o deslizamento com atrito ao longo da falha sísmica, primeiramente apresentam-se métodos para caracterizar as superfícies deslizantes e discutem-se os principais critérios constitutivos que têm sido usados. Também são apresentados os resultados de um estudo experimental realizado, evidenciando, para sólidos metálicos em contato, uma lei constitutiva de variação do atrito com a velocidade. Um modelo numérico tridimensional baseado no Método dos Elementos Discretos (DEM) é usado para representar a região de rocha adjacente à falha. O modelo consiste de uma estrutura tridimensional periódica com massas concentradas nos nós, interconectadas por elementos visco-elásticos unidimensionais. Inicialmente, de acordo com modelos usuais em Sismologia, admite-se que o material é elástico, linear e homogêneo. Em uma segunda análise, a influência da não-homogeneidade do material é avaliada considerando que a massa específica, o módulo de Young e o coeficiente de atrito são campos aleatórios Gaussianos correlacionados. Na análise seguinte, o efeito da fratura na região de rocha adjacente à falha é também numericamente avaliado. Por fim, a influência de ruptura de micro-asperezas nas superfícies deslizantes é analisada. Através de simulação de Monte Carlo, as relações constitutivas macro (ou globais) para a falha são obtidas, admitindo como leis constitutivas micro (ou locais) os dois critérios mais usados em Sismologia: a lei de variação do atrito com a velocidade e a lei de variação do atrito com o deslizamento. Quando os blocos de rocha são admitidos serem elásticos e homogêneos não há um efeito de escala. Novamente, quando a rocha é considerada não-homogênea não há um efeito de escala significativo, apenas pequenas variações nos parâmetros das leis constitutivas macro em relação às leis micro são percebidas, exceto pela influência do campo aleatório do coeficiente de atrito, o qual apresenta um efeito de escala perceptível. A ocorrência de fratura nas proximidades da falha não causa modificações significativas nas leis constitutivas macro, apenas causa algumas oscilações em torno da lei sem fratura. Finalmente, obtém-se um critério constitutivo macro que leva em consideração a ruptura por cisalhamento das micro-asperezas nas superfícies deslizantes. O modelo é chamado lei modificada de variação do atrito com a velocidade e é considerado um critério constitutivo mais geral.
Resumo:
Este trabalho apresenta uma proposta metodológica para o ensino de Ciência da Computação para Crianças, elaborada, a partir de pesquisas e estudos, tendo, como objetivo, a aplicação dessa metodologia para correção e testes. Devido à disseminação dos computadores e de seu uso como parte da formação dos alunos, muito se tem discutido sobre a união entre os recursos tecnológicos e a educação. A inclusão da informática no processo educativo vem sendo direcionada para a utilização e classificação de produtos de software educacional, em técnicas de comunicação à distância, no uso de recursos de multimídia ou de realidade virtual para apoio ao conteúdo abordado pelo professor e, também, para a construção de ambientes computacionais, que possam proporcionar uma mudança de paradigma educacional. No entanto não adianta tornar disponível toda essa tecnologia, se, rapidamente, são abandonadas e são substituídas ferramentas e técnicas dentro da Computação. Por isto, tão importante quanto o ensino das tecnologias correntes é o ensino dos conceitos fundamentais da Ciência da Computação. Esses conceitos, além de proporcionarem um embasamento teórico para entendimento da ciência envolvida na computação, também propiciam o desenvolvimento de um raciocínio lógico e formal, assim como de habilidades que são exigidas no mundo atual. Este trabalho apresenta pesquisas de campo sobre o uso da Informática Educativa em algumas escolas, a identificação, através de professores da graduação e pós-graduação, de alguns dos conceitos fundamentais da Ciência da Computação e uma pesquisa sobre o que crianças gostariam de aprender sobre Ciência da Computação. A partir dos resultados, são elaboradas teorias, demonstrações e exercícios para o ensino destes para crianças. Essa metodologia é aplicada a duas turmas heterogêneas de crianças para sua validação. Pretende-se que o estudo desses conceitos aguce o senso crítico e capacite as crianças não só a usarem as tecnologias mas também a entenderem seu funcionamento.
Resumo:
Esta tese apresenta uma arquitetura de Sumarização Automática de Textos Consciente de Contexto que visa contribuir como fator de adaptação em dispositivos de computação móvel. O processo de sumarização proposto baseia-se em informações contextuais, especificamente localização espacial, temporalidade e perfis de usuário, em uma extensão do algoritmo de sumarização extrativa TF-ISF pela inclusão de níveis de relevância adicionais representados por Palavras-Contextuais. A necessidade de adaptação no processo de visualização de textos em dispositivos de computação móvel advém tanto do crescimento da disponibilização de informações em redes de computadores sem fio quanto das características e restrições intrínsecas da plataforma computacional móvel, bem como da baixa capacidade de armazenamento e processamento e interfaces restritas em termos de tamanho e possibilidades de interação. Como um dos possíveis fatores de adaptação sugere-se a utilização da sumarização automática de textos. Esta possibilita a seleção e apresentação das sentenças consideradas mais relevantes dos documentos originais produzindo, com isso, documentos compactos e mais apropriados para a materialização em dispositivos móveis. Entretanto, considera-se que os métodos de sumarização automática atualmente disponíveis na literatura não atendem plenamente a questão proposta porque não consideram, quando do processo de sumarização, as importantes informações contextuais fornecidas pela computação móvel. Como resultado do processo proposto de adaptação através da Sumarização Consciente de Contexto espera-se que os extratos obtidos sejam mais úteis aos usuários dos dispositivos de computação móvel pela sua maior adequação tanto ao contexto quanto ao perfil, bem como da efetiva consideração das limitações intrínsecas a estes. Esta solução visa contribuir fortemente para a disponibilização de informações adequadas e personalizadas, no momento oportuno, para o local adequado.
Resumo:
O objetivo deste trabalho foi estudar o comportamento de trilhos ferroviários, avaliando parâmetros como o desempenho frente à propagação de trincas e a tenacidade à fratura que são fundamentais para sua utilização mais segura. Neste trabalho foram realizados ensaios de qualificação (caracterização mecânica e metalúrgica) de dois trilhos utilizados em ferrovias brasileiras que consistiram em análises química, macro e microestrutural, ensaios de dureza, determinação de tenacidade à fratura (KIC) e determinação de curvas da/dN x ∆K. Uma vez determinadas as características mecânicometalúrgicas dos trilhos, foram analisados o crescimento de defeitos transversais internos através de fórmulas da mecânica da fratura aplicada à fadiga, desenvolvidas por Orringer e outros, que permitem determinar: o tamanho do defeito no qual a falha no trilho pode ser esperada (quando o trem viaja sobre o mesmo) e o tempo para que o defeito cresça de um certo tamanho até um tamanho crítico (vida remanescente) no qual a falha é esperada. Também foi levada em conta a influência do nível de desgaste no boleto. Dentre os fatores que apresentaram maior influencia, destacam-se a temperatura de trabalho, o tamanho inicial do defeito e a tensão residual. Além disso, os resultados obtidos podem ser aplicados para desenvolver intervalos estratégicos de inspeção de tolerância ao dano.
Resumo:
Resumo não disponível.
Resumo:
As vacinas de DNA têm sido utilizadas para a indução de imunidade contra antígenos virais e bacterianos. A aplicação de modelos experimentais tem sido explorada visando a indução de tolerância imunológica através da expressão de genes cujos produtos podem modular o sistema imune para um estado de não responsividade. A terapia gênica oferece a possibilidade de manipulação do sistema imune do receptor, através de um sistema de administração de genes específicos sob condições pré-definidas. Sua eficácia depende dos níveis de expressão e da natureza do antígeno, da via de administração assim como de sua distribuição nos tecidos (a qual às vezes depende do promotor utilizado). Porém, sua aplicação clínica é limitada em parte devido aos baixos níveis de expressão obtidos in vivo. A VP22 é uma proteína do tegumento do vírus Herpes simples tipo 1, que tem a propriedade de fazer tráfego intercelular. Estudos recentes têm demonstrado a alta eficiência desta molécula no transporte de proteínas heterólogas como VP22-p53, VP22-β galactosidase e VP22-proteína verde fluorescente. Para a indução de tolerância imunológica, tem sido demonstrado que a persistência do antígeno, pelo menos por algum período, é muito importante. Moléculas do complexo de histocompatibilidade principal (MHC) têm sido utilizadas para induzir tolerância a nível central ou periférico, em diferentes protocolos. Dentre estas, as moléculas da classe I do camundongo, Kb, têm sido utilizadas com sucesso. O objetivo desse trabalho foi de construir duas vacinas recombinantes: pVP22::Kb e pCIneo::Kb. A primeira contém dois genes clonados na mesma pauta de leitura: a cadeia pesada de classe I Kb e VP22. O cDNA que codifica para o Kb foi obtido pela extração de RNA total de baço de um camundongo C57BL/6 (haplótipo H-2b) seguido de transcrição reversa. Este produto foi amplificado pela reação em cadeia da polimerase. Esta molécula também foi obtida pela amplificação direta do gene Kb previamente clonado no sítio EcoR I do plasmídeo pBluescriptIISK (Stratagene®). Ambos os produtos de PCR foram subclonados com extremidades cegas no plasmídeo pCRBluntII (Invitrogen®). Foram obtidos dezenove plasmídeos recombinantes, denominados pCRBluntII::Kb, e um deles foi escolhido e digerido com as enzimas de restrição Spe I e Xba I e defosforilado com a enzima fosfatase alcalina (CIAP). O fragmento digerido foi clonado nos plasmídeos pVP22-myc/His (Invitrogen®) e pCIneo (Promega®) previamente digeridos com a enzima Xba I. Os novos plasmídeos pVP22::Kb e pCIneo::Kb foram utilizados para transfectar a linhagem celular eucariótica CHO. A expressão do mRNA para o Kb foi confirmada pela transcrição reversa e PCR e a expressão da proteína por imunofluorescência e citometria de fluxo.
Resumo:
A toxicidade por alumínio é uma das principais limitações para produção de plantas em áreas cultiváveis, incluindo a cultura do milho. Existe elevada variabilidade genética para o caráter tolerância ao alumínio nesta espécie, porém, a seleção é trabalhosa devido à dificuldade de avaliação a campo. Os objetivos do presente trabalho foram caracterizar a tolerância à toxicidade ao alumínio em cinco linhagens de milho e identificar marcadores moleculares ligados aos genes que determinam essa tolerância. Foi realizado um experimento dialélico entre três linhagens tolerantes e duas sensíveis ao alumínio utilizando o método de recrescimento da raiz principal (DIF). Houve superioridade das populações híbridas em relação aos genitores e, pelo desdobramento dos efeitos de heterose, houve significância nos efeitos de heterose de variedade e heterose específica. As linhagens L06 e L09 obtiveram maior capacidade geral de combinação e o cruzamento L10xL08 foi a melhor combinação específica. Para fenotipagem, realizada em famílias F3 dos cruzamentos L09xL06 e L10xL08 foi utilizado DIF e o método coloração com hematoxilina (HEM). Para análise molecular foram utilizados marcadores SSR. Foram obtidos 37 marcadores polimórficos. A análise de regressão mostrou significância em marcadores localizados nos cromossomos 4, 5, 6, 8 e 10. Os QTLs identificados explicaram 41% e 37% da variação para as variáveis DIF e HEM, respectivamente. Foi encontrada associação entre os experimentos a campo e trabalhos realizados em solução mínima para os híbridos testemunha, entretanto não houve correlação nos dados gerados pelas famílias F3 dos cruzamentos estudados. Os resultados sugerem o envolvimento de diversos genes, tratando-se de uma característica de herança complexa determinada por efeitos genéticos aditivos e nãoaditivos.
Resumo:
Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.
Resumo:
o objetivo deste trabalho é a análise de barragens de gravidade de concreto desde a faseda sua construção até sua completa entrada em serviço. Inicialmente é feita a análise da fase construtiva, onde o problema fundamental é devido às tensões térmicas decorrentes do calor de hidratação. O método dos elementos finitos é empregado para a solução dos problemasde transferência de calor e de tensões. A influência da construção em camadas é introduzidaatravés da redefinição da malha de elementos finitos, logo após o lançamento de cadacamada de concreto. Uma atenção especial é dada ao problema de fissuração em estruturas de concreto simples.Algunsmodelos usuais são apresentados, discutindo-se a eficiência dos mesmos. Os modelosde fissuração distribuída têm sido preferidos, em virtude dos vários inconvenientes apresentados pelas formulações discretas. Esses modelos, entretanto, fornecem resultados dependentesda malha de elementos finitos e alguma consideração adicional deve ser feita para corrigiressas distorções. Normalmente, tenta-se corrigir esse problema através da adoção de umaresistênciaà tração minorada que é definida em função da energia de fratura do material. Neste trabalho, é demonstrado que esse procedimento não é satisfatório e é proposta uma novaformulaçãopara a análise de grandes estruturas de concreto. A análise das tensões na etapa de construção da barragem é feita com o emprego de um modelo constitutivo viscoelástico com envelhecimento para o concreto. Em virtude do envelhecimento,a matriz de rigidez da estrutura é variável no tempo, devendo ser redefinida e triangularizadaem cada instante. Isto leva a um grande esforço computacional, sobretudo, quandoa barragem é construída em muitas camadas. Para evitar esse inconveniente, adota-se um procedimento iterativo que permite que a matriz de rigidez seja redefinida em poucas idadesde referência. Numa segunda etapa da análise, a barragem é submetida à pressão hidrostática e a uma excitação sísmica. A análise dinâmica é realizada considerando-se o movimento do sistema acoplado barragem-reservatório-fundação. O sismo é considerado um processo estocásticonão estacionário e a segurança da estrutura é determinada em relação aos principais modos de falha