961 resultados para tolerância salina
Resumo:
Objetivo: Determinar a prevalência de má absorção de lactose e sua associação com a cor da pele e a idade em crianças e adolescentes de escolas públicas do município de Porto Alegre. Material e Métodos: Foi realizado um estudo transversal que incluiu 225 indivíduos de 8 a 18 anos, freqüentadores de escolas públicas do município de Porto Alegre. Os participantes foram classificados segundo a cor e a faixa etária. A má absorção de lactose foi diagnosticada através do teste do hidrogênio expirado após ingestão de 250 ml de leite. O teste teve duração de 3 horas e foi considerado como critério de positividade o aumento ≥ 20 partes por milhão na concentração de hidrogênio em relação ao nível basal. Resultados: Foram estudados 225 alunos, com uma média e desvio padrão de idade de 12,2 ± 2,0 anos. Cento e cinqüenta e quatro alunos eram de cor branca (68,4%) e os restantes, de cor não-branca (preta ou parda). A má absorção de lactose foi evidenciada em 19/225 casos (8,4%). Foram diagnosticados 8/154 casos (5,2%) nos alunos de cor branca e 11/71 casos (15,5%) nos alunos de cor não-branca (p = 0,02). Em relação à faixa etária, ocorreram 15/143 casos (10,5%) nos alunos entre 8 e 12 anos e 4/82 casos (4,9%) entre 13 e 18 anos (p = 0,227). Conclusões: A prevalência de má absorção de lactose encontrada em alunos de escolas pú-blicas de Porto Alegre é alta, especialmente se considerarmos que foram utilizadas doses fi-siológicas (250 ml de leite) para o diagnóstico. As taxas de má absorção foram maiores entre as crianças de cor não-branca em relação às crianças de cor branca, confirmando a influência racial na hipolactasia primária do tipo adulto.
Resumo:
Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.
Resumo:
Este trabalho de conclusão tem como tema a Qualidade Seis Sigma e a produção de tintas, com foco no parâmetro viscosidade. O objetivo principal é o estudo da variabilidade da viscosidade das tintas, com vistas à diminuição do número de desvios de viscosidade de lotes de produção e, conseqüentemente, do retrabalho e lead-time fabril. Inicialmente, foi realizada uma revisão bibliográfica sobre a metodologia Seis Sigma, suas principais ferramentas, e sobre os processos de produção de tintas, suas fontes de variabilidade e possibilidadesde melhoria.Na seqüência, foi conduzido o estudo de caso, realizado em uma tradicional fábrica de tintas da grande Porto Alegre. O estudo seguiu as etapas da metodologiaSeis Sigma:definição,mensuração,análise,aprimoramentoe controle. Dos lotes de tinta analisados, 78,5% necessitaram de algum tipo de ajuste de viscosidade.A viscosidadedas tintas, após a etapade completagem,foi, em média, 5,3 vezes maior que a semi-amplitude da tolerância. O tempo médio de ajuste de viscosidade foi de 20 minutos, o dobro do tempo gasto caso fosse feita somente a medição da viscosidade. Analisando-se a viscosidade em segundos, a diferença entre a medição já com o solvente previsto, e a medição logo após a completagem, foi, em média, de 28 segundos. A etapa de acertos de cor e brilho proporciona um aumento médio na viscosidade de cerca de 6 segundos Observou-se que os processos de fabricação não eram estáveis e nem capazes de atender as especificações, sem a etapa de ajustes, sendo o pior processo o em moinho pequeno (l,5P), e o melhor, em processo mistura. O sistema de medição contribuía para a variabilidade da viscosidade e foi melhorado. Outros fatores influentes na variabilidade da viscosidade foram: o fluxo de moagem, a sistemática de lavagem dos moinhos e a instabilidade (aumento) da viscosidade com o tempo. Como etapa final, foram sugeridas melhorias para o processo, na forma de um plano de ação, contemplando todos os fatores de variação identificados.
Resumo:
No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Avaliaram-se as características bioquímicas e histológicas de um modelo experimental de pancreatite aguda necrotizante induzida por doses excessivas de arginina em ratos. A amostra constituiu-se de 105 ratos machos, da linhagem Wistar. Aos ratos do grupo experimento (n=70) administrou-se injeção intraperitoneal de 500mg/100g de peso corporal de L-Arginina dividida em doses iguais e injetada em duas etapas com intervalos de 15 minutos. No grupo controle (n=35), foi injetado solução salina isotônica por via intraperitoneal. Foram analisados 10 animais do grupo experimento e 5 do grupo controle em cada período de 6 h, 12 h, 24 h, 48 h, 72 h, 7 dias, 14 dias. Coletou-se sangue para exames laboratoriais e o pâncreas para análise em microscopia óptica. Doze a vinte e quatro horas após a injeção de arginina, os níveis séricos de amilase e lipase alcançaram valores máximos, comparados àqueles dos ratos controle, decrescendo gradualmente, alcançou-os na 48a hora sendo significativamente menor após 72 horas e sete dias. A atividade enzimática retornou a níveis basais após 14 dias. Os valores de amilase e lipase estavam normais em todos os tempos avaliados nos animais do grupo controle. À microscopia óptica, após injeção de arginina, observou-se arquitetura pancreática histologicamente preservada no período de 6 horas e evidenciando-se em 24 horas, importante edema intersticial. Após quarenta e oito horas, a arquitetura acinar estava parcialmente destruída com necrose celular focal atingindo sua máxima severidade ao ultrapassar-se 72 horas. No sétimo dia a necrose acinar e o edema haviam diminuído, iniciando-se a regeneração da arquitetura acinar. Observou-se a reconstrução estrutural pancreática após 14 dias. No grupo controle não foram encontradas alterações pancreáticas. Demonstrou-se que a Pancreatite Aguda Experimental induzida por L-Arginina é um modelo não invasivo, tecnicamente acessível, que induz a necrose pancreática. Apresenta evolução autolimitada, com recuperação do parenquimatosa e função pancreática em duas semanas.
Resumo:
Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.
Resumo:
A preservação e o armazenamento de células e tecidos têm sido utilizados largamente em pesquisa científica e aplicações clínicas. No entanto, há uma aparente contradição entre o conceito de preservaão e as conclusões baseadas em resultados experimentais que materiais biológicos criopreservados podem ser danificados pelo próprio processo de preservação. A compreensão do processo de solidificação de soluções salinas é fundamental para a proposição de novos protocolos de criopreservação. No presente estudo, o congelamento de uma solução de cloreto de sódio a 1% em massa é simulado. As equações de conservação de massa, momentum, energia, e espécies químicas foram discretizadas e resolvidas numericamente utilizando-se o método dos volumes de controle para um domínio bidimensional que contém a parede da bolsa plástica e a solução salina. A perda de água da célula foi calculada a partir da história de temperatura e concentração durante o processo de solidificação e verificou-se que, dependendo da posição inicial da célula na bolsa, a célula tem probabilidades diferentes de sobreviver durante o processo.
Resumo:
A adenosina tem sido descrita como tendo importante efeito neuromodulatório em SNC, inibindo a liberação de neurotransmissores excitatórios através da ativação dos receptores A1. Agonistas de receptores A1, bem como adenosina e seus análogos, tem sido descritos como supressores de crises epilépticas. Uma das vias de produção de adenosina é a hidrólise extra-celular completa do ATP envolvendo as enzimas ATP difosfoidrolase (CD39) e 5’-nucleotidase (CD73). Embora esta associação enzimática já esteja bem descrita, o envolvimento da enzima fosfodiesterase não pode ser descartado, uma vez que esta hidrolisa nucleotídeos como ATP e ADP, além de outros substratos. Recentemente, foi demonstrado em nosso laboratório um aumento das atividades ATP difosfoidrolase e 5’-nucleotidase em sinaptossomas de ratos após a indução de 2 diferentes modelos de epilepsia de lobo temporal. Neste trabalho, nós investigamos o efeito de crises agudas e crônicas induzidas pelo agente pró-convulsivante pentilenotetrazol (PTZ) sobre a hidrólise dos nucleotídeos ATP, ADP e AMP em soro de ratos, uma vez que formas solúveis de nucleotidases já estão descritas. No modelo agudo os animais receberam apenas 1 injeção de PTZ ou salina, sendo mortos por decapitação em diferentes tempos após a injeção da droga. A hidrólise dos nucleotídeos ATP, ADP e AMP apresentaram aumento significativo de 40 –50% nos ratos tratados em relação aos ratos controle até 24 após a última injeção. Em 48 horas, este efeito foi abolido. Já, a hidrólise do substrato artificial p-Nph-5’-TMP usado como marcador para a fosfodiesterase, não apresentou nenhum aumento significativo em ratos tratados quando comparado aos animais controle. No modelo crônico (kindling), os animais recebiam doses inicialmente subconvulsivantes que resultam em crises progressivamente mais intensas ao longo das subseqüentes estimulações. Para descartar o efeito da injeção aguda, os ratos foram mortos 48 horas após a última estimulação. Com exceção do substrato artificial para a fosfodiesterase, a hidrólise dos nucleotídeos testados aumentou de maneira significativa (cerca de 40% - 45%) em soro de ratos submetidos ao modelo de kindling. Estes resultados demonstram o envolvimento de nucleotidases solúveis no controle dos níveis do neurotransmissor ATP e do neuromodulador adenosina, sendo estas respostas presentes tanto em situações patológicas agudas, como em situações patológicas crônicas que envolvem o fenômeno de plasticidade sináptica.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
O presente trabalho trata do desempenho institucional através da comparação das prioridades apontadas pelos administradores públicos e sua adequação às expectativas da população. Avalia ainda a história das localidades e o “associativismo”, aspecto do “capital social” que evidencia a existência de regras de reciprocidade e de sistemas de participação, verificando então as possíveis correlações entre desempenho institucional e grau de associativismo. Em um recorte de doze anos, a partir de 1988, o estudo analisa três municípios do Litoral Norte do Rio Grande do Sul, representativos de realidades intraregionais distintas. Representantes dos executivos e dos legislativos, além das lideranças populares responderam a questões referentes a polarização esquerda-direita e a cultura política, desvendando pensamento e práticas políticas. A análise do desempenho institucional se faz através da comparação entre entrevistas realizadas com estes mesmos representantes, avaliando o quanto às expectativas dos líderes comunitários corresponde à visão das lideranças políticas. O trabalho permite um esboço da realidade sócio-política, do imaginário e da relação que cada comunidade estabelece com as administrações municipais, e, apesar de apresentar apenas parte das inúmeras correlações possíveis entre os diferentes dados coletados, conclui identificando, conforme Putnam (2001), estruturas sociais definidas e distintas entre si quanto ao capital e a tolerância social.
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
Atualmente observa-se que uma grande parte das estruturas de concreto armado estão apresentando problemas relacionados à corrosão das armaduras, principalmente aquela iniciada pelos íons cloreto. Nesse sentido, muitos estudos estão sendo realizados a fim de prever o tempo necessário para que os íons cloreto atinjam a armadura, iniciando assim a propagação do processo corrosivo. Existem alguns parâmetros relacionados ao concreto e ao meio ambiente que exercem uma grande influência na penetração de íons cloreto. Entre os fatores relacionados ao concreto, verifica-se que o coeficiente de difusão de cloretos, a concentração superficial de cloretos, a relação água/cimento, a espessura de cobrimento, a presença e a quantidade de adições são alguns parâmetros que interferem na vida útil de projeto das estruturas. Já em relação às condições ambientais, os principais fatores que afetam a vida útil são a umidade relativa e a temperatura de exposição. Assim, procurou-se avaliar o efeito de tais variáveis na vida útil das estruturas, considerando as mesmas como grandezas aleatórias, apresentando um determinado valor médio e um desvio-padrão característico. Essas variáveis aleatórias foram inseridas em alguns modelos matemáticos que são empregados para a previsão da vida útil das estruturas − 2ª Lei de Fick e os modelos propostos por UJI et al. (1990) e por MEJLBRO (1996). A partir daí, realizou-se uma análise de confiabilidade a partir de um método de simulação numérica (Simulação de Monte Carlo) a fim de se determinar a probabilidade de falha no tempo para concretos feitos com diferentes tipos de cimento e adições, quando inseridos em condições ambientais distintas A fim de contribuir no processo de previsão da vida útil das estruturas quando inseridas em ambientes contendo cloretos, foi desenvolvido um modelo matemático baseado na análise em Grupos Focalizados (ou Focus Groups). Algumas das principais características do modelo proposto são a lógica empregada no seu desenvolvimento e a grande facilidade de aplicação do mesmo. O comportamento do modelo se mostrou consistente com os resultados de investigações experimentais realizadas por outros pesquisadores, onde o mesmo foi aplicado em um estudo de caso para verificar a resposta em relação à penetração de cloretos em alguns pontos de uma estrutura de concreto armado inserida em área salina.
Resumo:
A nitretação dos aços inoxidáveis austeníticos apresenta grande interesse tecnológico, pois tanto em processos convencionais tais como as nitretações a gás e em banho de sais como em processos a plasma, obtêm-se um aumento significativo de sua dureza superficial e resistência ao desgaste. No entanto, devido as altas temperaturas utilizadas nos processos convencionais, observa-se uma extensa formação de precipitados de nitretos de cromo, com consequente redução de resistência à corrosão do material. A proposta deste trabalho é utilizar a tecnologia de plasma para nitretar um aço inoxidável austenítico neste caso o ABNT 316 L a temperaturas relativamente baixas a fim de evitar precipitação de nitretos). As temperaturas utilizadas foram de 350, 375 e 400 0C, variandose o tempo de nitretação de 3 ,4 e 5 horas com duas misturas gasosas (76%N2 e 24%H2 e 5%H2 e 95%N2). As amostras foram analisadas através da microdureza superficial (método convencional e nanodureza), caracterização microestrutural por microscopia ótica, eletrônica de varredura e de transmissão, medida da profundidade de camadas formadas (MEV), rugosidade, determinação das fases presentes (Raios - X), nanodureza , perfil da composição química (GDOS) e resistência à corrosão (névoa salina e curvas de polarização) As amostras nitretadas nestas temperaturas e tempos produziram camadas de 1,9 a 5,5 µm medidas via GDOS e durezas que vão de 330HK a 987HK não observando-se a precipitação de nitretos de cromo, mas sim a formação de uma estrutura supersaturada de nitrogênio intersticial, chamada de “fase S” identificada por difração de Raios - X. As camadas nitretadas apresentaram um gradiente de nitrogênio que diminui, indicando um gradiente junto as características microestruturais, níveis de tensões residuais favoráveis para uma boa adesão, com a formação de uma camada com menor fragilidade. Esta fase “S”, além de produzir altas durezas superficiais, aumentou a resistência à corrosão do aço. Testes em campo com navalhas de corte e facas móveis tiveram um aumento de vida útil de 100% e 217%.
Resumo:
O aumento da competitividade global tem incentivado a integração dos países em blocos econômicos. Em conseqüência, o fluxo comercial mundial tem aumentado e com isso o número de transações internacionais, como no caso do Mercosul. A investigação de diferenças culturais é um elemento importante na formulação de estratégias de negociação e marketing internacional. Se compreendermos as diferenças de valor pessoal e comportamento entre as nações, as negociações têm maior probabilidade de serem bem sucedidas. A presente investigação é estruturada em três etapas: fundamentação teórica, o estudo realizado e as considerações finais. Na primeira etapa, o tema é abordado a partir do constructo valor-atitude-comportamento e de alguns elementos adjacentes como as crenças e a cultura dentro do contexto da negociação comercial. Na segunda etapa, é apresentado o estudo realizado, de natureza exploratória, que buscou identificar semelhanças e diferenças entre executivos brasileiros (N=134) e argentinos (N=116). Para tanto, utilizou-se um método com recursos quali-quantitativos. Visando a coleta de dados, os sujeitos da amostra (N=250) foram submetidos a uma negociação comercial simulada. Em seguida, foi aplicada a Escala de Valores de Rokeach (RVS), a fim de identificar a hierarquia de valores dos respectivos executivos. Apurou-se os resultados da negociação através dos lucros obtidos e os valores pessoais através das médias do grau de importância a eles atribuído. Finalmente, foi verificada a existência de correlação entre as preferências axiológicas dos negociadores e os resultados das negociações comerciais. Na terceira etapa, são feitas considerações acerca dos achados, indicando que o sexo e a idade não influenciaram o resultado da negociação em ambos países. Entretanto, outros fatores como o papel desempenhado pelo negociador (comprador ou vendedor), a cultura de pertinência e as respectivas motivações tiveram influência no resultado da negociação. Executivos brasileiros obtiveram lucros motivados principalmente pela satisfação de necessidades (tolerância, autocontrole e prazer) enquanto que executivos argentinos obtiveram lucros motivados por realização de objetivos (um sentimento de realização, segurança nacional e liberal). Por outro lado, os compradores brasileiros obtiveram os maiores lucros na negociação, seguido por compradores argentinos, vendedores argentinos e vendedores brasileiros. Por fim, são apresentados sugestões para a melhoria de investigações dessa natureza na área de Marketing Internacional.