1000 resultados para Tolerância a intrusões
Resumo:
Os avanços nas práticas de manejo e no melhoramento das cultivares de arroz irrigado têm permitido consolidar o Rio Grande do Sul como maior produtor deste cereal no Brasil. A seleção recorrente é um método alternativo de melhoramento que permite a recombinação cíclica de genótipos selecionados em uma população geneticamente divergente. Os objetivos deste trabalho foram avaliar o potencial da população CNA 11 para fins de melhoramento para tolerância ao frio, estudar a divergência genética dos seus genitores e quantificar as alterações nas freqüências alélicas como resultado do processo de seleção. Para isso foram conduzidos dois ensaios de campo compostos de 140 famílias S0:2 derivadas da população CNA 11 e quatro cultivares testemunhas, no delineamento látice 12 x 12 e em dois locais: Cachoeirinha (RS) e Santa Vitória do Palmar (RS), onde foram avaliados dez caracteres fenotípicos. O DNA dos genitores da população CNA 11 e de 133 famílias S0:2 foi analisado com marcadores moleculares do tipo microssatélites. A população CNA 11 apresentou alto potencial para fins de melhoramento, com ampla variabilidade genética em todos os dez caracteres avaliados. Os caracteres estatura de planta, esterilidade de espiguetas e número de grãos por panícula apresentaram altas correlações genotípicas com rendimento de grãos, podendo ser usados como critérios de seleção indireta. A esterilidade de espiguetas mostrou ser um critério eficiente de seleção para identificação de genótipos de arroz com tolerância ao frio no estádio reprodutivo. Os genitores da população CNA 11 apresentaram ampla divergência genética e, de modo geral, as freqüências dos alelos de microssatélites característicos dos genótipos da subespécie índica aumentaram e as da subespécie japônica diminuíram à medida que a intensidade de seleção aumentou. As melhores famílias S0:2 mostraram maior similaridade genética com os genitores da subespécie índica.
Resumo:
Esta pesquisa teve como objetivo construir e validar uma escala para avaliação do fator neuroticismo/estabilidade emocional. Neuroticismo é uma dimensão da personalidade humana, no modelo dos cinco grandes fatores, que se refere ao nível crônico de ajustamento e instabilidade emocional. Um alto nível de neuroticismo identifica indivíduos propensos a sofrimento psicológico que podem apresentar altos níveis de ansiedade, depressão, hostilidade, vulnerabilidade, autocrítica, impulsividade, baixa auto-estima, idéias irreais, baixa tolerância a frustração e respostas de coping não adaptativas. No primeiro estudo deste projeto foram gerados os itens da escala e avaliadas as suas qualidades psicométricas e validade de construto. Os participantes foram 792 estudantes universitários de três estados brasileiros. O segundo estudo teve como objetivo verificar a validade concorrente do instrumento. Participaram 437 estudantes universitários. Os resultados mostraram que o instrumento e as quatro subescalas identificadas através da análise fatorial apresentam qualidades psicométricas adequadas. As correlações entre o instrumento e testes para avaliar ansiedade, depressão, bem estar subjetivo, auto estima e neuroticismo (EPQ) indicaram que a escala construída está avaliando adequadamente as diferentes facetas do construto neuroticismo.
Resumo:
Hipotetiza-se que haja sinergismo na associação de herbicidas inibidores do fotossistema II e da síntese de carotenóides, pelos seus mecanismos de ação específicos. Com o objetivo de demonstrar a existência de sinergismo na associação de herbicidas pertencentes a estes dois grupos foram conduzidos trabalhos em laboratório, casa-de-vegetação e a campo. Em laboratório avaliou-se a interação de metribuzin e clomazone através da estimativa do estresse oxidativo gerado pela associação, em plantas de girassol, com a determinação dos níveis de malondialdeído e extravasamento eletrolítico. Em casa-de-vegetação, plantas de girassol foram tratadas com os mesmos herbicidas e foram tomadas amostras para eletromicrografias que produziram visualização dos cloroplastos tratados e não tratados. Também foram aplicados tratamentos a fim de permitir a formação de curvas de resposta às doses dos mesmos herbicidas, com a representação das doses causadoras de 50% de efeito em isobologramas. Avaliou-se também o impacto da associação metribuzin e clomazone sobre as relações de interferência entre soja e girassol, pelo delineamento dialélico A campo foram conduzidos experimentos de controle de Bidens pilosa infestando a cultura da soja com os herbicidas metribuzin e clomazone. Para avaliar a seletividade das associações, conduziu-se experimentos com a cultura da soja, onde testou-se metribuzin e clomazone e com a cultura do milho, testando-se atrazine e isoxaflutole. Nos trabalhos com malondialdeído, extravasamento eletrolítico e eletromicrografias, obteve-se sinergismo valendo-se do método de Colby. No ensaio de curvas de resposta, a variável massa seca apresentou probabilidade de sinergismo de 0,90 em uma combinação. No dialélico, a associação dos produtos reduziu a tolerância da soja ao metribuzin e à sua associação com clomazone. No controle de B. pilosa, as variáveis percentual de cobertura e controle demonstraram sinergismo pelo método de Limpel. Na avaliação de seletividade, não se observou nenhum dano resultante da associação dos herbicidas.
Resumo:
Objetivo: Determinar a prevalência de má absorção de lactose e sua associação com a cor da pele e a idade em crianças e adolescentes de escolas públicas do município de Porto Alegre. Material e Métodos: Foi realizado um estudo transversal que incluiu 225 indivíduos de 8 a 18 anos, freqüentadores de escolas públicas do município de Porto Alegre. Os participantes foram classificados segundo a cor e a faixa etária. A má absorção de lactose foi diagnosticada através do teste do hidrogênio expirado após ingestão de 250 ml de leite. O teste teve duração de 3 horas e foi considerado como critério de positividade o aumento ≥ 20 partes por milhão na concentração de hidrogênio em relação ao nível basal. Resultados: Foram estudados 225 alunos, com uma média e desvio padrão de idade de 12,2 ± 2,0 anos. Cento e cinqüenta e quatro alunos eram de cor branca (68,4%) e os restantes, de cor não-branca (preta ou parda). A má absorção de lactose foi evidenciada em 19/225 casos (8,4%). Foram diagnosticados 8/154 casos (5,2%) nos alunos de cor branca e 11/71 casos (15,5%) nos alunos de cor não-branca (p = 0,02). Em relação à faixa etária, ocorreram 15/143 casos (10,5%) nos alunos entre 8 e 12 anos e 4/82 casos (4,9%) entre 13 e 18 anos (p = 0,227). Conclusões: A prevalência de má absorção de lactose encontrada em alunos de escolas pú-blicas de Porto Alegre é alta, especialmente se considerarmos que foram utilizadas doses fi-siológicas (250 ml de leite) para o diagnóstico. As taxas de má absorção foram maiores entre as crianças de cor não-branca em relação às crianças de cor branca, confirmando a influência racial na hipolactasia primária do tipo adulto.
Resumo:
Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.
Resumo:
Este trabalho de conclusão tem como tema a Qualidade Seis Sigma e a produção de tintas, com foco no parâmetro viscosidade. O objetivo principal é o estudo da variabilidade da viscosidade das tintas, com vistas à diminuição do número de desvios de viscosidade de lotes de produção e, conseqüentemente, do retrabalho e lead-time fabril. Inicialmente, foi realizada uma revisão bibliográfica sobre a metodologia Seis Sigma, suas principais ferramentas, e sobre os processos de produção de tintas, suas fontes de variabilidade e possibilidadesde melhoria.Na seqüência, foi conduzido o estudo de caso, realizado em uma tradicional fábrica de tintas da grande Porto Alegre. O estudo seguiu as etapas da metodologiaSeis Sigma:definição,mensuração,análise,aprimoramentoe controle. Dos lotes de tinta analisados, 78,5% necessitaram de algum tipo de ajuste de viscosidade.A viscosidadedas tintas, após a etapade completagem,foi, em média, 5,3 vezes maior que a semi-amplitude da tolerância. O tempo médio de ajuste de viscosidade foi de 20 minutos, o dobro do tempo gasto caso fosse feita somente a medição da viscosidade. Analisando-se a viscosidade em segundos, a diferença entre a medição já com o solvente previsto, e a medição logo após a completagem, foi, em média, de 28 segundos. A etapa de acertos de cor e brilho proporciona um aumento médio na viscosidade de cerca de 6 segundos Observou-se que os processos de fabricação não eram estáveis e nem capazes de atender as especificações, sem a etapa de ajustes, sendo o pior processo o em moinho pequeno (l,5P), e o melhor, em processo mistura. O sistema de medição contribuía para a variabilidade da viscosidade e foi melhorado. Outros fatores influentes na variabilidade da viscosidade foram: o fluxo de moagem, a sistemática de lavagem dos moinhos e a instabilidade (aumento) da viscosidade com o tempo. Como etapa final, foram sugeridas melhorias para o processo, na forma de um plano de ação, contemplando todos os fatores de variação identificados.
Resumo:
No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
Os depósitos de metais-base (Camaquã, Santa Maria e na Formação Passo Feio), e Au (Bossoroca) mais importantes do Rio Grande do Sul foram gerados durante o Ciclo Brasiliano ao longo de três eventos distintos, relacionados ao magmatismo e metamorfismo contemporâneos (700, 594 e 562 Ma); os metais foram derivados de fontes relacionadas à crosta juvenil e ao embasamento antigo. O depósito de ouro da Bossoroca (700 Ma) consiste de veios de quartzo com Au e subordinadamente pirita, calcopirita, galena e teluretos, sendo classificado como um depósito orogênico epizonal. Os filões de quartzo aurífero são hospedados por rochas, piroclásticas calcico-alcalinas de composição andesítica, dacítica com basaltos e epiclásticas subordinadas, pertencentes a Formação Campestre. Estudos do zircão através do método U-Pb via SHRIMP mostram que as rochas vulcânicas encaixantes foram geradas a cerca de 760 Ma atrás, no início do Ciclo Brasiliano, e sofreram metamorfismo regional de baixa pressão na transição entre os facies xistos verdes e anfibolito a cerca de 700 Ma. Os depósitos de metais-base do sistema Camaquã Cu (Au, Ag) e Santa Maria Pb-Zn (Cu, Ag) são hidrotermais magmáticos distantes, provavelmente ligados à intrusões graníticas, e foram gerados há cerca de 594 Ma durante o magmatismo pós-colisional do final da Orogenêse Dom Feliciano. As mineralizações de Cu (Au) e Pb hospedados pela Formação Passo Feio são hidrotermais epigenéticas e foram gerados há 562 Ma durante a intrusão do Granito Caçapava. A composição isotópica do Pb dos sulfetos dos depósitos de Camaquã-Santa Maria indica que os metais foram derivados de uma fonte crustal com Pb muito primitivo no final do Ciclo Brasiliano. A composição isotópica do enxofre dos sulfetos desses depósitos (~ 0‰ CDT) indica uma origem magmática para o enxofre. Os metais dos depósitos hidrotermais epigenéticos da Formação Passo Feio foram também derivados do embasamento antigo, com contribuição importante das rochas meta-vulcanosedimentares da Formação Passo Feio. O enxofre dessas mineralizações possui origem mista, originada pela mistura de fluidos magmáticos (Granito Caçapava) com enxofre derivado da lixiviação das meta-vulcanosedimentares da Formação Passo Feio. Os metais concentrados no depósito de Au da Bossoroca foram mobilizados durante o metamorfismo regional dinamotermal através da interação de fluidos de origem profunda que ascenderam através da pilha vulcanosedimentar extraindo Au e outros metais, e depositando-os em níveis crustais mais rasos em sítios estruturalmente favoráveis. A fonte do Pb determinada para o depósito de Au da Bossoroca é de origem profunda e corresponde a mesma fonte do magma de arco juvenil gerador das rochas vulcânicas do arco. Os isótopos de C-O mostram assinaturas compatíveis com uma fonte profunda para estes fluidos mineralizadores.
Resumo:
O presente trabalho trata do desempenho institucional através da comparação das prioridades apontadas pelos administradores públicos e sua adequação às expectativas da população. Avalia ainda a história das localidades e o “associativismo”, aspecto do “capital social” que evidencia a existência de regras de reciprocidade e de sistemas de participação, verificando então as possíveis correlações entre desempenho institucional e grau de associativismo. Em um recorte de doze anos, a partir de 1988, o estudo analisa três municípios do Litoral Norte do Rio Grande do Sul, representativos de realidades intraregionais distintas. Representantes dos executivos e dos legislativos, além das lideranças populares responderam a questões referentes a polarização esquerda-direita e a cultura política, desvendando pensamento e práticas políticas. A análise do desempenho institucional se faz através da comparação entre entrevistas realizadas com estes mesmos representantes, avaliando o quanto às expectativas dos líderes comunitários corresponde à visão das lideranças políticas. O trabalho permite um esboço da realidade sócio-política, do imaginário e da relação que cada comunidade estabelece com as administrações municipais, e, apesar de apresentar apenas parte das inúmeras correlações possíveis entre os diferentes dados coletados, conclui identificando, conforme Putnam (2001), estruturas sociais definidas e distintas entre si quanto ao capital e a tolerância social.
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
O aumento da competitividade global tem incentivado a integração dos países em blocos econômicos. Em conseqüência, o fluxo comercial mundial tem aumentado e com isso o número de transações internacionais, como no caso do Mercosul. A investigação de diferenças culturais é um elemento importante na formulação de estratégias de negociação e marketing internacional. Se compreendermos as diferenças de valor pessoal e comportamento entre as nações, as negociações têm maior probabilidade de serem bem sucedidas. A presente investigação é estruturada em três etapas: fundamentação teórica, o estudo realizado e as considerações finais. Na primeira etapa, o tema é abordado a partir do constructo valor-atitude-comportamento e de alguns elementos adjacentes como as crenças e a cultura dentro do contexto da negociação comercial. Na segunda etapa, é apresentado o estudo realizado, de natureza exploratória, que buscou identificar semelhanças e diferenças entre executivos brasileiros (N=134) e argentinos (N=116). Para tanto, utilizou-se um método com recursos quali-quantitativos. Visando a coleta de dados, os sujeitos da amostra (N=250) foram submetidos a uma negociação comercial simulada. Em seguida, foi aplicada a Escala de Valores de Rokeach (RVS), a fim de identificar a hierarquia de valores dos respectivos executivos. Apurou-se os resultados da negociação através dos lucros obtidos e os valores pessoais através das médias do grau de importância a eles atribuído. Finalmente, foi verificada a existência de correlação entre as preferências axiológicas dos negociadores e os resultados das negociações comerciais. Na terceira etapa, são feitas considerações acerca dos achados, indicando que o sexo e a idade não influenciaram o resultado da negociação em ambos países. Entretanto, outros fatores como o papel desempenhado pelo negociador (comprador ou vendedor), a cultura de pertinência e as respectivas motivações tiveram influência no resultado da negociação. Executivos brasileiros obtiveram lucros motivados principalmente pela satisfação de necessidades (tolerância, autocontrole e prazer) enquanto que executivos argentinos obtiveram lucros motivados por realização de objetivos (um sentimento de realização, segurança nacional e liberal). Por outro lado, os compradores brasileiros obtiveram os maiores lucros na negociação, seguido por compradores argentinos, vendedores argentinos e vendedores brasileiros. Por fim, são apresentados sugestões para a melhoria de investigações dessa natureza na área de Marketing Internacional.
Resumo:
A disputa por um filho é uma situação tratada nas instituições judiciais através da nomeação do guardião mais apto para permanecer com a criança ou através de acordos entre as partes envolvidas, sempre considerando o princípio de priorizar o interesse superior da criança. Este estudo tem como objetivo elucidar aspectos da condição psicopatológica da disputa por um filho e suas repercussões no processo identificatório da criança. Para tanto, a pesquisadora partiu da pesquisa psicanalítica e da proposta de construção de caso psicanalítico para elaborar um ensaio metapsico(pato)lógico do caso. Foram realizados três estudos enfocando a criança na situação de disputa entre a família biológica e a família guardiã, na disputa entre uma dupla e mediante a separação conjugal. Ao finalizar o estudo levantou-se a questão sobre a importância da retomada do processo identificatório da criança disputada mediante a firmação do contrato identificatório. A posição dos pais na disputa pelo filho caracterizou a necessidade de exposição de um risco de perda deste filho e do desejo pelo mesmo. O compromisso identificatório da criança deverá ter suas cláusulas revistas e o desejo de um filho, para os pais, incluirá a assunção de um filho desejado e do não desejo de desejo por este filho. A possibilidade de mudança surgirá com a revelação de uma demanda que se autoriza e com a nova posição, que só poderá ser assumida pela criança com a participação da tolerância e flexibilidade daqueles que são os signatários de seu compromisso identificatório. O processo identificatório da criança, nos casos de disputa de guarda, terá a possibilidade de ser retomado através de sua mediação em situação psicanalítica de tratamento.