51 resultados para Tolerância


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa teve como objetivo construir e validar uma escala para avaliação do fator neuroticismo/estabilidade emocional. Neuroticismo é uma dimensão da personalidade humana, no modelo dos cinco grandes fatores, que se refere ao nível crônico de ajustamento e instabilidade emocional. Um alto nível de neuroticismo identifica indivíduos propensos a sofrimento psicológico que podem apresentar altos níveis de ansiedade, depressão, hostilidade, vulnerabilidade, autocrítica, impulsividade, baixa auto-estima, idéias irreais, baixa tolerância a frustração e respostas de coping não adaptativas. No primeiro estudo deste projeto foram gerados os itens da escala e avaliadas as suas qualidades psicométricas e validade de construto. Os participantes foram 792 estudantes universitários de três estados brasileiros. O segundo estudo teve como objetivo verificar a validade concorrente do instrumento. Participaram 437 estudantes universitários. Os resultados mostraram que o instrumento e as quatro subescalas identificadas através da análise fatorial apresentam qualidades psicométricas adequadas. As correlações entre o instrumento e testes para avaliar ansiedade, depressão, bem estar subjetivo, auto estima e neuroticismo (EPQ) indicaram que a escala construída está avaliando adequadamente as diferentes facetas do construto neuroticismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hipotetiza-se que haja sinergismo na associação de herbicidas inibidores do fotossistema II e da síntese de carotenóides, pelos seus mecanismos de ação específicos. Com o objetivo de demonstrar a existência de sinergismo na associação de herbicidas pertencentes a estes dois grupos foram conduzidos trabalhos em laboratório, casa-de-vegetação e a campo. Em laboratório avaliou-se a interação de metribuzin e clomazone através da estimativa do estresse oxidativo gerado pela associação, em plantas de girassol, com a determinação dos níveis de malondialdeído e extravasamento eletrolítico. Em casa-de-vegetação, plantas de girassol foram tratadas com os mesmos herbicidas e foram tomadas amostras para eletromicrografias que produziram visualização dos cloroplastos tratados e não tratados. Também foram aplicados tratamentos a fim de permitir a formação de curvas de resposta às doses dos mesmos herbicidas, com a representação das doses causadoras de 50% de efeito em isobologramas. Avaliou-se também o impacto da associação metribuzin e clomazone sobre as relações de interferência entre soja e girassol, pelo delineamento dialélico A campo foram conduzidos experimentos de controle de Bidens pilosa infestando a cultura da soja com os herbicidas metribuzin e clomazone. Para avaliar a seletividade das associações, conduziu-se experimentos com a cultura da soja, onde testou-se metribuzin e clomazone e com a cultura do milho, testando-se atrazine e isoxaflutole. Nos trabalhos com malondialdeído, extravasamento eletrolítico e eletromicrografias, obteve-se sinergismo valendo-se do método de Colby. No ensaio de curvas de resposta, a variável massa seca apresentou probabilidade de sinergismo de 0,90 em uma combinação. No dialélico, a associação dos produtos reduziu a tolerância da soja ao metribuzin e à sua associação com clomazone. No controle de B. pilosa, as variáveis percentual de cobertura e controle demonstraram sinergismo pelo método de Limpel. Na avaliação de seletividade, não se observou nenhum dano resultante da associação dos herbicidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Determinar a prevalência de má absorção de lactose e sua associação com a cor da pele e a idade em crianças e adolescentes de escolas públicas do município de Porto Alegre. Material e Métodos: Foi realizado um estudo transversal que incluiu 225 indivíduos de 8 a 18 anos, freqüentadores de escolas públicas do município de Porto Alegre. Os participantes foram classificados segundo a cor e a faixa etária. A má absorção de lactose foi diagnosticada através do teste do hidrogênio expirado após ingestão de 250 ml de leite. O teste teve duração de 3 horas e foi considerado como critério de positividade o aumento ≥ 20 partes por milhão na concentração de hidrogênio em relação ao nível basal. Resultados: Foram estudados 225 alunos, com uma média e desvio padrão de idade de 12,2 ± 2,0 anos. Cento e cinqüenta e quatro alunos eram de cor branca (68,4%) e os restantes, de cor não-branca (preta ou parda). A má absorção de lactose foi evidenciada em 19/225 casos (8,4%). Foram diagnosticados 8/154 casos (5,2%) nos alunos de cor branca e 11/71 casos (15,5%) nos alunos de cor não-branca (p = 0,02). Em relação à faixa etária, ocorreram 15/143 casos (10,5%) nos alunos entre 8 e 12 anos e 4/82 casos (4,9%) entre 13 e 18 anos (p = 0,227). Conclusões: A prevalência de má absorção de lactose encontrada em alunos de escolas pú-blicas de Porto Alegre é alta, especialmente se considerarmos que foram utilizadas doses fi-siológicas (250 ml de leite) para o diagnóstico. As taxas de má absorção foram maiores entre as crianças de cor não-branca em relação às crianças de cor branca, confirmando a influência racial na hipolactasia primária do tipo adulto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão tem como tema a Qualidade Seis Sigma e a produção de tintas, com foco no parâmetro viscosidade. O objetivo principal é o estudo da variabilidade da viscosidade das tintas, com vistas à diminuição do número de desvios de viscosidade de lotes de produção e, conseqüentemente, do retrabalho e lead-time fabril. Inicialmente, foi realizada uma revisão bibliográfica sobre a metodologia Seis Sigma, suas principais ferramentas, e sobre os processos de produção de tintas, suas fontes de variabilidade e possibilidadesde melhoria.Na seqüência, foi conduzido o estudo de caso, realizado em uma tradicional fábrica de tintas da grande Porto Alegre. O estudo seguiu as etapas da metodologiaSeis Sigma:definição,mensuração,análise,aprimoramentoe controle. Dos lotes de tinta analisados, 78,5% necessitaram de algum tipo de ajuste de viscosidade.A viscosidadedas tintas, após a etapade completagem,foi, em média, 5,3 vezes maior que a semi-amplitude da tolerância. O tempo médio de ajuste de viscosidade foi de 20 minutos, o dobro do tempo gasto caso fosse feita somente a medição da viscosidade. Analisando-se a viscosidade em segundos, a diferença entre a medição já com o solvente previsto, e a medição logo após a completagem, foi, em média, de 28 segundos. A etapa de acertos de cor e brilho proporciona um aumento médio na viscosidade de cerca de 6 segundos Observou-se que os processos de fabricação não eram estáveis e nem capazes de atender as especificações, sem a etapa de ajustes, sendo o pior processo o em moinho pequeno (l,5P), e o melhor, em processo mistura. O sistema de medição contribuía para a variabilidade da viscosidade e foi melhorado. Outros fatores influentes na variabilidade da viscosidade foram: o fluxo de moagem, a sistemática de lavagem dos moinhos e a instabilidade (aumento) da viscosidade com o tempo. Como etapa final, foram sugeridas melhorias para o processo, na forma de um plano de ação, contemplando todos os fatores de variação identificados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata do desempenho institucional através da comparação das prioridades apontadas pelos administradores públicos e sua adequação às expectativas da população. Avalia ainda a história das localidades e o “associativismo”, aspecto do “capital social” que evidencia a existência de regras de reciprocidade e de sistemas de participação, verificando então as possíveis correlações entre desempenho institucional e grau de associativismo. Em um recorte de doze anos, a partir de 1988, o estudo analisa três municípios do Litoral Norte do Rio Grande do Sul, representativos de realidades intraregionais distintas. Representantes dos executivos e dos legislativos, além das lideranças populares responderam a questões referentes a polarização esquerda-direita e a cultura política, desvendando pensamento e práticas políticas. A análise do desempenho institucional se faz através da comparação entre entrevistas realizadas com estes mesmos representantes, avaliando o quanto às expectativas dos líderes comunitários corresponde à visão das lideranças políticas. O trabalho permite um esboço da realidade sócio-política, do imaginário e da relação que cada comunidade estabelece com as administrações municipais, e, apesar de apresentar apenas parte das inúmeras correlações possíveis entre os diferentes dados coletados, conclui identificando, conforme Putnam (2001), estruturas sociais definidas e distintas entre si quanto ao capital e a tolerância social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da competitividade global tem incentivado a integração dos países em blocos econômicos. Em conseqüência, o fluxo comercial mundial tem aumentado e com isso o número de transações internacionais, como no caso do Mercosul. A investigação de diferenças culturais é um elemento importante na formulação de estratégias de negociação e marketing internacional. Se compreendermos as diferenças de valor pessoal e comportamento entre as nações, as negociações têm maior probabilidade de serem bem sucedidas. A presente investigação é estruturada em três etapas: fundamentação teórica, o estudo realizado e as considerações finais. Na primeira etapa, o tema é abordado a partir do constructo valor-atitude-comportamento e de alguns elementos adjacentes como as crenças e a cultura dentro do contexto da negociação comercial. Na segunda etapa, é apresentado o estudo realizado, de natureza exploratória, que buscou identificar semelhanças e diferenças entre executivos brasileiros (N=134) e argentinos (N=116). Para tanto, utilizou-se um método com recursos quali-quantitativos. Visando a coleta de dados, os sujeitos da amostra (N=250) foram submetidos a uma negociação comercial simulada. Em seguida, foi aplicada a Escala de Valores de Rokeach (RVS), a fim de identificar a hierarquia de valores dos respectivos executivos. Apurou-se os resultados da negociação através dos lucros obtidos e os valores pessoais através das médias do grau de importância a eles atribuído. Finalmente, foi verificada a existência de correlação entre as preferências axiológicas dos negociadores e os resultados das negociações comerciais. Na terceira etapa, são feitas considerações acerca dos achados, indicando que o sexo e a idade não influenciaram o resultado da negociação em ambos países. Entretanto, outros fatores como o papel desempenhado pelo negociador (comprador ou vendedor), a cultura de pertinência e as respectivas motivações tiveram influência no resultado da negociação. Executivos brasileiros obtiveram lucros motivados principalmente pela satisfação de necessidades (tolerância, autocontrole e prazer) enquanto que executivos argentinos obtiveram lucros motivados por realização de objetivos (um sentimento de realização, segurança nacional e liberal). Por outro lado, os compradores brasileiros obtiveram os maiores lucros na negociação, seguido por compradores argentinos, vendedores argentinos e vendedores brasileiros. Por fim, são apresentados sugestões para a melhoria de investigações dessa natureza na área de Marketing Internacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A disputa por um filho é uma situação tratada nas instituições judiciais através da nomeação do guardião mais apto para permanecer com a criança ou através de acordos entre as partes envolvidas, sempre considerando o princípio de priorizar o interesse superior da criança. Este estudo tem como objetivo elucidar aspectos da condição psicopatológica da disputa por um filho e suas repercussões no processo identificatório da criança. Para tanto, a pesquisadora partiu da pesquisa psicanalítica e da proposta de construção de caso psicanalítico para elaborar um ensaio metapsico(pato)lógico do caso. Foram realizados três estudos enfocando a criança na situação de disputa entre a família biológica e a família guardiã, na disputa entre uma dupla e mediante a separação conjugal. Ao finalizar o estudo levantou-se a questão sobre a importância da retomada do processo identificatório da criança disputada mediante a firmação do contrato identificatório. A posição dos pais na disputa pelo filho caracterizou a necessidade de exposição de um risco de perda deste filho e do desejo pelo mesmo. O compromisso identificatório da criança deverá ter suas cláusulas revistas e o desejo de um filho, para os pais, incluirá a assunção de um filho desejado e do não desejo de desejo por este filho. A possibilidade de mudança surgirá com a revelação de uma demanda que se autoriza e com a nova posição, que só poderá ser assumida pela criança com a participação da tolerância e flexibilidade daqueles que são os signatários de seu compromisso identificatório. O processo identificatório da criança, nos casos de disputa de guarda, terá a possibilidade de ser retomado através de sua mediação em situação psicanalítica de tratamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A produção da soja em escala comercial tem sido viabilizada técnica e economicamente, entre outros fatores, devido a fixação biológica do N2 por estirpes de Bradyrhizobium que podem suprir a demanda de nitrogênio desta leguminosa. No entanto, a variabilidade existente nas estirpes de Bradyrhizobium spp recomendadas para inoculação da soja tem comprometido o processo simbiótico. Variantes espontâneos isolados a partir das estirpes de B. japonicum (SEMIA 5079 e SEMIA 5080) e B. elkanii (SEMIA 587 e SEMIA 5019) foram avaliados quanto ao desempenho simbiótico (eficiência, nodulação em diferentes hospedeiros e competitividade), indução de clorose foliar em diferentes hospedeiros, morfologia colonial, habilidade de metabolização de carboidratos e tolerância à salinidade em diferentes temperaturas de incubação. Nas etapas de eficiência simbiótica e competitividade foi usada a cultivar de soja BR-16 e na avaliação da nodulação e indução de clorose foliar foram usados os seguintes hospedeiros: soja (Glycine max) (cultivares Clark e Peking), caupi (Vigna unguiculata) e guandu (Cajanus cajan). A caracterização genotípica foi realizada através da reação em cadeia da polimerase (PCR), com os oligonucleotídeos iniciadores BOX A 1-R, ERIC e RP01 Os resultados obtidos demonstraram que variantes e estirpes originais diferem quanto a características fenotípicas, e que diferenças nos perfis eletroforéticos de DNA analisados através da amplificação com os oligonucleotídeos iniciadores testados, evidenciaram a variabilidade genética presente entre as estirpes originais e os variantes selecionados. A cultivar de soja Clark, assim como caupi e guandu foram susceptíveis à rizobiotoxina produzida por estirpes e variantes de B. elkanii. Embora não se tenha verificado diferenças na nodulação em diferentes hospedeiros quando variantes ou estirpes de B. japonicum e B. elkanii foram inoculados em soja, caupi e guandu, foi observado uma simbiose eficiente para a soja (cultivares BR 16, Clark e Peking). A partir da variabilidade existente nas estirpes SEMIA 587, SEMIA 5019, SEMIA 5079 e SEMIA 5080 foram selecionados variantes eficientes e competitivos quanto à fixação de N2 em soja.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.