977 resultados para Erros ortográficos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existem divergências entre Lara Resende (1982) e Cysne (1993) sobre o que determinou o descumprimento das metas monetárias que serviram como um dos instrumentos de combate a inflação no PAEG. Para se entender o que de fato ocorreu, reconstruímos a oferta de moeda a partir das variáveis descritas por estes autores como relevantes na sua argumentação. Pelo descrito, tudo indicava uma mudança estrutural, mas, usando a técnica de Chow, ficou evidente que a mesma ocorreu com o advento do Plano Trienal, não com o PAEG. Para percebermos isto, trabalhamos com um período superior a implantação e execução do PAEG (1960:01 a 1968:12). Esta investigação demonstrou duas coisas: erros na utilização analítica (este é o caso do papel das reservas internacionais e mudança estrutural) e peso de argumentação desmedida (este é o caso do papel dado ao crédito concedido pela Autoridade Monetária via Banco do Brasil ao setor privado). Afora isto, o que se tem de concreto, é que a oferta de moeda não foi resultado de uma variável isolada, mas de um conjunto bem articulado que, apesar das suas diferenças de influência, produziram no período específico em que se tem o PAEG (não pelo PAEG), uma oferta de moeda cadente e fora das metas monetárias previstas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A substituição total de uma articulação de joelho é uma técnica amplamente usada para corrigir os danos irreversíveis na juntas originais, causadas por patologias como osteoartrite e artrite reumatóide. Com o aumento número de pacientes jovens e mais ativos, a evolução na técnica da substituição da articulação total de joelho visando desempenho de longo prazo passa a ser uma demanda crítica. Portanto, na tentativa de evitar as falhas prematuras e prolongar a vida em serviço como um todo, as modificações na bandeja tibial podem produzir erros fundamentais. O design da bandeja tibial é um importante fator, porque a sua fratura pode ocorrer em função de elementos geométricos da mesma, como raios de concordância e cantos vivos. A escolha do material e do processo de fabricação também são importantes. No tocante a rota de fabricação, pode ser visto que as ligas forjadas tem o maior limite de fadiga, se comparado com as obtidas pelo processo de fundição. Entretanto, a combinação das técnicas de desenho assistido por computador (CAD), engenharia assistida por computador (CAE) e manufatura assistida por computador (CAM) podem ser uma solução rápida e barata para alcançar melhores características das bandejas tibiais. Contudo, testes pré-clínicos devem ser executados para garantir que as bandejas tibiais não falharão prematuramente devido à fadiga. As técnicas de metalografia, microdureza e espectrometria foram empregadas neste trabalho com o objetivo de caracterizar metalurgicamente a liga de aço inoxidável atualmente empregada. A rugosidade superficial foi avaliada, assim como o número de ciclos para a iniciação das trincas. Com a utilização do método de elementos finitos, verificou-se o ponto de maior tensão e, aliado ao estudo de fractografia, foi determinado o modo de falha Os resultados indicaram que o material atualmente empregado não está em conformidade com todos os requisitos das normas vigentes, de forma que um material alternativo é sugerido. Com o objetivo de melhorar a resistência à fadiga sem apresentar problemas de ordem clínica, cinco geometrias foram propostas e os resultados da análise de tensões pelo método de elementos finitos indicaram um grande potencial de aumento da vida em fadiga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação de mestrado procura contribuir no debate sobre o desalinhamento cambial no Brasil, principalmente no período pós 1994. Para tanto, são apresentadas, respectivamente, revisões bibliográficas acerca de diferentes modelos de taxa de câmbio de equilíbrio e de diversas estimativas desta, a partir de modelos analíticos e metodologias econométricas diferentes. São analisadas, também, taxas de câmbio de equilíbrio estimadas para o Brasil por diversos autores. Por fim, é realizada uma estimativa para a taxa de câmbio real de equilíbrio para a economia brasileira para o período 1984-2000. Foi utilizado um modelo baseado em Montiel (1999), próprio para economias em desenvolvimento, estimado com dados trimestrais. As estimativas são feitas a partir dos coeficientes de longo prazo de um modelo de cointegração, onde as variáveis são transformadas pelo filtro de Hodrick-Prescott para que sejam obtidos os seus valores permanentes. Os resultados indicam que a evolução dos fundamentos da economia gerou uma tendência de redução do desalinhamento cambial no período pós 1994. Além disso, o coeficiente de correção de erros estimado foi compatível com o comportamento da taxa de câmbio após a liberalização do mercado de câmbio de janeiro de 1999.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos a fotometria de 6 campos estelares profundos distribuídos na Grande Nuvem de Magalhães obtidos com a Wide Field and Planetary Camera 2/Hubble Space Telescope em duas bandas fotométricas: F814W (~I) e F555W (~V). Foram selecionadas ao todo 15997 estrelas pela nossa amostra, que somadas às estrelas da amostra de Castro et aI. 2001 [9] contabilizaram 22239 estrelas, dentro de limites de magnitude típicos que estão no intervalo 18.5<-V <-26. Investigamos o comportamento do erro fotométrico através da tarefa PHOT/IRAF, bem como via medidas independentes de magnitude de um mesmo objeto obtidas com diferentes exposições. Implementamos um método de correção para a completeza fotométrica como função da posição no diagrama cor-magnitude, isto é, com função tanto da magnitude como da cor e analisamos a sensibilidade das funções de luminosidade obtidas para diferentes métodos de correção. Foram obtidos os diagramas cor-magnitude, com os quais ajustamos isócronas de Pádova com idades T ;S 16 Gano e metalicidades 0.001 < Z < 0.004 ou -1.3 < [Fe/H] < -0.7. A população mais velha (r~12 Gano) pode ser encontrada através do ponto de turn-off em V~22. Estrelas de idade intermediária (r~1 - 8 Gano) podem ser localizadas pela presença de um clump. Os campos próximos aos aglomerados jovens NGC1805 e NGC1818 são os campos mais populosos, apresentando estrelas com r~1 Gano. Construímos funções de luminosidade para 18.5<-V <-25, utilizando os dados das duas amostras; não foram encontradas diferenças significativas entre os campos Desenvolvemos um método para geração de diagramas cor-magnitude (CMDs) artificiais a partir de um modelo de histórico de formação estelar. Este método incorpora os efeitos de erros fotométricos, binarismo não resolvido, avermelhamento e permite o uso de formas variadas de função de massa inicial e do próprio histórico. Implementamos o Método dos Modelos Parciais para modelamento de CMDs, incluindo experimentos controlados para a comprovação da validade deste método na busca de vínculos ao histórico de formação estelar da Grande Nuvem de Magalhães em dife!entes regiões. Recuperamos SFHs confiáveis para cada um dos 6 campos da LMC. Observamos variações na formação estelar de um campo para outro. Em todos os campos encontramos uma lacuna na formação estelar com 7 rv 700 Mano. Os dois campos próximos à barra (NGC1805 e NGC1818) apresentam alguns pequenos surtos, tendo formado em sua maioria, estrelas velhas ou relativamente jovens. Já os campos próximos a NGC1831 e NGC1868 apresentam formação estelar que se aproxima de um histórico de formação estelar uniforme, com alguns pequenos surtos. Os campos NGC2209 e Hodge 11 apresentam três períodos de formação estelar muitos semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A medida da translucência nucal (TN) entre 11 e 14 semanas de gestação é um exame ultra-sonográfico que mede a camada líquida na região cervical posterior do feto, sendo observado um aumento de espessura nas anomalias cromossômicas, especialmente na trissomia 21. Com sua crescente utilização, outras anormalidades fetais têm sido descritas em associação a um aumento da TN. O objetivo deste trabalho foi avaliar o desempenho da medida da TN na detecção de diferentes anomalias fetais e outros efeitos adversos para a gestação. Realizou-se de um estudo observacional, no período de 1996 a 2004, com gestantes avaliadas no Ambulatório de Aconselhamento Genético para Diagnóstico Pré-natal do Hospital de Clínicas de Porto Alegre por risco aumentado de anomalia congênita, e que haviam realizado a medida da TN. Foram consideradas adequadas as TN realizadas de acordo com a padronização da Fundação de Medicina Fetal de Londres, e aumentadas aquelas TN com valor cima do percentil 95 para idade gestacional. Das 443 gestantes avaliadas, 38 seguimentos foram perdidos, 4 gestações estavam em curso na análise final dos dados, finalizando 401 gestações com desfecho conhecido. Em 275 gestações com TN adequada, a medida aumentada foi significativamente associada a anormalidades congênitas em geral (p 0,000000), cromossomopatias (p 0,000059) e perdas gestacionais (p 0,000000), sendo aumentada em oito dos 14 casos de cromossomopatia e em 6/7 dos casos com Síndrome de Down. Por outro lado, no grupo das TN inadequadas (126 casos), a associação entre TN aumentada não foi significativa para defeitos congênitos em geral (p 0,641396), nem para cromossomopatias (p 0,329194) ou perdas gestacionais (p 0,096092). Especificamente com relação aos erros inatos do metabolismo (EIM) no feto, foram localizados relatos e séries de casos com TN aumentada em dez diferentes EIM. Nas dezenove gestantes com história familiar de EIM e com medida da TN, houve um caso de uma menina afetada por MPS I com TN aumentada, e um de Raquitismo Resistente à Vitamina D com TN normal. Nos outros 17 casos, a medida da TN foi normal e não havia evidência de um EIM. Entre as novas associações de TN aumentada com síndromes genéticas, relatamos um paciente com Síndrome de Artrogripose, Anomalia renal e Colestase (ARC), cuja análise molecular na Universidade de Birmingham identificou uma mutação sem sentido (1518C>T) em homozigose no gene VPS33B. Concluiu-se que o desempenho da TN na detecção de anomalias congênitas depende da qualidade do exame, sendo que uma medida adequada aumentada está significativamente associada a defeitos congênitos, cromossomopatias e a outros desfechos gestacionais adversos, e que a sensibilidade da TN é especialmente elevada na detecção da síndrome de Down.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um projeto para análise experimental em semeadoras agrícolas a fim de levantar dados sobre as deformações e solicitações mecânicas na sua estrutura, bem como nos diversos componentes da máquina. Visa-se o desenvolvimento de uma ferramenta / metodologia que permita localizar as regiões de maior deformação mecânica, quantificar estas deformações e registrá-las de forma dinâmica com a máquina realizando seu trabalho em campo para posterior análise dos dados. Para o desenvolvimento deste trabalho foi realizada a averiguação do estado da arte na análise experimental de tensões. Posteriormente foi feito um estudo para verificar quais dos métodos experimentais poderiam ser utilizados e qual destes métodos poderia apresentar melhores resultados para este caso. As características básicas de cada método receberam classificação e estes dados foram colocados em um programa comercial de QFD. Este estudo considerou que o baixo custo de implementação e a facilidade de operação devem apresentar maior importância. O estudo mostrou que nenhum dos métodos isoladamente atende a todos os requisitos exigidos. A fim de que atender as necessidades decidiu-se pela aplicação de dois métodos: Camada Frágil e Extensometria. O primeiro método utilizado inicialmente para localizar os pontos de maior deformação do equipamento, enquanto o segundo método fornece dados quantitativos para a posterior análise dos dados. Assim, os dois métodos escolhidos são apresentados com maior detalhamento. Este trabalho ainda apresenta uma descrição de problemas encontrados na aplicação de cada método, bem como as soluções adotadas; descreve detalhes de equipamentos e materiais comerciais utilizados e discute detalhes do processo experimental empregado. Posteriormente são discutidos os erros experimentais Os resultados obtidos demonstram que o método escolhido atendeu as necessidades e que foi capaz de proporcionar arquivos contendo dados sobre as deformações mecânicas dos componentes quando submetidos aos carregamentos dinâmicos encontrados no trabalho em campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Public administration has been labeled as inefficient for decades, with society seen it as a great waste of public money with a low generation of results. Its services are notably classified as sluggish, bureaucratic, with a low productivity level and a high incidence of mistakes. In periods of crisis, public administration must be the first to give good examples of balance and parsimony in its expenditures, or it could lead to the failure of the government, in general, causing damages to the population. To reach this goal, some corrective measures must be done, in different directions, by selecting the expenditures and fostering the maximum economy for the exchequer. This is only possible through the application of correct planning techniques, a still far way reality from the culture of our public organisms. One way to this change is the adoption of the Price Registration System, that in the Federal scope was already adopted by the Decree nº 3.931/01, and in the scope of the municipality of Manaus was ordered by the Decree nº 8.270/06. The present study verifies the influence of the use of the Price Registration System in purchases and contracts undertaken by the Local Secretariat of Construction, Basic Services and Housing, in the city of Manaus concerning the economy obtained when compared to other methods of tenders.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo discute o movimento das privatizações recentemente ocorridas e seus impactos nas relações trabalhistas e sindicais brasileiras. A discussão está focada em estudo de caso de três organizações, pertencentes a ramos de negócio diferentes e busca entender os reflexos havidos nas relações entre os agentes SOCIaIS envolvidos: empregados, empregadores, gerentes, sindicatos e autoridades. O fenômeno estudado se situa a partir da década de noventa e trás conseqüências ao movimento trabalhista, ao emprego e às relações capital e trabalho pelo potencial de conflito que as privatizações apresentam. Para organizar o pensamento desenvolvemos uma abordagem histórica que mostra o desenvolvimento das relações trabalhistas, com as organizações aperfeiçoando os instrumentos de regulação de conflito e construindo, com os empregados, uma considerável experiência de convivência ainda que marcada por interesses imediatos conflitantes. Um pouco à frente observamos uma ruptura que é explicitada pela definição do modelo vigente, pela internacionalização da economia que é imposta como um determinismo histórico e pela necessidade de sobrevivência das empresas submetidas à globalização e competição sem fronteiras. Ainda procuramos entender o movimento de flexibilização dos direitos trabalhistas que de algum modo se constituem em obstáculo à equalização competitiva dos custos das empresas e estão a sofrer forte pressão para que possam se adequar às novas realidades econômicas e necessidades empresariais. Na narrativa dos fatos apontamos erros e acertos observados e, de forma crítica, sugerimos alternativas aos modelos políticos e gerenciais adotados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo estudar um tópico pouco explorado quanto às empresas familiares que é a sucessão após a segunda geração. Procurou-se conhecer um pouco mais sobre as empresas familiares as quais se encontram na terceira geração em diante assim como entender a razão de terem conseguido este feito, pois, de acordo com vários outros estudos, apenas uma pequena minoria das empresas familiares alcança a terceira geração. Para alcançar o objetivo abordou-se no referencial teórico qual a origem das empresas familiares brasileiras, os conceitos de empresa familiar que diferem entre si conforme a ótica abordada, as suas características, assim como os pontos fortes e fracos das empresas familiares, as fases do processo de sucessão, os erros capitais que podem ocorrer na sucessão, as ações preventivas que podem servir como facilitadoras do processo sucessório, além de outros pontos de relevante importância para os empreendimentos familiares. Depois de feita a abordagem teórica, foi investigado através de pesquisa de campo em quatro empresas as quais se encontram sob o comando da terceira, quarta e quinta geração, se as indicações da literatura como condicionantes para o sucesso no processo de transição entre as gerações seriam as razões para o êxito destas empresas no quesito sucessão. A coleta de dados foi feita através de entrevistas com os diretores que fazem parte da família, das empresas selecionadas, seguindo-se um roteiro de questões fechadas abordando cinco temas principais: a sucessão e o seu planejamento; o envolvimento da família no processo sucessório; a preparação do sucessor; a profissionalização da empresa e da família e finalmente, o envolvimento com a empresa durante a infância e adolescência, sendo que este provou ser o tema de maior relevância, pois foi capaz de explicar o êxito na sucessão das empresas pesquisadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo principal analisar a relação existente entre Terceirização e Satisfação com o Trabalho. Considerando que a Terceirização é uma técnica presente na grande maioria das organizações, espera-se mostrar se a mesma influencia ou não a satisfação demonstrada pelos empregados em relação ao trabalho. Foi utilizada a Escala de Satisfação no Trabalho – EST, criada por Siqueira, no questionário aplicado a funcionários terceirizados e não terceirizados. Trata-se de uma escala multidimensional composta por cinco dimensões da satisfação com o trabalho: em relação aos colegas, ao salário, à chefia, à natureza do trabalho e em relação às promoções. Foi obtido um total de 77 respostas válidas de profissionais de empresas distintas. O resultado final mostrou que ambos os tipos de funcionários – próprios e terceirizados – são indiferentes em relação ao trabalho. Os resultados de cada dimensão mostraram pequenas diferenças entre os dois tipos de funcionários. Ao longo do trabalho, foram apresentados diversos aspectos relacionados ao processo de terceirização como as razões, vantagens, desvantagens e erros cometidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez mais se reconhece que as diferentes categorias do orçamento familiar disputam recursos limitados de uma família. Isto sugere uma visão mais ampla e sistêmica de concorrência, já que os gastos dos consumidores em um determinado setor poderão ser melhor compreendidos se relacionados com os de outros setores. Faz sentido, então, concentrar estudos na própria manifestação do comportamento de compra, expressa pelo orçamento familiar, visto que as decisões mais prioritárias (vitais) estão estabelecidas na forma como o consumidor distribui seus recursos nas grandes categorias de despesa (alimentação, habitação, transporte, vestuário, lazer etc). Neste contexto delineia-se o principal objetivo desta tese que é investigar o fenômeno da alocação de despesas que compõem o orçamento familiar, identificando padrões, segmentos de mercado e suas implicações para o Marketing. O referencial teórico divide-se em três grandes partes: a segmentação de mercado, o orçamento familiar e os fatores econômicos e sócio-demográficos que se relacionam com o orçamento familiar. A clássica Hierarquia das Necessidades de Maslow é abordada, além de temas oriundos da literatura de economia como as Leis de Engel e elasticidade-renda da demanda. Utilizando dados de uma amostra de famílias do estado de São Paulo e valendo-se da técnica de análise de agrupamentos, a tese busca trazer um olhar mais influenciado pelos paradigmas do conhecimento mercadológico por meio da identificação e caracterização de segmentos de mercado com padrões distintos de orçamento familiar. Foi construída uma taxonomia composta por seis padrões assim nomeados: sobrevivência, enfermo, econômico, caseiro, bem-estar e automotor. A análise do perfil de cada padrão ressalta semelhanças e diferenças econômicas e sócio-demográficas que exigem a atenção dos pesquisadores e estrategistas de marketing quanto aos problemas de generalização, podendo resultar em erros nas estratégias de segmentação de mercado. Discussões dos resultados são tecidas a respeito da Teoria de Maslow e das Leis de Engel. Além disso, é proposta uma taxonomia de despesas familiares classificadas pelas elasticidades-renda entre os seis padrões de orçamento familiar identificados. Esta taxonomia ajuda a clarear as mudanças no comportamento de consumo segundo o impacto das alterações de renda na composição do orçamento familiar. Por fim, os resultados reforçam a tese de que padrões de alocação das despesas familiares se apresentam como uma dimensão inovadora e útil para os estudos de segmentação de mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A genotoxicidade do SnCl2 foi avaliada nos ensaios Salmonella/Microssoma, WP2 Mutoxiteste e com a utilização de linhagens haplóides e diplóides de S. cerevisiae. O presente estudo pôde demonstrar, claramente, que o SnCl2 apresenta um potencial tóxico e uma significativa atividade mutagênica em diferentes ensaios de reversão. O mutante rad52D, deficiente no mecanismo de reparação recombinacional, incapaz de reparar quebras simples e duplas no DNA, foi o mais sensível. As células tratadas com Sn2+ formaram agregados que levaram a uma superestimativa da toxicidade, quando não corretamente desfeitos. Ensaios de inativação corretos, nas doses de 25 mM e 75 mM de SnCl2, foram obtidos através da desagregação das células com EDTA ou tampão fosfato. O Sn2+ induziu reversão na levedura, nos lócus his1-798 (células diplóides), his1-208 e lys-1-1 (células haplóides), bem como mutação no quadro de leitura em células haplóides no lócus hom3-10. Em células diplóides, o SnCl2 induziu recombinação mitótica intragênica, enquanto que a recombinação intergênica não foi significativamente pronunciada. A mutagenicidade do Sn2+ foi demonstrada pelos ensaios de reversão de auxotrofias, mas não pôde ser evidenciada nos ensaios de mutação para a frente. A morte seletiva dos mutantes espontâneos para a canavanina, quando as células são tratadas com SnCl2, sugeriu uma indução de disfunções da membrana das células As células da levedura em fase de crescimento exponencial apresentaram, com apenas 0,1% da concentração de SnCl2, o mesmo perfil de sobrevivência quando comparado com as células em fase de crescimento respiratório, sugerindo um maior envolvimento de parâmetros fisiológicos na resistência ao estresse oxidativo gerado pelo SnCl2 após as células atingirem a fase pós diáuxica. As superoxido dismutases, mas não a catalase, protegeram contra as espécies reativas de oxigênio que o estanho produziu. O mutante sod1D apresentou uma sensibilidade três vezes maior do que a linhagem selvagem, enquanto que o mutante sod2D demonstrou uma sensibilidade pequena ao SnCl2. O duplo mutante sod1Dsod2D mostrou um aumento acentuado na sensibilidade quando comparado com a linhagem selvagem. No teste de Salmonella/Microssoma, o SnCl2 não induziu mutação no quadro de leitura (TA97 e TA98) e nem substituição de pares de bases (TA100), ao passo que uma resposta positiva foi observada com a linhagem TA102 que detecta mutagênicos oxidativos. O SnCl2 também induziu mutação na linhagem IC203 (uvrA oxyR), e não na linhagem IC188 (uvrA). Esses resultados indicaram que o SnCl2 é um agente mutagênico moderado. Provavelmente, o dano ao DNA é causado por espécies reativas de oxigênio e é reparado por um processo recombinacional e por um processo sujeito a erros.