998 resultados para CODIGOS CORRETORES DE ERROS
Resumo:
Esta dissertação de mestrado procura contribuir no debate sobre o desalinhamento cambial no Brasil, principalmente no período pós 1994. Para tanto, são apresentadas, respectivamente, revisões bibliográficas acerca de diferentes modelos de taxa de câmbio de equilíbrio e de diversas estimativas desta, a partir de modelos analíticos e metodologias econométricas diferentes. São analisadas, também, taxas de câmbio de equilíbrio estimadas para o Brasil por diversos autores. Por fim, é realizada uma estimativa para a taxa de câmbio real de equilíbrio para a economia brasileira para o período 1984-2000. Foi utilizado um modelo baseado em Montiel (1999), próprio para economias em desenvolvimento, estimado com dados trimestrais. As estimativas são feitas a partir dos coeficientes de longo prazo de um modelo de cointegração, onde as variáveis são transformadas pelo filtro de Hodrick-Prescott para que sejam obtidos os seus valores permanentes. Os resultados indicam que a evolução dos fundamentos da economia gerou uma tendência de redução do desalinhamento cambial no período pós 1994. Além disso, o coeficiente de correção de erros estimado foi compatível com o comportamento da taxa de câmbio após a liberalização do mercado de câmbio de janeiro de 1999.
Resumo:
Apresentamos a fotometria de 6 campos estelares profundos distribuídos na Grande Nuvem de Magalhães obtidos com a Wide Field and Planetary Camera 2/Hubble Space Telescope em duas bandas fotométricas: F814W (~I) e F555W (~V). Foram selecionadas ao todo 15997 estrelas pela nossa amostra, que somadas às estrelas da amostra de Castro et aI. 2001 [9] contabilizaram 22239 estrelas, dentro de limites de magnitude típicos que estão no intervalo 18.5<-V <-26. Investigamos o comportamento do erro fotométrico através da tarefa PHOT/IRAF, bem como via medidas independentes de magnitude de um mesmo objeto obtidas com diferentes exposições. Implementamos um método de correção para a completeza fotométrica como função da posição no diagrama cor-magnitude, isto é, com função tanto da magnitude como da cor e analisamos a sensibilidade das funções de luminosidade obtidas para diferentes métodos de correção. Foram obtidos os diagramas cor-magnitude, com os quais ajustamos isócronas de Pádova com idades T ;S 16 Gano e metalicidades 0.001 < Z < 0.004 ou -1.3 < [Fe/H] < -0.7. A população mais velha (r~12 Gano) pode ser encontrada através do ponto de turn-off em V~22. Estrelas de idade intermediária (r~1 - 8 Gano) podem ser localizadas pela presença de um clump. Os campos próximos aos aglomerados jovens NGC1805 e NGC1818 são os campos mais populosos, apresentando estrelas com r~1 Gano. Construímos funções de luminosidade para 18.5<-V <-25, utilizando os dados das duas amostras; não foram encontradas diferenças significativas entre os campos Desenvolvemos um método para geração de diagramas cor-magnitude (CMDs) artificiais a partir de um modelo de histórico de formação estelar. Este método incorpora os efeitos de erros fotométricos, binarismo não resolvido, avermelhamento e permite o uso de formas variadas de função de massa inicial e do próprio histórico. Implementamos o Método dos Modelos Parciais para modelamento de CMDs, incluindo experimentos controlados para a comprovação da validade deste método na busca de vínculos ao histórico de formação estelar da Grande Nuvem de Magalhães em dife!entes regiões. Recuperamos SFHs confiáveis para cada um dos 6 campos da LMC. Observamos variações na formação estelar de um campo para outro. Em todos os campos encontramos uma lacuna na formação estelar com 7 rv 700 Mano. Os dois campos próximos à barra (NGC1805 e NGC1818) apresentam alguns pequenos surtos, tendo formado em sua maioria, estrelas velhas ou relativamente jovens. Já os campos próximos a NGC1831 e NGC1868 apresentam formação estelar que se aproxima de um histórico de formação estelar uniforme, com alguns pequenos surtos. Os campos NGC2209 e Hodge 11 apresentam três períodos de formação estelar muitos semelhantes.
Resumo:
Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.
Resumo:
A medida da translucência nucal (TN) entre 11 e 14 semanas de gestação é um exame ultra-sonográfico que mede a camada líquida na região cervical posterior do feto, sendo observado um aumento de espessura nas anomalias cromossômicas, especialmente na trissomia 21. Com sua crescente utilização, outras anormalidades fetais têm sido descritas em associação a um aumento da TN. O objetivo deste trabalho foi avaliar o desempenho da medida da TN na detecção de diferentes anomalias fetais e outros efeitos adversos para a gestação. Realizou-se de um estudo observacional, no período de 1996 a 2004, com gestantes avaliadas no Ambulatório de Aconselhamento Genético para Diagnóstico Pré-natal do Hospital de Clínicas de Porto Alegre por risco aumentado de anomalia congênita, e que haviam realizado a medida da TN. Foram consideradas adequadas as TN realizadas de acordo com a padronização da Fundação de Medicina Fetal de Londres, e aumentadas aquelas TN com valor cima do percentil 95 para idade gestacional. Das 443 gestantes avaliadas, 38 seguimentos foram perdidos, 4 gestações estavam em curso na análise final dos dados, finalizando 401 gestações com desfecho conhecido. Em 275 gestações com TN adequada, a medida aumentada foi significativamente associada a anormalidades congênitas em geral (p 0,000000), cromossomopatias (p 0,000059) e perdas gestacionais (p 0,000000), sendo aumentada em oito dos 14 casos de cromossomopatia e em 6/7 dos casos com Síndrome de Down. Por outro lado, no grupo das TN inadequadas (126 casos), a associação entre TN aumentada não foi significativa para defeitos congênitos em geral (p 0,641396), nem para cromossomopatias (p 0,329194) ou perdas gestacionais (p 0,096092). Especificamente com relação aos erros inatos do metabolismo (EIM) no feto, foram localizados relatos e séries de casos com TN aumentada em dez diferentes EIM. Nas dezenove gestantes com história familiar de EIM e com medida da TN, houve um caso de uma menina afetada por MPS I com TN aumentada, e um de Raquitismo Resistente à Vitamina D com TN normal. Nos outros 17 casos, a medida da TN foi normal e não havia evidência de um EIM. Entre as novas associações de TN aumentada com síndromes genéticas, relatamos um paciente com Síndrome de Artrogripose, Anomalia renal e Colestase (ARC), cuja análise molecular na Universidade de Birmingham identificou uma mutação sem sentido (1518C>T) em homozigose no gene VPS33B. Concluiu-se que o desempenho da TN na detecção de anomalias congênitas depende da qualidade do exame, sendo que uma medida adequada aumentada está significativamente associada a defeitos congênitos, cromossomopatias e a outros desfechos gestacionais adversos, e que a sensibilidade da TN é especialmente elevada na detecção da síndrome de Down.
Resumo:
O presente trabalho apresenta o desenvolvimento de um projeto para análise experimental em semeadoras agrícolas a fim de levantar dados sobre as deformações e solicitações mecânicas na sua estrutura, bem como nos diversos componentes da máquina. Visa-se o desenvolvimento de uma ferramenta / metodologia que permita localizar as regiões de maior deformação mecânica, quantificar estas deformações e registrá-las de forma dinâmica com a máquina realizando seu trabalho em campo para posterior análise dos dados. Para o desenvolvimento deste trabalho foi realizada a averiguação do estado da arte na análise experimental de tensões. Posteriormente foi feito um estudo para verificar quais dos métodos experimentais poderiam ser utilizados e qual destes métodos poderia apresentar melhores resultados para este caso. As características básicas de cada método receberam classificação e estes dados foram colocados em um programa comercial de QFD. Este estudo considerou que o baixo custo de implementação e a facilidade de operação devem apresentar maior importância. O estudo mostrou que nenhum dos métodos isoladamente atende a todos os requisitos exigidos. A fim de que atender as necessidades decidiu-se pela aplicação de dois métodos: Camada Frágil e Extensometria. O primeiro método utilizado inicialmente para localizar os pontos de maior deformação do equipamento, enquanto o segundo método fornece dados quantitativos para a posterior análise dos dados. Assim, os dois métodos escolhidos são apresentados com maior detalhamento. Este trabalho ainda apresenta uma descrição de problemas encontrados na aplicação de cada método, bem como as soluções adotadas; descreve detalhes de equipamentos e materiais comerciais utilizados e discute detalhes do processo experimental empregado. Posteriormente são discutidos os erros experimentais Os resultados obtidos demonstram que o método escolhido atendeu as necessidades e que foi capaz de proporcionar arquivos contendo dados sobre as deformações mecânicas dos componentes quando submetidos aos carregamentos dinâmicos encontrados no trabalho em campo.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.
Resumo:
Public administration has been labeled as inefficient for decades, with society seen it as a great waste of public money with a low generation of results. Its services are notably classified as sluggish, bureaucratic, with a low productivity level and a high incidence of mistakes. In periods of crisis, public administration must be the first to give good examples of balance and parsimony in its expenditures, or it could lead to the failure of the government, in general, causing damages to the population. To reach this goal, some corrective measures must be done, in different directions, by selecting the expenditures and fostering the maximum economy for the exchequer. This is only possible through the application of correct planning techniques, a still far way reality from the culture of our public organisms. One way to this change is the adoption of the Price Registration System, that in the Federal scope was already adopted by the Decree nº 3.931/01, and in the scope of the municipality of Manaus was ordered by the Decree nº 8.270/06. The present study verifies the influence of the use of the Price Registration System in purchases and contracts undertaken by the Local Secretariat of Construction, Basic Services and Housing, in the city of Manaus concerning the economy obtained when compared to other methods of tenders.
Resumo:
A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.
Resumo:
O conceito de confiança tem sido introduzido em estudos empíricos sobre marketing no Brasil partir do referencial teórico adotado principalmente nos Estados Unidos Europa. presente dissertação examina confiança, tanto no vendedor como na empresa, valor qualidade do produto percebidos pelos clientes como fatores que afetam satisfação em compras de valor, tal como compra de um imóvel residencial na planta. estudo se baseia nos artigos de Santos (2001), sobre o impacto do gerenciamento de reclamações sobre confiança lealdade do consumidor, de Doney Cannon (1997) sobre confiança no relacionamento entre empresas seus vendedores. estudo empírico trata de um levantamento de corte transversal, no qual foram testadas hipóteses específicas para examinar as relações entre as variáveis, em um processo de pesquisa formal estruturado, com uma amostra de 270 clientes. Os dados foram coletados partir da base de clientes de duas empresas brasileiras fortes nos segmentos em que atuam, uma corretora de imóveis outra incorporadora/construtora, ambas sediadas na cidade de São Paulo. análise dos dados foi feita com base no Modelo de Equações Estruturais (SEM), através do software Lisrel 8. Os resultados indicam que há confiança no corretor que está realizando venda do imóvel, sendo que satisfação com corretor influencia esta confiança. No entanto, experiências anteriores com corretores de imóveis características do corretor que realizou venda não têm impacto sobre confiança no corretor. Detectou-se também, que valor do produto confiança na construtora percebidos pelo cliente têm influencia sobre satisfação com compra, mas não qualidade percebida. Este estudo dá subsídios futuras pesquisas sobre confiança em compras de valor. São discutidas as limitações da pesquisa as implicações de seus resultados para gestão de marketing no Brasil.
Resumo:
O presente estudo discute o movimento das privatizações recentemente ocorridas e seus impactos nas relações trabalhistas e sindicais brasileiras. A discussão está focada em estudo de caso de três organizações, pertencentes a ramos de negócio diferentes e busca entender os reflexos havidos nas relações entre os agentes SOCIaIS envolvidos: empregados, empregadores, gerentes, sindicatos e autoridades. O fenômeno estudado se situa a partir da década de noventa e trás conseqüências ao movimento trabalhista, ao emprego e às relações capital e trabalho pelo potencial de conflito que as privatizações apresentam. Para organizar o pensamento desenvolvemos uma abordagem histórica que mostra o desenvolvimento das relações trabalhistas, com as organizações aperfeiçoando os instrumentos de regulação de conflito e construindo, com os empregados, uma considerável experiência de convivência ainda que marcada por interesses imediatos conflitantes. Um pouco à frente observamos uma ruptura que é explicitada pela definição do modelo vigente, pela internacionalização da economia que é imposta como um determinismo histórico e pela necessidade de sobrevivência das empresas submetidas à globalização e competição sem fronteiras. Ainda procuramos entender o movimento de flexibilização dos direitos trabalhistas que de algum modo se constituem em obstáculo à equalização competitiva dos custos das empresas e estão a sofrer forte pressão para que possam se adequar às novas realidades econômicas e necessidades empresariais. Na narrativa dos fatos apontamos erros e acertos observados e, de forma crítica, sugerimos alternativas aos modelos políticos e gerenciais adotados.
Resumo:
A presente tese é composta de três ensaios sobre o mercado de seguros de automóveis, cada ensaio corresponde a um capítulo. No primeiro capítulo apresentamos uma extensão dinâmica ao modelo de Bertrand, no qual corretores de seguros competem em preços (comissão) pela venda de contratos aos segurados. Nosso objetivo é fornecer uma explicação para um fato estilizado interessante: a coexitência de comissões nulas e positivas. Derivamos um equilíbrio de Nash perfeito em subjogo e, por máxima verossimilhança, estimamos os seguintes parâmetros do modelo: (i) o número de corretores efetivamente consultados pelos segurados; (ii) o custo de trocar de corretor; e (iii) o valor presente dos lucros dos corretores. No segundo capítulo apresentamos uma versão do modelo estático de Stahl (1989) para explicar como corretores de seguros competem em preços (comissão). Derivamos um equilíbrio no qual o valor esperado da taxa de comissão é função decrescente do prêmio mínimo exigido pela seguradora e estimamos a elasticidade da taxa de comissão em relação a este prêmio mínimo. Esta informação pode ajudar as seguradoras a desenhar seus contratos de forma mais precisa. No terceiro capítulo testamos a existência de assimetria de informação no mercado brasileiro de seguros de automóveis. Propomos o uso da taxa de comissão dos corretores como instrumento da variável endógena bônus. Esta metodologia nos permite ampliar a amostra para segurados onde a assimetria de informação é potencialmente maior. Usando dados sobre mercado brasileiro de seguros de automóveis concluímos que: (i) não há indícios de assimetria de informação relevante no grupo de segurados jovens; (ii) há assimetria de informação no grupo de segurados mais experientes. Estes resultados se alinham aos obtidos por Chiappori e Salamié (2001) e Cohen (2005).
Resumo:
Este trabalho teve como objetivo estudar um tópico pouco explorado quanto às empresas familiares que é a sucessão após a segunda geração. Procurou-se conhecer um pouco mais sobre as empresas familiares as quais se encontram na terceira geração em diante assim como entender a razão de terem conseguido este feito, pois, de acordo com vários outros estudos, apenas uma pequena minoria das empresas familiares alcança a terceira geração. Para alcançar o objetivo abordou-se no referencial teórico qual a origem das empresas familiares brasileiras, os conceitos de empresa familiar que diferem entre si conforme a ótica abordada, as suas características, assim como os pontos fortes e fracos das empresas familiares, as fases do processo de sucessão, os erros capitais que podem ocorrer na sucessão, as ações preventivas que podem servir como facilitadoras do processo sucessório, além de outros pontos de relevante importância para os empreendimentos familiares. Depois de feita a abordagem teórica, foi investigado através de pesquisa de campo em quatro empresas as quais se encontram sob o comando da terceira, quarta e quinta geração, se as indicações da literatura como condicionantes para o sucesso no processo de transição entre as gerações seriam as razões para o êxito destas empresas no quesito sucessão. A coleta de dados foi feita através de entrevistas com os diretores que fazem parte da família, das empresas selecionadas, seguindo-se um roteiro de questões fechadas abordando cinco temas principais: a sucessão e o seu planejamento; o envolvimento da família no processo sucessório; a preparação do sucessor; a profissionalização da empresa e da família e finalmente, o envolvimento com a empresa durante a infância e adolescência, sendo que este provou ser o tema de maior relevância, pois foi capaz de explicar o êxito na sucessão das empresas pesquisadas.
Resumo:
Este trabalho tem como objetivo principal analisar a relação existente entre Terceirização e Satisfação com o Trabalho. Considerando que a Terceirização é uma técnica presente na grande maioria das organizações, espera-se mostrar se a mesma influencia ou não a satisfação demonstrada pelos empregados em relação ao trabalho. Foi utilizada a Escala de Satisfação no Trabalho – EST, criada por Siqueira, no questionário aplicado a funcionários terceirizados e não terceirizados. Trata-se de uma escala multidimensional composta por cinco dimensões da satisfação com o trabalho: em relação aos colegas, ao salário, à chefia, à natureza do trabalho e em relação às promoções. Foi obtido um total de 77 respostas válidas de profissionais de empresas distintas. O resultado final mostrou que ambos os tipos de funcionários – próprios e terceirizados – são indiferentes em relação ao trabalho. Os resultados de cada dimensão mostraram pequenas diferenças entre os dois tipos de funcionários. Ao longo do trabalho, foram apresentados diversos aspectos relacionados ao processo de terceirização como as razões, vantagens, desvantagens e erros cometidos.
Resumo:
Cada vez mais se reconhece que as diferentes categorias do orçamento familiar disputam recursos limitados de uma família. Isto sugere uma visão mais ampla e sistêmica de concorrência, já que os gastos dos consumidores em um determinado setor poderão ser melhor compreendidos se relacionados com os de outros setores. Faz sentido, então, concentrar estudos na própria manifestação do comportamento de compra, expressa pelo orçamento familiar, visto que as decisões mais prioritárias (vitais) estão estabelecidas na forma como o consumidor distribui seus recursos nas grandes categorias de despesa (alimentação, habitação, transporte, vestuário, lazer etc). Neste contexto delineia-se o principal objetivo desta tese que é investigar o fenômeno da alocação de despesas que compõem o orçamento familiar, identificando padrões, segmentos de mercado e suas implicações para o Marketing. O referencial teórico divide-se em três grandes partes: a segmentação de mercado, o orçamento familiar e os fatores econômicos e sócio-demográficos que se relacionam com o orçamento familiar. A clássica Hierarquia das Necessidades de Maslow é abordada, além de temas oriundos da literatura de economia como as Leis de Engel e elasticidade-renda da demanda. Utilizando dados de uma amostra de famílias do estado de São Paulo e valendo-se da técnica de análise de agrupamentos, a tese busca trazer um olhar mais influenciado pelos paradigmas do conhecimento mercadológico por meio da identificação e caracterização de segmentos de mercado com padrões distintos de orçamento familiar. Foi construída uma taxonomia composta por seis padrões assim nomeados: sobrevivência, enfermo, econômico, caseiro, bem-estar e automotor. A análise do perfil de cada padrão ressalta semelhanças e diferenças econômicas e sócio-demográficas que exigem a atenção dos pesquisadores e estrategistas de marketing quanto aos problemas de generalização, podendo resultar em erros nas estratégias de segmentação de mercado. Discussões dos resultados são tecidas a respeito da Teoria de Maslow e das Leis de Engel. Além disso, é proposta uma taxonomia de despesas familiares classificadas pelas elasticidades-renda entre os seis padrões de orçamento familiar identificados. Esta taxonomia ajuda a clarear as mudanças no comportamento de consumo segundo o impacto das alterações de renda na composição do orçamento familiar. Por fim, os resultados reforçam a tese de que padrões de alocação das despesas familiares se apresentam como uma dimensão inovadora e útil para os estudos de segmentação de mercado.
Resumo:
A genotoxicidade do SnCl2 foi avaliada nos ensaios Salmonella/Microssoma, WP2 Mutoxiteste e com a utilização de linhagens haplóides e diplóides de S. cerevisiae. O presente estudo pôde demonstrar, claramente, que o SnCl2 apresenta um potencial tóxico e uma significativa atividade mutagênica em diferentes ensaios de reversão. O mutante rad52D, deficiente no mecanismo de reparação recombinacional, incapaz de reparar quebras simples e duplas no DNA, foi o mais sensível. As células tratadas com Sn2+ formaram agregados que levaram a uma superestimativa da toxicidade, quando não corretamente desfeitos. Ensaios de inativação corretos, nas doses de 25 mM e 75 mM de SnCl2, foram obtidos através da desagregação das células com EDTA ou tampão fosfato. O Sn2+ induziu reversão na levedura, nos lócus his1-798 (células diplóides), his1-208 e lys-1-1 (células haplóides), bem como mutação no quadro de leitura em células haplóides no lócus hom3-10. Em células diplóides, o SnCl2 induziu recombinação mitótica intragênica, enquanto que a recombinação intergênica não foi significativamente pronunciada. A mutagenicidade do Sn2+ foi demonstrada pelos ensaios de reversão de auxotrofias, mas não pôde ser evidenciada nos ensaios de mutação para a frente. A morte seletiva dos mutantes espontâneos para a canavanina, quando as células são tratadas com SnCl2, sugeriu uma indução de disfunções da membrana das células As células da levedura em fase de crescimento exponencial apresentaram, com apenas 0,1% da concentração de SnCl2, o mesmo perfil de sobrevivência quando comparado com as células em fase de crescimento respiratório, sugerindo um maior envolvimento de parâmetros fisiológicos na resistência ao estresse oxidativo gerado pelo SnCl2 após as células atingirem a fase pós diáuxica. As superoxido dismutases, mas não a catalase, protegeram contra as espécies reativas de oxigênio que o estanho produziu. O mutante sod1D apresentou uma sensibilidade três vezes maior do que a linhagem selvagem, enquanto que o mutante sod2D demonstrou uma sensibilidade pequena ao SnCl2. O duplo mutante sod1Dsod2D mostrou um aumento acentuado na sensibilidade quando comparado com a linhagem selvagem. No teste de Salmonella/Microssoma, o SnCl2 não induziu mutação no quadro de leitura (TA97 e TA98) e nem substituição de pares de bases (TA100), ao passo que uma resposta positiva foi observada com a linhagem TA102 que detecta mutagênicos oxidativos. O SnCl2 também induziu mutação na linhagem IC203 (uvrA oxyR), e não na linhagem IC188 (uvrA). Esses resultados indicaram que o SnCl2 é um agente mutagênico moderado. Provavelmente, o dano ao DNA é causado por espécies reativas de oxigênio e é reparado por um processo recombinacional e por um processo sujeito a erros.