6 resultados para Fluoretos Tópicos
em Repositório da Universidade Federal do Espírito Santo (UFES), Brazil
Resumo:
Trabalho realizado durante a vigência de bolsa de produtividade em pesquisa/CNPq.
Resumo:
O artigo apresenta resultados da investigação sobre a integração de ambientes de modelagem computacional ao aprendizado exploratório de Física. Os resultados aqui apresentados são relativos ao estudo da interação e desempenho de alunos de ensino superior durante a utilização do ambiente de modelagem computacional semiquantitativo WLinkIt em uma atividade de conteúdo específico em Física: o sistema mola-massa. Os resultados mostram que os estudantes apresentaram habilidades para desenvolver um modelo sobre a situação proposta e relacionar o comportamento apresentado pelo modelo com o esperado por eles, alterar o modelo e explicar o comportamento apresentado pelas variáveis. Os resultados mostram também que as dificuldades apresentadas foram relacionadas à delimitação do sistema a ser estudado, ao entendimento da influência de uma variável sobre a outra, ao entendimento de quem é o agente causal do sistema, ao entendimento da função de uma ligação entre duas variáveis e ao entendimento dos conceitos envolvidos. Assim, o mapeamento desses aspectos é fundamental para o delineamento de pesquisas futuras no sentido de promover, na prática, a integração de Ambientes de Modelagem Computacional Semiquantitativos na sala de aula, mais especificamente para o estudo de tópicos de Física.
Resumo:
Onicomicose é a doença ungueal mais frequente, com prevalência estimada entre 2 e 8% da população. As estratégias de tratamentos atuais incluem uso de antifúngicos tópicos e orais, ambos geralmente com baixos índices de cura. Os objetivos deste estudo foram avaliar a resposta terapêutica ao laser Nd:YAG 1.064 nm no tratamento da onicomicose, bem como o método de avaliação clínica dessa terapia e os possíveis efeitos colaterais de seu uso. Foram revisados prontuários de 20 pacientes submetidos à laserterapia. Ao todo, 34 unhas afetadas foram avaliadas de acordo com o Índice de Severidade de Onicomicose (ISO). Esse índice analisa a área de envolvimento da unha, a proximidade da doença com a matriz ungueal, a ocorrência de dermatofitoma e a presença de hiperqueratose subungueal > 2 mm, gerando uma pontuação que classifica a onicomicose como leve, moderada ou grave. A determinação do ISO foi realizada antes do tratamento e após um período de acompanhamento, em média, de oito meses. A comparação entre o ISO Inicial e o ISO Final nas 34 unhas submetidas à laserterapia mostrou diferença significativa, porém, com baixa associação entre essas variáveis. Com relação à área de envolvimento e à pontuação numérica referente ao ISO, houve, no geral, uma redução dessas medidas. Esses dados apontam para uma tendência à melhora da onicomicose por meio do tratamento com o laser Nd:YAG 1.064 nm. O ISO permitiu uma análise clínica adequada da resposta à laserterapia. Os efeitos colaterais locais apresentados durante a aplicação do laser não causaram desconforto acentuado na maioria dos pacientes, demonstrando que o procedimento é bem tolerado.
Resumo:
Tem sido publicado e discutido cada vez mais o papel dos Bancos Centrais no sentido de minimizarem os custos da inflação para o conjunto da sociedade. O objetivo deste trabalho é investigar se o Banco Central do Brasil implementou no período Janeiro de 2005 a Julho de 2012 uma regra de política monetária consistente com a estabilidade de preços, a partir de uma literatura iniciada com o trabalho seminal de Taylor (1993). No primeiro Capítulo, será exposto o conceito de Regras de Política Monetária, iniciando pela Regra de Taylor original e chegando às suas versões atuais. No segundo, que será dividido em dois tópicos, será exibida a literatura empírica sobre o assunto: no primeiro tópico, serão apresentadas as evidências empíricas existentes para as experiências internacionais e, no segundo tópico, para a experiência brasileira. No terceiro Capítulo, por sua vez, será feita uma aplicação econométrica sobre a experiência brasileira recente, por meio de estimações de regressões de Mínimos Quadrados Ordinários (MQO) para a análise de curto prazo e de Cointegração na análise de longo prazo, através da abordagem de Johansen (1991). Além disto, os resultados encontrados serão interpretados à luz da teoria e comparados com as evidências existentes e apresentadas no Capítulo anterior. Grosso modo, os resultados empíricos apontam para o fato de que embora no curto prazo a Regra de Taylor expandida possa ser usada para interpretar as relações entre taxa Selic e inflação observada, no longo prazo há relações estruturais que só podem ser explicadas por elementos teóricos adicionais, tais como os presentes na Curva de Phillips, Curva IS e na abordagem da Paridade Descoberta da Taxa de Juros. Ademais, o trabalho encontra um grau de inércia da taxa Selic, no curto prazo, superior ao observado em trabalhos anteriores, sugerindo uma elevação do conservadorismo do BCB nos últimos anos.
Resumo:
Este trabalho tem por objetivo discutir o surgimento de um programa de pesquisa na Ciência Econômica, no que concerne a análise das assimetrias de informação, as diferenças epistemológicas e as implicações em termos de equilíbrio ótimo de Pareto, em contraponto à abordagem neoclássica standard. Em busca de tal objetivo, foi necessário destacar o método de ambos os paradigmas; todavia, era igualmente necessário discutir a filosofia/epistemologia da ciência envolvida e que serviria de base para uma abordagem relacionada a mudanças paradigmáticas na ciência. No capítulo 1, discutimos a epistemologia da ciência, a partir de três autores: Popper, Kuhn e Lakatos. Definimos o conjunto de hipóteses que podem ser associadas ao método empregado pela Escola Neoclássica, a partir da filosofia da ciência proposta por Lakatos. Em seguida, no capítulo 2, fizemos uma longa exposição do método neoclássico, definindo os axiomas inerentes às preferências bem-comportadas, apresentando algebricamente o equilíbrio geral walrasiano, exemplificando o relaxamento de hipóteses auxiliares do modelo neoclássico a partir de Friedman e, por fim, aplicando o instrumental neoclássico ao relaxamento da hipótese auxiliar de perfeição da informação, a partir do modelo desenvolvido por Grossman & Stiglitz (1976), bem como da expansão matemática desenvolvida pelo presente trabalho. Finalmente, encerramos a presente dissertação com o capítulo 3, no qual, basicamente, expomos as principais contribuições de autores como Stiglitz, Akerlof e Arrow, no que concerne a mercados permeados por informações assimétricas e comportamentos oportunistas. Procuramos mostrar as consequências para o próprio mercado, chegando a resultados em que o mesmo era extinto. Apresentamos a segunda parte do modelo de Grossman & Stiglitz, enfatizando a natureza imperfeita do sistema de preços, sua incapacidade de transmitir todas as informações sobre os bens ao conjunto dos agentes, e, por fim, discutimos tópicos variados ligados à Economia da Informação.
Resumo:
O objetivo principal deste trabalho é analisar como os meios de comunicação ajudam a construir a representação social da violência de gênero contra a mulher no Espírito Santo, que lidera o ranking nacional de feminicídios, com taxa de 9,8 homicídios para cada 100 mil mulheres. Elegemos como corpus de pesquisa notícias sobre violência de gênero no ES, veiculadas no ano de 2013, nos jornais A Gazeta e A Tribuna. Em hipótese, acreditamos que essas notícias ajudam a construir representações sociais acerca da violência de gênero a partir da apresentação de estereótipos de vítima e agressor na sociedade, da individualização do problema da violência, da associação desse problema às classes sociais menos privilegiadas e da apresentação do crime de violência de gênero como crime passional. O estudo dessas notícias apresenta-se como algo complexo, do qual não participam apenas informações de ordem linguística, mas também de carácter social, histórico, cultural e cognitivo, uma vez que a análise discursiva não pode ser dissociada do contexto, dos atores sociais e das instituições envolvidas na produção da notícia, bem como das ideologias presentes nesse processo. Por esse motivo, assumimos como base teórica de nossa investigação uma proposta multidisciplinar: a Teoria Sociocognitiva de Teun A. van Dijk (1999a; 2011a; 2012; 2014b). Ademais, contamos com as contribuições dos estudos sobre gênero e discurso de Cameron (1985, 1997), Wodak (1997), West, Lazar e Kramarae (2000), Fernández Díaz (2003), Lazar (1993, 2005, 2007), Magalhães (2005; 2009), Heberle, Ostermann e Figueiredo (2006). Além das análises discursivo-analíticas, também utilizamos o programa de linguística de corpus WordSmith Tools para realizar análises quantitativas. Os resultados das análises nos levaram à confirmação das hipóteses iniciais: o discurso das notícias reforça estereótipos de vítima e agressor, típicos de uma estrutura social patriarcal, na qual é atribuída à vítima ou aos vícios (álcool e drogas) a responsabilidade da violência sofrida; além disso, a violência de gênero é apresentada como um problema individual e associada às classes sociais menos favorecidas; e, por último, o discurso das notícias apresenta grande parte dos crimes de violência de gênero como crimes passionais.