1000 resultados para Axiomas de Haag-Kastler.
Resumo:
O impacto da experiência de abuso sexual foi estudado em seis meninos, com idades entre 7 e 13 anos, atendidos em um programa de extensão da UFRGS para prevenção e tratamento de abuso físico e sexual, desenvolvido num Conselho Tutelar e numa Escola Municipal de Primeiro Grau. Para cada caso, entrevistou-se, a partir de um roteiro tópico flexível, um ou mais familiares, o professor ou orientador educacional da Escola que o menino freqüentava e os conselheiros tutelares e monitores envolvidos diretamente no caso. Quanto aos meninos vitimados, o roteiro de entrevista utilizado fazia parte do processo de avaliação clínica que precedia o tratamento psicológico. Utilizou-se da comunicologia - conjunção entre fenomenologia existencial e a semiótica - como argumento metodológico no delineamento qualitativo dos procedimentos de análise e como argumento teórico na interpretação dos resultados. A experiência da vitimação foi estudada através da descrição, redução e interpretação dos contextos de abuso, revelação e reações. A interpretação dos resultados indicou que, inicialmente, os meninos expressam prejuízos vivenciais e relacionais, experienciam o dilema entre revelar e não revelar e, posteriormente, apresentam possibilidades de reações como confusão quanto à orientação sexual, comportamento sexualizado , revitimação e comportamento abusivo. Sugestões terapêuticas são apresentadas utilizando-se como referência do processo comunicativo.
Resumo:
O MHC (Major Histocompatibility Complex) é um sistema genético importante para a manutenção de espécies ameaçadas, uma vez que baixa variabilidade para locos MHC tem sido associada a uma menor capacidade de resposta a doenças e diminuição do sucesso reprodutivo. Deste modo, pesquisas sobre a variabilidade genética do MHC têm demonstrado ser bastante informativas em estudos populacionais voltados para aspectos referentes à conservação. No presente trabalho foi investigada a variabilidade genética do MHC para três espécies de mamíferos marinhos (toninha, baleia franca austral e lobo marinho sul-americano) do sul do Brasil, com intensa mortalidade provocada por atividades humanas atuais ou passadas. As amostras foram coletadas de animais mortos encalhados na costa, de animais capturados acidentalmente por barcos pesqueiros, e também através de um sistema de biópsia. A região variável do exon 2 do gene DQB do MHC foi amplificada por PCR (Polymerase Chain Reaction) em 109 amostras de toninhas (Rio de Janeiro n=32, Rio Grande do Sul n=52, Argentina n=25), 35 amostras de lobo marinho sul-americano e 30 amostras de baleia franca austral, utilizando-se um par de primers heterólogos. O fragmento resultante de 172 pares de bases foi analisado quanto ao polimorfismo de seqüência através da técnica de SSCP (Polimorfismo de Conformação de Fita Simples) em todas as amostras de toninha e de lobo marinho sul-americano e 14 amostras de baleia franca austral. Dificuldades associadas à amplificação resultaram em padrões de SSCP pouco informativos para as amostras de lobo marinho sul-americano e baleia franca austral Todas as amostras de toninha apresentaram um padrão de pelo menos 4 bandas por indivíduo. As 4 bandas de um único indivíduo do Rio Grande do Sul foram seqüenciadas, tendo sido possível verificar que 2 seqüências relacionadas ao genes DQB estão sendo amplificadas com estes primers. Pelas análises de SSCP foi possível detectar ausência de variabilidade para as amostras de toninha provenientes do Rio de Janeiro e diferenciá-las da população da Argentina, que é polimórfica. A população do Rio Grande do Sul parece apresentar níveis intermediários de variação em relação aos extremos da distribuição da espécie. Analisando as três populações amostradas, conclui-se que a espécie apresenta baixos níveis de variabilidade para o loco DQB, a exemplo do que é reportado para os genes de MHC de outros mamíferos marinhos.
Resumo:
O processo de demonstração é axial na construção do conhecimento matemático. Na geometria euclidiana, ele é um dos aspectos que apresenta grandes obstáculos aos alunos. Uma das dificuldades aparece na transição, necessária, entre o conhecimento de natureza empírica, já adquirido, e aquele a ser construído: a geometria euclidiana enquanto modelo teórico, organizado em axiomas, teoremas e demonstrações. Os recursos informáticos hoje disponíveis provocam a busca de estratégias pedagógicas favoráveis à construção deste conhecimento. Entender as suas potencialidades torna-se um objeto de investigação: o que acontece com os processos cognitivos quando ao sujeito em interação com a máquina é possibilitada a concretização de seus construtos e ações mentais, e quando, mediante realimentação imediata, ele é levado a novas reelaborações e construções mentais? E como tais processos concorrem para um novo conhecimento? Esta tese propõe uma engenharia didática, em ambiente de geometria dinâmica, que favorece a ascensão dos alunos em patamar de conhecimento — de empírico a hipotético-dedutivo. Toma-se como referencial a teoria piagetiana, bem como a teoria da situação didática em matemática desenvolvida pela escola francesa. A engenharia se desenrola em três níveis: no primeiro, o propósito é a compreensão do significado e da necessidade de demonstração por via de construções geométricas; no segundo nível, pretende-se o desenvolvimento das primeiras habilidades na produção de demonstrações; e, no terceiro, os problemas propostos ao alunos exigem mais de seus funcionamentos cognitivos no tratamento adequado de uma figura geométrica — trata-se das extensões de desenho e concomitantes apreensões operativas responsáveis pela identificação de subconfigurações geométricas que dão suporte à argumentação dedutiva. Análise a posteriori do desenrolar dos trabalhos dos alunos confirma as expectativas anunciadas na análise a priori apresentada na fase de concepção da situação didática cuja implementação é proposta: o progresso dos alunos na construção de conhecimento em geometria, como modelo matemático, foi expressivo.
Resumo:
No trabalho proposto é apresentado um método analítico para a obtenção da solução da equação advectivo-difusiva que rege a propagação de poluentes em corpos hídricos. Este método utiliza transformações conformes para efetuar o mapeamento de um corpo hídrico com geometria arbitrária em um semi-plano, fornecendo uma solução em forma fechada expressa em termos da função corrente e do potencial velocidade.
Resumo:
O objetivo do presente trabalho é construir recursos operatórios de leitura que permitam articular, desde um ponto de vista epistemológico, lingüística e psicanálise. Esta temática surge de uma problemática de pesquisa atual, relativa à crescente demanda, endereçada a lingüística, por diferentes práticas clínicas nas quais a linguagem está implicada. Neste sentido, procura-se relacionar um paradigma de linguagem com uma teoria da subjetividade apropriada tanto à reflexão clínica quanto à reflexão epistemológica. Desta forma, esta dissertação opta por um estudo teórico, visando a construção de operadores conceituais que possibilitem a articulação entre a psicanálise lacaniana e as teorias da linguagem de Saussure, Jakobson e Benveniste, utilizando como corpus de análise essas próprias teorias lingüísticas e psicanalíticas. Portanto, seu procedimento analítico pode ser qualificado como metateórico. Quatro critérios são utilizados para a seleção dos autores: 1°) as três teorias são, cada uma a seu modo, estruturalistas – isso significa que a estrutura é o conceito operador que permite pensar as proposições que estão na base de cada teoria (seus axiomas); 2°) as três teorias estabelecem proposições sobre o objeto língua – isso requer perguntar quais axiomas sobre a língua cada teoria teve que construir para dar conta da estrutura. Desses dois critérios deriva-se um terceiro; 3°) as três teorias conformam três “sistemas de linguagem” que não dissolvem o “objeto língua” para se constituírem em sua especificidade (diluindo-a em objetos de outros domínios teóricos, exteriores ao campo da linguagem – ou da lingüística – propriamente dito, tais como, por exemplo, a biologia, a psicologia, a sociologia). Cada sistema é representado por um nome próprio : I – Sistema de Linguagem elaborado por Saussure; II – Sistema de Linguagem tratado por Jakobson; III – Sistema de Linguagem concebido por Benveniste. Como critério de fechamento, temos que : 4°) as três teorias interessam de perto ao Sistema de Linguagem da psicanálise lacaniana. A relação entre tais teorias deverá servir de suporte de leitura à interlocução estabelecida no campo interdisciplinar sobre a presença da linguagem nas diferentes clínicas, assim como revitalizar os campos conceituais tanto da lingüística quanto da psicanálise.
Resumo:
Neste trabalho, estudaram-se reações de co- e terpolimerização com sistemas metalocênicos, cocatalisadas por metilaluminoxano (MAO). A estrutura destes complexos foi analisada com respeito aos efeitos estéricos e eletrônicos. A otimização da geometria destes complexos foi realizada através de cálculos de campo de força, e os aspectos eletrônicos dos complexos neutros foram analisados por espectroscopia de UV-visível e fotoeletrônica de raios-X (XPS). A performance catalítica destes complexos foi avaliada com relação à atividade, incorporação de propileno, massa molar média e sua distribuição em diferentes condições de polimerização. O sistema catalítico Et(4-Ph-7MeInd)2ZrCl2/MAO foi testado pela primeira vez na literatura aberta para a reação de copolimerização de etileno-propileno obtendo-se altas atividades, alta incorporação de propileno e microestrutura tipo bloco nos copolímeros. A heterogeneização dos sistemas metalocênicos foi avaliada através de três rotas básicas: imobilização diretamente sobre sílica, sobre sílica modificada com MAO e sobre sílica modificada com compostos atuando como espaçadores horizontais. Estes três métodos foram comparados com relação às características finais dos copolímeros. Na etapa de modificação da sílica com MAO, inicialmente estudaram-se as condições de preparação do sistema catalítico, concentração de Zr e Al e temperatura, que poderiam levar a mudanças no produto final. Através de técnicas de análise de superfície como XPS, DRIFTS (Espectroscopia de Infravermelho por refletância difusa) e UV-DRS (Espectroscopia de UV-Visível por refletância difusa) foi possível o estudo das espécies formadas na superfície da sílica modificada com MAO. Os sistemas catalíticos suportados na sílica modificada com espaçadores horizontais mostraram ser mais ativos que o sistema suportado diretamente sobre sílica incorporando distintos teores de propileno. As modificações na superfície da sílica com relação ao teor final de grupos hidroxilas e energia de ligação dos elétrons 3d5/2 do átomo de Zr também foram analisadas. Foi feito o estudo cinético da co- e terpolimerização de etileno-propileno para alguns sistemas metalocênicos estudados. No caso da terpolimerização foi realizado o estudo teórico e experimental da reação de terpolimerização para a síntese de EPDM com o sistema catalítico Et(Ind)2ZrCl2/MAO e 2-etilideno-5-norbornadieno (ENB) como termonômero. Finalmente, este modelo foi adaptado às reações de copolimerização realizadas na primeira etapa do trabalho. As razões de reatividade foram determinadas para os precursores catalíticos Me2Si(2-MeInd)2ZrCl2, Et(IndH4)2ZrCl2, Me2Si(IndH4)2ZrCl2 and Et(4-Ph-7-MeInd)2ZrCl2 e também para os respectivos sistemas suportados em sílica modificada por MAO. Também realizou-se a determinação do coeficiente de transferência de massa convectivo para o etileno e o propileno nas reais condições de polimerização. As razões de reatividade e os parâmetros de transferência de massa foram usados no modelo da reação de copolimerização para sistemas metalocênicos homogêneos e suportado. Este modelo permitiu o discernimento das reações que controlam as características finais dos copolímeros sintetizados.
Resumo:
Este ensaio se propõe confrontar a abordagem neoclássica da economia como ciência positiva, com a modelo keynesiano e a visão da economia dinâmica de Kalecki, onde a economia é tratada desde a perspectiva de uma ciência moral e normativa. Para tanto analisaremos as bases teóricas de cada modelo, seus pressupostos, leis fundamentais e principais conclusões. Dado o propósito didático do texto nos preocupamos em tentar explicar os antecedentes, axiomas, leis e relações funcionais de cada modelo, dando especial ênfase às que surgem da crítica de postulados anteriores, pois admitimos que cada modelo incorpora valores, pressupostos e metodologia própria, cuja crítica é essencial para o avanço da ciência. A economia neoclássica supõe agentes racionais, informação completa e ações e resultados imediatos. Seu método de análise é a otimização com restrições. O principio ordenador, necessário e suficiente da atividade econômica, consiste no comportamento racional dos agentes. Este modelo tem sua concepção política e ética das relações econômicas, consistente com seus pressupostos, o que fica patente, por exemplo, a propósito de sua teoria da distribuição da renda. Com a introdução de conceitos como: o tempo histórico; o caracter monetário da produção; a preferência pela liquidez; o comportamento subjetivo dos agentes; o predomínio da procura sobre a oferta; as expectativas e a incerteza em relação ao futuro, etc., a macroeconomia de Keynes consegue romper o paradigma anterior, do ajuste automático dos mercados de acordo com um feedeback contínuo e estável, capaz de garantir o equilíbrio de pleno emprego. Embora a análise keynesiana tivesse permitido a abordagem precisa de questões tão importantes como: a natureza e as causas do desemprego; o papel da moeda e do crédito; a determinação dos juros; os condicionantes do investimento, etc., faltava ainda uma teoria dos preços, da distribuição e do ciclo econômico, no que o trabalho de M. Kalecki, certamente parece ter avançado. Este autor parte de um contexto cultural e ideológico que lhe permite abordar sem entraves a natureza do capitalismo. Seu enfoque micro e macroeconômico é integrado e está apoiado no pressuposto da concorrência imperfeita. No universo keynesiano os mercados podem estar em equilíbrio, mas não no de pleno emprego, já segundo Kalecki o ciclo econômico é inevitável. Em ambos os casos os mercados não são perfeitos e não tendem naturalmente para o equilíbrio, o que justifica a ação reguladora do Estado, de acordo sua opção política e um código de valores preestabelecido. É de se imaginar que cada modelo de análise esteja condicionado pelo conjunto de valores dominantes do momento, o que não invalida o caracter de ciência social da economia. Por exemplo, desde a perspectiva individualista da troca mercantil, a economia se apresenta com a metodologia de ciência pura, porém, levando em conta as relações de classe social, é uma ciência moral.
Resumo:
Desde a implantação do Plano Real em 1994, observa-se no mercado brasileiro uma estabilidade econômica que permitiu o crescimento na oferta de fundos de investimento e empresas que lançaram ações em bolsa de valores. O ambiente criado a partir de então, disponibilizou ao investidor pessoa física acesso a uma maior variedade de produtos financeiros, a realizar aplicações por um prazo mais longo de tempo e a tomar decisões de investimento. A teoria tradicional de finanças está estabelecida como referência acadêmica e prática para explicar e apoiar o processo de tomada de decisão de investimento. Entretanto, estudos realizados apontaram violações dos axiomas que servem como ponto de partida de tal teoria. A partir desses trabalhos, surgiu uma ramificação em finanças, chamada finanças comportamentais, que buscou entender o processo de escolha dos indivíduos a partir da observação do seu comportamento. De acordo com o proposto por finanças comportamentais, no processo de escolha de alternativas que envolvam risco a forma com que as mesmas se apresentam e são contabilizadas mentalmente influenciam a decisão final dos indivíduos. O objetivo deste trabalho foi verificar, no mercado brasileiro, a aplicação de contabilidade mental por investidores individuais, em particular o conceito que os mesmos ignoram a covariância entre os ativos, conforme a versão de múltiplas contas mentais da teoria de comportamento da carteira. Pesquisa com um grupo de 44 investidores individuais indicou que eles ignoraram a covariância entre os ativos na tomada de decisão de investimento.
Resumo:
O principal objetivo deste trabalho é analisar se o uso de preferências que incorporem assimetria na reação do investidor frente a ganhos e perdas permite gerar resultados mais coerentes com o comportamento real de investidores brasileiros na seleção de portfólios ótimos de investimento. Uma das formas de tratar o comportamento assimétrico se dá através da introdução do coeficiente de aversão a perdas (ou ao desapontamento) na função utilidade tradicional, coeficiente este que aumenta o impacto das perdas frente aos ganhos. A aplicação deste ajuste na função utilidade tradicional decorre de recentes avanços na teoria de finanças, mais especificamente daqueles estudos que buscam solucionar as violações dos axiomas da teoria da utilidade esperada, violações estas já demonstradas empiricamente através de testes de laboratório. A análise das implicações do uso deste tipo de função é feita através da comparação dos resultados quanto à participação do ativo com risco (mercado acionário) na composição do portfólio ótimo (aquele que maximiza a utilidade) do investidor gerados por dois tipos de função utilidade: tradicional e com aversão a perdas. Os resultados são comparados com dados reais de participação do mercado acionário nos investimentos totais de dois tipos de investidores brasileiros - fundos de pensão e investidores individuais - visando verificar a adequação dos resultados de cada função em relação ao comportamento destes investidores. Os resultados mostram que não é possível rejeitar a função utilidade tradicional como modelo representativo do comportamento agregado dos fundos de pensão. Por outro lado, as simulações indicam que a função utilidade tradicional deve ser rejeitada como modelo representativo do comportamento dos investidores individuais, sendo o comportamento destes investidores melhor representado por uma função que incorpora aversão a perdas.
Resumo:
Contaminação da confiança é um caso especial de incerteza Knightiana ou ambiguidade na qual o tomador de decisões está diante de não apenas uma única distribuição de probabilidades, mas sim de um conjunto de distribuições de probabilidades. A primeira parte desta tese tem o propósito de fornecer uma caracterização da contaminação da confiança e então apresentar um conjunto de axiomas comportamentais simples sob os quais as preferências de um tomador de decisões é representada pela utilidade esperada de Choquet com contaminação da confiança. A segunda parte desta tese apresenta duas aplicações econômicas de contaminação da confiança: a primeira delas generaliza o teorema de existência de equilíbrio de Nash de Dow e Werlang (o que permite apresentar uma solução explícita para o paradoxo segundo o qual os jogadores de um jogo do dilema dos prisioneiros com um número infinito de repetições não agem de acordo com o esperado pelo procedimento da indução retroativa) e a outra estuda o impacto da contaminação da confiança na escolha de portfolio.
Resumo:
The Prospect Theory is one of the basis of Behavioral Finance and models the investor behavior in a different way than von Neumann and Morgenstern Utility Theory. Behavioral characteristics are evaluated for different control groups, validating the violation of Utility Theory Axioms. Naïve Diversification is also verified, utilizing the 1/n heuristic strategy for investment funds allocations. This strategy causes different fixed and equity allocations, compared to the desirable exposure, given the exposure of the subsample that answered a non constrained allocation question. When compared to non specialists, specialists in finance are less risk averse and allocate more of their wealth on equity.
Resumo:
O presente trabalho é composto por dois estudos independentes sobre o Transtorno de Estresse Pós-Traumático (TEPT). O primeiro estudo empregou procedimentos paralelos de análise de componentes principais em duas versões do Screen for Posttraumatic Stress Symptoms (SPTSS) respondidas por estudantes universitários norte-americanos (n = 2.389) e brasileiros (n = 755). Três componentes de primeira ordem (revivência/ansiedade; depressão; evitação) e um componente de segunda ordem (TEPT) representaram a estrutura interna do SPTSS. O segundo estudo empregou testes neuropsicológicos em estudantes universitários (N = 72) com graus variados de sintomatologia pós-traumática. Foi encontrada diferença significativa no desempenho em tarefas de atenção seletiva, função executiva e processamento emocional. Os estudos realizados contribuem para a compreensão do modelo conceitual e dos prejuízos cognitivos associados ao TEPT.
Resumo:
Este trabalho analisa os valores básicos (axiomas) da filosofia essencialista juntamente com o seu método. A finalidade é questionar a maneira de produção de conhecimento para se atingir os valores supremos, positivos. Como a filosofia também trata da vida humana, foi inevitável a passagem deste mesmo procedimento para a vida íntima das pessoas, atingindo assim a psiquê humana. Do mesmo modo, questionamos a filosofia existencialista nos mesmos pontos, e traçamos argumentos que possam evidenciar uma possível complementaridade entre estas duas posturas filosóficas no que diz respeito às suas repercussões no terreno da psicoterapia. Esses argumentos partem do reconhecimento das essências (que tem origem na filosofia) na psicologia clínica e sua práxis. Na psicologia, elas são os princípios, as leis componentes da personalidade humana, que os terapeutas essencialistas tendem a acentuar sua importância em detrimento da forma do ser, da existência; ao contrário, os terapeutas existencialistas tendem a enfatizar somente a forma do ser, não considerando a presença destes princípios, ai, na forma do ser, na existência. Assim, este trabalho tenta mostrar um possível caminho para conciliar na psicoterapia, o tratamento nestes dois níveis: o nível das essências (conteúdo do ser) e da existência (a forma do ser).
Resumo:
Esse é um trabalho sobre estudos comportamentais que questionam a confiabilidade empírica das premissas de racionalidade das ciências sociais. Décadas de pesquisa comportamental vêm nos ensinando é que a grande maioria das tendências cognitivas identificadas e comprovadas, que se afastam dos pressupostos da Teoria da Escolha Racional não são de forma alguma aleatórias, mas ao invés, são sistemáticas e previsíveis. A ideia unificando esse trabalho é de que a literatura de pesquisa comportamental pode nos permitir modelar e prever comportamentos relevantes para o direito, com pressupostos mais realistas sobre o comportamento humano. No entanto, alguns pesquisadores pintam uma figura entusiástica sobre o potencial que tal pesquisa possui para informar a análise jurídica e, assim, cometem algumas desatenções ao defender generalizações não embasadas por evidências científicas, quase aproximando-se do uso de uma mera retórica. Dado esse cenário, devemos procurar garantir que a incorporação das evidências da pesquisa comportamental no discurso jurídico seja acompanhada de maior ênfase na pesquisa empírica em ambientes específicos. Esse trabalho possui três objetivos. O primeiro é analisar as diferentes concepções de racionalidade e caso elas devem manter sua posição privilegiada nas ciências sociais. O segundo é tentar entender melhor a literatura de pesquisa comportamental que questionam a validade empírica dos axiomas da Teoria da Escolha Racional. O terceiro é identificar problemas na forma pela qual a pesquisa comportamental tem sido incorporada no discurso jurídico.
Resumo:
Value at Risk (VaR) e Expected Shortfall (ES) são modelos quantitativos para mensuração do risco de mercado em carteiras de ativos financeiros. O propósito deste trabalho é avaliar os resultados de tais modelos para ativos negociados no mercado brasileiro através de quatro metodologias de backtesting - Basel Traffic Light Test, Teste de Kupiec, Teste de Christoffersen e Teste de McNeil e Frey – abrangendo períodos de crise financeira doméstica (2002) e internacional (2008). O modelo de VaR aqui apresentado utilizou duas abordagens – Paramétrica Normal, onde se assume que a distribuição dos retornos dos ativos segue uma Normal, e Simulação Histórica, onde não há hipótese a respeito da distribuição dos retornos dos ativos, porém assume-se que os mesmos são independentes e identicamente distribuídos. Também foram avaliados os resultados do VaR com a expansão de Cornish-Fisher, a qual visa aproximar a distribuição empírica a uma distribuição Normal utilizando os valores de curtose e assimetria para tal. Outra característica observada foi a propriedade de coerência, a qual avalia se a medida de risco obedece a quatro axiomas básicos – monotonicidade, invariância sob translações, homogeneidade e subaditividade. O VaR não é considerado uma medida de risco coerente, pois não apresenta a característica de subaditividade em todos os casos. Por outro lado o ES obedece aos quatro axiomas, considerado assim uma medida coerente. O modelo de ES foi avaliado segundo a abordagem Paramétrica Normal. Neste trabalho também se verificou através dos backtests, o quanto a propriedade de coerência de uma medida de risco melhora sua precisão.