998 resultados para Bloqueio peribulbar - Técnicas de punções
Resumo:
Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.
Resumo:
A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.
Resumo:
Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).
Resumo:
A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
Resumo não disponível.
Resumo:
O objetivo deste trabalho é investigar o processo composicional, a partir do pensamento do compositor. A investigação do processo composicional acontece em dois momentos. O primeiro momento é a realização documentada de um trabalho composicional, onde o pensamento do compositor fica registrado nas partituras, esboços e anotações que são feitas. O segundo momento é a realização de reflexões críticas a respeito dos conceitos técnicos e estéticos que são extraídos do trabalho composicional. As reflexões são feitas inicialmente considerando cada peça isoladamente e posteriormente considerando o conjunto de peças como um todo, estabelecendo ligações as composições. Em ambos os momentos busca-se evidenciar o fluxo de idéias do compositor no momento da criação, bem como seu modo de organizar estas idéias e produzir música.
Resumo:
Neste estudo observamos os efeitos do bloqueio crônico do óxido nítrico por uma (1s), duas (2s) e quatro (4s) semanas de tratamento sobre a pressão arterial, freqüência cardíaca e o controle reflexo da circulação. O bloqueio crônico do óxido nítrico pela L-nitro-arginina-metil-éster (L-NAME), na água de beber, aumentou a pressão arterial média (PAM) em mmHg (1s=144; 2s=153 e 4s=167) de maneira tempo-dependente, quando comparado ao grupo controle (c=102). Tal aumento foi acompanhado pelo aumento de consumo de L-NAME e pelo aumento da relação peso do coração/peso corporal, um índice de hipertrofia cardíaca. A freqüência cardíaca (FC) basal não foi diferente entre os grupos tratados e o controle. O reflexo comandado pelos pressorreceptores estava atenuado significativamente (c=-4,17; 1s=-2,72; 2s=-2,10 e 4s=2,41) nos animais tratados, enquanto o reflexo cardiopulmonar estava exacerbado, de forma semelhante, em todos os grupos tratados. É possível que a atenuação do baroreflexo esteja relacionada ao aumento da sensibilidade do reflexo cardiopulmonar onde houve tanto aumento da resposta bradicárdica em bpm (c=-77; 1s=-109; 2s=-114 e 4s=-122) quanto da resposta hipotensora em mmHg (c=-14; 1s=-28; 2s=-29 e 4s=-31) . A resposta hipertensora comandada pelos quimiorreceptores estava diminuída enquanto a resposta de bradicardia praticamente não se alterou. Em todos os reflexos testados a bradicardia reflexa estava normal ou aumentada. As respostas reflexas normalmente associadas à ativação do ramo simpático do sistema nervoso autônomo estavam reduzidas enquanto os quimiorreceptores e os barorreceptores foram estimulados. Já a resposta de hipotensão mediada pelos cardiopulmonares estava aumentada nos animais hipertensos. Esses dados em conjunto sugerem um aumento tônico da atividade simpática periférica reduzindo a reserva para respostas excitatórias e facilitando as respostas inibitórias. Alterações do sistema renina angiotensina como aumento da atividade da renina plasmática nos animais tratados por duas semanas, não se correlacionaram com as alterações de PAM ou do controle reflexo da FC. A atividade da enzima de conversão da angiotensina I (ECA) se correlacionou positivamente com a hipertrofia cardíaca. Não foram observadas alterações da ECA pulmonar e da aorta. Alterações da atividade das enzimas antioxidantes mostraram variações tempo-dependentes que culminaram, no grupo de quatro semanas, com redução do estresse oxidativo expresso pela quimiluminescência. Neste tempo de tratamento, o aumento da atividade da enzima superóxido dismutase indica um papel para o ânion superóxido na fisiopatologia desse modelo de hipertensão. Finalizando, o bloqueio da síntese do óxido nítrico em ratos, pela administração crônica de L-NAME durante uma, duas e quatro semanas na água de beber, induziu hipertrofia cardíaca e aumentou a PAM. Esse aumento foi maior após 4 semanas de tratamento. Entretanto, diferentemente do que esperávamos, as alterações do controle reflexo da circulação encontradas após uma semana, não foram diferentes das encontradas em 4 semanas, com exceção do quimiorreflexo, que foi menor só na segunda e quarta semanas.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
Nos últimos anos a preocupação com a preservação dos recursos naturais, dos solo e das águas tem aumentado significativamente. Desta forma, a intensificação de estudos nestas áreas se faz necessária para tentar minimizar os impactos causados pela ação do homem, com vistas a recuperação. A área de estudo abrange os municípios de Tavares e S. José do Norte, situado no Litoral Médio Leste do Rio Grande do Sul, entre as coordenadas 31° 00’ e 32° 10’ de latitude Sul e 50° 00’ e 52° 10’ de longitude Oeste. Este trabalho busca fornecer subsídios para a identificação dos índices da vulnerabilidade física associados ao uso do solo da área de estudo visando a adequação do uso da terra, bem como o planejamento e o desenvolvimento de novas atividades. O estudo foi desenvolvido utilizando técnicas de sensoriamento remoto e geoprocessamento, onde os fatores foram cruzados via regra de decisão fazendo uso do SIG. Os resultados evidenciaram a necessidade de cuidados especiais no desenvolvimento de atividades sustentadas e ocupação humana.
Resumo:
O presente trabalho objetivou avaliar diferenças na patogenicidade de 19 cepas de B. pilosicoli isoladas de casos de diarréia em suínos no Estado do Rio Grande do Sul. Foi utiliza o modelo experimental em pintos de um dia, que possui boa eficiência quando usado para a infecção oral com a B. pilosicoli, pois permite a consistente colonização cecal dos animais inoculados. Através dessa infecção experimental, buscou-se estabelecer diferenças de patogenicidade entre cepas de referência da B. pilosicoli e cepas dessa espécie isoladas previamente de casos de diarréia em leitões no Rio Grande do Sul. Foram inoculadas 21 cepas de origem suína e duas cepas controle (uma a referência da espécie, P43/6/78 e um isolado humano, P16). Os animais foram inoculados por via oral com uma suspensão de bactérias vivas multiplicadas em meio líquido, num inóculo de 0,8 mL contendo 1x106 espiroquetas na fase logarítmica de crescimento. Decorridos 21 dias após a infecção experimental, os animais foram sacrificados e os cecos fixados em formalina 10% tamponada, processados para exame histológico e os cortes examinados através da coloração pela prata e com uma técnica imunohistoquímica. Com o uso da coloração pela prata, 65% dos animais mostraram colonização pela B. pilosicoli do epitélio do cecal. Houve diferenças no tipo de colonização, consistindo de aderência contínua, aderência focal ou presença de bactérias livres na luz intestinal. Com a técnica de imunohistoquímica, 76,2% das cepas mostraram colonização. Dessa forma, concluiu-se que a imunohistoquímica foi superior à coloração pela prata para a avaliação da colonização intestinal dos pintos, pois foi capaz de detectar 11,2% de cepas colonizadoras a mais do que a coloração pela prata Um segundo experimento visou avaliar a transmissão horizontal da infecção por B. pilosicoli. Para tal, foram mantidos em contato na mesma gaiola, pintos inoculados com a bactéria e animais chamados “contatos”, não inoculados. Com o uso da coloração pela prata, 23,8 % apresentaram-se positivos e, pela imunohistoquímica, 54,2 % foram positivos. Aqui também a imunohistoquímica revelou-se mais eficiente do que a coloração pela prata. Como conclusão desse experimento, as cepas de campo analisadas mostraram alta capacidade de difusão horizontal. Um achado inesperado foi a presença de figuras elongadas dentro do citoplasma das células epiteliais cecais entre alguns animais inoculados. Essas estavam presentes em 33,3 % das cepas, quando analisadas através da coloração pela prata. Pelos dados obtidos, não foi possível concluir que as figuras fossem Brachyspira pilosicoli, pois poderia tratar-se de outra bactéria intracelular ou artefato. Entretanto, como recentemente (no ano de 2003) foi realizado o primeiro registro por microscopia eletrônica de um achado de Brachyspira spp. intracelular, esse achado poderia significar uma alta capacidade invasiva entre as cepas analisadas. Novos estudos serão realizados e, caso comprovado, esse fato poderia auxiliar em muito o entendimento da patogenia da infecção pela B. pilosicoli, pouco clara até o momento.
Resumo:
Navegação, seleção e manipulação de objetos em ambientes virtuais são baseadas em métodos (técnicas de interação) associados a dispositivos convencionais ou especiais. Existem várias técnicas e dispositivos à disposição dos que desenvolvem aplicações com tais ambientes, sendo a escolha da técnica mais adequada uma tarefa difícil. Neste trabalho, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para realizar tarefas de seleção e manipulação de objetos e navegação do usuário pelo AV. A metodologia adotada nos experimentos realizados, visando a avaliar técnicas de interação em AVs imersivos foi composta por critérios de avaliação de interfaces de IHC (interface humano-computador), com critérios utilizados por Bowman, Mine e Poupyrev em seus experimentos com interfaces 3D. Também são apresentados alguns experimentos realizados, tendo vista avaliarem-se técnicas de interação na realização de tarefas de navegação, seleção e manipulação de objetos em ambientes virtuais imersivos. O objetivo deste trabalho foi a realização de experimentos para avaliar técnicas de interação para operações de seleção, manipulação e navegação em ambientes virtuais. Foram realizadas duas experiências: a primeira é uma avaliação de técnicas de seleção e manipulação em um ambiente semi-imersivo similar a um jogo de xadrez. As técnicas avaliadas são a mão virtual, associada a um mouse comum e a uma luva; e a ray-casting, associada à luva. Observou-se que o desempenho dos sujeitos é superior, quando a técnica utilizada é a mão virtual associada ao mouse comum. A segunda experiência apresenta uma avaliação experimental de dispositivos de RV em tarefas de navegação. Foi criado um ambiente, contendo um edifício com um elevador panorâmico e corredores de entrada e saída. Os testes foram realizados num ambiente imersivo, com capacete e luva, e, também em um ambiente semi-imersivo, com mouse comum e óculos com lentes de cristal líquido. Nesse segundo experimento, a preferência dos usuários pelos equipamentos utilizados foram o capacete e a luva. Observou-se que a existência ou não de objetos familiares no trajeto percorrido pelo usuário, não afeta a quantidade de colisões do sujeito com as mesmas.
Resumo:
Este trabalho trata das consequências sobre os preços de equilíbrio da presença de agentes com racionalidade limitada e da possibilidade de eficácia de um tipo de análise técnica muito utilizada no mercado financeiro: a regra de médias móveis. Na primeira parte, apresentamos uma resenha de diversos trabalhos sobre o papel dos agentes com racionalidade limitada na formação dos preços de equilíbrio das ações. Os diversos modelos foram colocados em um arcabouço comum para facilitar a exposição. Sob hipóteses gerais, a presença de agentes com racionalidade limitada aumenta a volatilidade das ações e pode tornar as trajetórias de preços bastante complicadas. A presença de agentes irracionais e de analistas técnicos pode ser justificada do ponto de vista teórico. Porém, utilizando técnicas de bootstrap, não encontramos evidências empíricas de que um tipo particular de regra de médias móveis produza retornos acima da média incondicional do IBOVESPA.
Resumo:
O objetivo da presente dissertação é o estudo da difusão de Ag e Al em uma matriz de α-Ti. Sua motivação principal se origina do fato de haver na literatura resultados contraditórios sobre o comportamento difusional desses elementos. Além disso, este estudo é necessário para dar continuidade à investigação sistemática da difusão de impurezas substitucionais em α-Ti, que vem sendo realizada pelo grupo de implantação iônica, a fim de estabelecer uma relação entre tamanho, valência e solubilidade dos elementos e seus coeficientes de difusão. A dependência do coeficiente de difusão com a temperatura para ambos elementos foi estudada nos intervalos de temperatura de 823 a 1073 K para a Ag e 948 a 1073 K para o Al. No caso da Ag foi usada a técnica de RBS para determinar os perfis de concentração, a qual tem uma alta resolução em profundidade (tipicamente 10nm), o que permite a determinação das baixas difusividades esperadas no presente experimento ( D ≤ 10-7 m2/s). No caso do Al foi usada a técnica de NRA, que preenche os mesmos requisitos citados anteriormente, com uma resolução em profundidade de aproximadamente 10 Å. As medidas realizadas mostraram que, para ambos os casos, os coeficientes de difusão seguem uma representação linear de Arrhenius. Foram encontrados os seguintes parâmetros característicos de difusão: Do = (1 ± 0,75) x10-4 m2s-1 e Q = 279 ± 6 kJ/mol para a Ag e Do = (1,4 ± 1,2) x10-2 m2s-1 e Q = 326 ± 10 kJ/mol para o Al, os quais são típicos de um comportamento substitucional normal. A comparação desse trabalho com trabalhos prévios não mostra evidência de relacionamento entre tamanho, valência e solubilidade dos elementos e seus coeficientes de difusão.