12 resultados para Oração condicional
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.
Resumo:
O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.
Resumo:
Neste trabalho fazemos um breve estudo de Álgebras de Operadores, mais especificamente Álgebras-C* e Álgebras de von Neumann. O objetivo é expor alguns resultados que seriam os análogos não-comutativos de teoremas em Teoria da Medida e Teoria Rrgódica. Inicialmente, enunciamos alguns resultados de Análise Funcional e Teoria Espectral, muitos destes sendo demonstrados, com ênfase especial aos que dizem respeito µas álgebras. Com isso, dispomos das ferramentas necessárias para falarmos de alguns tópicos da então chamada Teoria da Integração Não-Comutativa. Uma desigualdade tipo Jensen é provada e, com o teorema de Radon-Nikodym para funcionais normais positivos, construimos uma esperança condicional, provando que esta possui as mesmas propriedades da esperança condicional da Teoria das Probabilidades. Dada a Esperança Condicional, objeto este que faz parte do cenário atual de pesquisa na área de Álgebra de Operadores e que está relacionado com resultados fundamentais tal como o Índice de Jones, passamos à definição da Entropia de Connes-Stormer. Finalizamos o trabalho analisando esta entropia, que é a versão para as álgebras de von Neumann da entropia Kolmogorov-Sinai em Teoria Ergódica. Provamos algumas pro- priedades que são análogas às do conceito clássico de entropia e indicamos uma aplicação da mesma. O texto não possui resultados originais, trata-se apenas de uma releitura de artigos usando versões mais recentes de alguns teoremas.
Resumo:
Esta é uma pesquisa piagetiana clássica que se insere na trilha aberta por Emília Ferreiro na área da psicogênese da alfabetização. A questão central investigada é a de saber qual o conhecimento que os adultos nãoalfabetizados possuem do sistema de escrita. Foram entrevistados 35 sujeitos utilizando o método piagetiano de interrogatório clínico. o material empregado estava composto por cupom fiscal de supermercado, bilhete de loteria, calendário, conta de luz, receita médica, nota fiscal padrão, fotos do meio urbano, recortes de revistas, desenhos com legendas, impressos padronizados de anúncios (do tipo "vende-se" , "aluga-se", "é proibido fumar", Solicitava-se o reconhecimento de classificação de textos "legíveis", palavra e da oração, interpretação de textos acompanhados ou não de imagem, realização de cálculos mentais e produção de escrita. Verificou-se que, embora não haja ainda uma compreensão global do funcionamento do sistema alfabético de escrita, os adultos não-alfabetizados apresentam conceitos etc.), entre outros. letras e números, análise ao nível da emissão verbal, passando por aquele que atribui uma letra para cada macro-partição da emissão verbal (sílaba), até o mais aprimorado que detecta então os elementos mínimos da emissão (fonemas) e trata de fazer a correspondência entre letras e fonemas. Este último nível desvenda o modo pelo qual que correspondem a níveis progressivos de desenvolvimento cognitivo. Esses níveis vão desde aquele que ainda não estabeleceu um vínculo entre a escrita e a pauta sonora da pesquisas com crianças pré-alfabetizadas verifica-se que nas há uma identidade estrutural entre crianças e adultos na forma de se apropriar do conhecimento do modo de funcionamento da língua escrita. Os adultos não apresentam as noções mais primitivas manifestadas pelas crianças pois possuem uma boa distinção entre letras e números, Conquistaram a possibilidade de realizar cálculos mentais, compreendem melhor a importância das segmentações do texto, não agridam nomes semanticamente relacionados para interpretar "sobras de texto" na análise de orações, etc. A pesquisa contribui para um melhor entendimento do processo de aprendizagem da leitura e escrita e pode ser utilizada para uma analise crítica dos métodos pedagógicos tradicionais de alfabetizal;ão de adultos.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.
Resumo:
A avaliação é um componente importante no processo de ensino/aprendizagem dentro do contexto escolar e seu resultado tem reflexos extra-classe, na medida em que aprovar ou reprovar tem significados pessoal e social fundamentais para o futuro do aluno. A avaliação escolar, atualmente questionada, tem na prova seu instrumento principal. Visando contribuir para a compreensão desse processo na escola, esta pesquisa foi desenvolvida com o objetivo de descrever provas elaboradas por professores de inglês do ensino fundamental bem como buscar, junto a eles, razões para o perfil descrito. O trabalho envolveu quatro professoras de inglês da 5ª à 8ª séries, de uma escola estadual de ensino fundamental, no interior do Rio Grande do Sul, no ano de 2004. A metodologia escolhida para desenvolver a investigação foi o estudo de caso por ser indicada para pesquisas que envolvam questões de "como" e "por que" (Yin, 2003). Constituíram dados da pesquisa 40 provas elaboradas pelas professoras; entrevistas semi-estruturadas com elas, a direção e os alunos, observações durante visitas à escola e de documentos da escola. As provas foram analisadas quanto ao conteúdo avaliado, às técnicas utilizadas e às qualidades de validade, confiabilidade e efeito retroativo. Para a descrição e análise das provas, foram tomados como base os trabalhos de Genesee e Upshur (1998), Bachman e Palmer (1996). Para a discussão das razões para a elaboração desse padrão de prova, a partir das entrevistas com as professoras, foram determinadas as seguintes categorias temáticas: o professor, o aluno, a importância do ensino de inglês e a avaliação. As conclusões indicam: a) quanto aos conteúdos avaliados, o foco das provas concentra-se predominantemente em itens gramaticais, no vocabulário e na estrutura da oração simples; b) quanto às técnicas, há o predomínio de técnicas de resposta limitada mais fáceis de elaborar e corrigir e que exigem pouco conhecimento lingüístico do professor; c) as provas apresentam grau médio de confiabilidade e validade e efeito retroativo negativo. A análise das entrevistas indica que as provas têm esse perfil porque as professoras mantêm visões tradicionais de avaliação, em conseqüência da falta de instrução sobre o assunto no curso de formação inicial, e porque apresentam deficiências significativas na competência lingüístico-comunicativa.
Resumo:
Frente ao crescente interesse e necessidade de buscar mais informações sobre a real relação do capital humano, nesse caso educação, com o crescimento econômico brasileiro, esta tese procurou examinar suas dinâmicas de inter-relação seguindo os modelos clássicos de abrangência na área, exógeno e endógeno. Dessa forma, apresenta-se, na primeira parte do trabalho uma resenha sobre os textos clássicos na área de estudo de crescimento econômico, exógeno e endógeno, que são os de MANKIW; ROMER e WEIL (1992), LUCAS (1988 e 1993) ROMER (1990) e KLENOW e RODRIGUEZ-CLARE (1997), focando na análise das diferentes formas de medir a variável capital humano (CH). Diferenças não faltam para medi-la, assim como formatos diferentes de expressar a mesma variável de representatividade de qualificação educacional. Este processo de análise tomou por base a proposta do ISCED-1997 elaborado pela UNESCO. Na segunda parte do trabalho buscou-se através de dois trabalhos (LAU et al., 1993; BENHABIB; SPIEGEL, 1994; ANDRADE, 1997) desenvolvidos para análise da economia brasileira, mais precisamente estadual, analisar e comparar, via crosssection e dados de painel, qual o efeito da escolaridade sobre o crescimento econômico nacional entre o período de 1970 e 2001. A terceira parte apresenta um segundo grupo de análises empíricas desenvolvido neste trabalho envolvendo a variável capital humano. Através do trabalho desenvolvido por SAB e SMITH (2001 e 2002), buscou analisar a convergência do capital humano no âmbito estadual (Brasil) através do processo da convergência condicional e não condicional. Concluiu-se que existe uma relação tênue entre as variáveis educação e crescimento econômico para os estados e o Brasil como um todo. Isso devido aos mais diversos fatores como qualidade dos dados, período analisado (tamanho da amostra), as diferentes medidas de capital humano, as diferenças de modelagem das variáveis. Sugere-se, portanto, que outras variáveis representativas inseridas nos modelos, em conjunto com a educação, podem mostrar resultados mais significativos para explicar o desenvolvimento econômico destas regiões e do país.
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
Este estudo teve por objetivo compreender como a espiritualidade permeia o processo de cuidar de si e do outro no mundo da terapia intensiva, sob o olhar das cuidadoras de enfermagem. A pesquisa caracterizou-se por uma abordagem qualitativa do método criativo-sensível de Cabral, que guiou a produção e a análise das informações, seguindo as etapas de codificação, decodificação e recodificação ou aliança de saberes. Contou-se com a participação de nove cuidadoras de enfermagem, duas enfermeiras e sete técnicas de enfermagem, do Centro de Tratamento Intensivo (CTI) de um hospital universitário. Para a produção das informações, foram realizadas nove oficinas de arte e de experiências, sendo que a última destinou-se à validação da análise das informações. Nesse percurso, emergiram os seguintes temas: os significados de espiritualidade; a espiritualidade no cuidado de si e a espiritualidade no cuidado do outro. O primeiro tema exprimiu os significados de espiritualidade como propósito de vida, como conexão com uma Força Superior e com o Cosmo e como autoconhecimento. O segundo tema evidenciou que a espiritualidade no cuidado de si estava nas práticas cotidianas que aconteciam por meio da oração, do contato íntimo com a natureza, assim como no senso de conexão com uma Força Superior que propiciava tranqüilidade, bem-estar e fortalecimento à vida e ao trabalho das cuidadoras no CTI. As participantes demonstraram estar conscientes de si mesmas quando reconheceram que se fragilizavam com o mundo vivido e precisavam também de cuidado, que poderia se dar na ajuda mútua entre os cuidadores. O autoconhecimento revelou-se como uma prática essencial no cuidado de si para melhor cuidar do outro. E o terceiro tema desvelou que a espiritualidade no cuidado do outro partiu da fragmentação do cuidador e do cuidado intensivo para um caminho de reintegração do ser humano, capaz de transformar a cultura que inibiu e oprimiu o cuidado expressivo no CTI. A espiritualidade revelou-se nas práticas de cuidado que incluíam fé, imposição de mãos e oração, assim como foi algo que emergiu da interioridade humana para se manifestar na relação com outro no modo de ser do cuidador e se revelou no olhar, na atenção, no carinho, na amorosidade, no diálogo que tranqüilizava, na mão que dava conforto e segurança, na capacidade de escuta e de construir confiança em uma ambiência de cuidado para os envolvidos neste encontro.
Resumo:
A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.