18 resultados para Esperança condicional
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Neste trabalho fazemos um breve estudo de Álgebras de Operadores, mais especificamente Álgebras-C* e Álgebras de von Neumann. O objetivo é expor alguns resultados que seriam os análogos não-comutativos de teoremas em Teoria da Medida e Teoria Rrgódica. Inicialmente, enunciamos alguns resultados de Análise Funcional e Teoria Espectral, muitos destes sendo demonstrados, com ênfase especial aos que dizem respeito µas álgebras. Com isso, dispomos das ferramentas necessárias para falarmos de alguns tópicos da então chamada Teoria da Integração Não-Comutativa. Uma desigualdade tipo Jensen é provada e, com o teorema de Radon-Nikodym para funcionais normais positivos, construimos uma esperança condicional, provando que esta possui as mesmas propriedades da esperança condicional da Teoria das Probabilidades. Dada a Esperança Condicional, objeto este que faz parte do cenário atual de pesquisa na área de Álgebra de Operadores e que está relacionado com resultados fundamentais tal como o Índice de Jones, passamos à definição da Entropia de Connes-Stormer. Finalizamos o trabalho analisando esta entropia, que é a versão para as álgebras de von Neumann da entropia Kolmogorov-Sinai em Teoria Ergódica. Provamos algumas pro- priedades que são análogas às do conceito clássico de entropia e indicamos uma aplicação da mesma. O texto não possui resultados originais, trata-se apenas de uma releitura de artigos usando versões mais recentes de alguns teoremas.
Resumo:
A Festa dos Navegantes, em Porto Alegre, foi estudada, a partir da noção de ritual desenvolvida pela Antropologia. Para tanto, foi feita a observação sistemática e participanta acompanhada da análise das diversas etapas do ciclo ritual, que tem início na segunda semana de janeiro e término no dia 2 de fevereiro. A transformação da festa de uma manifestação de camadas elevadas e localizada em uma manifestação popular e regionalizada e, ainda, a utilização de símbolos da cultura dominante por grupos dominados como forma desses últimos se aproximarem das camadas superiores foram alguns dos elementos evidenciados ao longo da etnografia.
Resumo:
Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.
Resumo:
O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
O presente trabalho se propõe a ler os romances O Guarani, Iracema e Ubirajara, de José de Alencar, como um conjunto alegórico, coeso, que firma uma proposição de brasilidade, única dentro do nosso Romantismo. Buscam-se dentro do texto alencariano o percurso dos elementos que formam as alegorias da impossibilidade brasílica, que tornam a fundação da nação algo improvável, e seu processo identitário eterno e incompleto. Para tanto, centra-se a análise na impossibilidade de união dos pares opostos de heróis, fator que inviabiliza a junção de suas culturas, as quais poderiam se transformar em algo caracteristicamente brasileiro. Essa fusão não se efetiva porque uma série de códigos não é cumprida pelos partícipes das narrativas, o que causa a ruptura e a derrocada do sistema que poderia levar ao surgimento de uma nação. A perfeita confluência ocorre em Ubirajara, e se verá como isso se revela a culminância da proposta para uma mitologia brasílica, um modelo comportamental produtor de um efeito que, no caso d´O Guarani e de Iracema, não se realiza pelos erros dos personagens. Essa proposta de leitura considera, então, esse conjunto alegórico como mítico, e não histórico, mostrando que José de Alencar, sabedor da ainda nascente pátria, representou em sua ficção suas idéias sobre a brasilidade, ao invés de construir um “Brasil”. Ergue sua visão de algo nunca pronto, de uma busca constante, mantida pela nostalgia do que poderia ter-se sido e pela esperança de tornar-se o que não se é.
Resumo:
Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.
Resumo:
Frente ao crescente interesse e necessidade de buscar mais informações sobre a real relação do capital humano, nesse caso educação, com o crescimento econômico brasileiro, esta tese procurou examinar suas dinâmicas de inter-relação seguindo os modelos clássicos de abrangência na área, exógeno e endógeno. Dessa forma, apresenta-se, na primeira parte do trabalho uma resenha sobre os textos clássicos na área de estudo de crescimento econômico, exógeno e endógeno, que são os de MANKIW; ROMER e WEIL (1992), LUCAS (1988 e 1993) ROMER (1990) e KLENOW e RODRIGUEZ-CLARE (1997), focando na análise das diferentes formas de medir a variável capital humano (CH). Diferenças não faltam para medi-la, assim como formatos diferentes de expressar a mesma variável de representatividade de qualificação educacional. Este processo de análise tomou por base a proposta do ISCED-1997 elaborado pela UNESCO. Na segunda parte do trabalho buscou-se através de dois trabalhos (LAU et al., 1993; BENHABIB; SPIEGEL, 1994; ANDRADE, 1997) desenvolvidos para análise da economia brasileira, mais precisamente estadual, analisar e comparar, via crosssection e dados de painel, qual o efeito da escolaridade sobre o crescimento econômico nacional entre o período de 1970 e 2001. A terceira parte apresenta um segundo grupo de análises empíricas desenvolvido neste trabalho envolvendo a variável capital humano. Através do trabalho desenvolvido por SAB e SMITH (2001 e 2002), buscou analisar a convergência do capital humano no âmbito estadual (Brasil) através do processo da convergência condicional e não condicional. Concluiu-se que existe uma relação tênue entre as variáveis educação e crescimento econômico para os estados e o Brasil como um todo. Isso devido aos mais diversos fatores como qualidade dos dados, período analisado (tamanho da amostra), as diferentes medidas de capital humano, as diferenças de modelagem das variáveis. Sugere-se, portanto, que outras variáveis representativas inseridas nos modelos, em conjunto com a educação, podem mostrar resultados mais significativos para explicar o desenvolvimento econômico destas regiões e do país.
Resumo:
Este trabalho tem como tema a reforma agrária, entendida aqui enquanto uma política pública implementada pelo estado; e como objeto de reflexão um processo de assentamento que teve início na década de 1990, e dura até os dias de hoje. O assentamento 19 de Setembro fica em Guaíba, uma pequena cidade localizada nos arredores de Porto Alegre/RS. São vinte e cinco famílias de agricultores provenientes da região norte do estado, cujo ingresso nas mobilizações políticas do MST se deu no final dos anos oitenta, em um período de transição democrática. Desde o momento em que foram assentados, os agricultores passaram a ser alvo de um conjunto de projetos de “mudança social”, tendo como objetivo a concretização de ideais políticos diferenciados: de um lado o MST, com sua proposta de transformação do camponês em um trabalhador rural consciente dos seus interesses de classe; do outro lado, os agentes governamentais, com seus ideais de agroindústria e inserção do camponês no mercado mundial. Entretanto, a análise da experiência cooperativista implementada no 19 de Setembro demonstra que na prática, pelo menos na década de 1990, essas oposições não eram tão claras assim. Além disso, a análise da ruptura do projeto cooperativista revela o “sujeito oculto” da reforma agrária, aquele que não aparece na mídia, e que se constitui a partir de um projeto camponês: família, trabalho e terra. Diferente do que alguns estudos de caso têm apontado, a organização e o valor família, no caso aqui analisado, convivem perfeitamente com um imaginário político constituído simbolicamente na luta. A análise das narrativas dos assentados mostra que, ao invés de uma introjecção da resignação, os assentados constroem uma imagem de si positiva, tendo como elemento fundamental a simbologia épica do herói, que vence os obstáculos com fé, esperança e bravura.
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
As organizações têm investido recursos significativos no desenvolvimento de cursos baseados em ambientes virtuais de aprendizagem na Internet. Esta modalidade de educação a distância apresenta vantagens significativas, derivadas principalmente da grande flexibilidade de tempo, local e recursos que a caracteriza. É preciso considerar, entretanto, que a esperança de uma utilização ampla dos cursos na Internet depende de diversos fatores que influenciam a efetividade destes cursos, como o modelo de aprendizagem, a tecnologia, o conteúdo, os professores e o nível de interação. Mas a preocupação desta pesquisa está no comportamento do estudante e no seu impacto. Mais particularmente, ela tem por objetivo identificar a influência das diferenças individuais dos estudantes em relação às preferências por contato social e à auto-regulação dos recursos da aprendizagem na efetividade dos cursos desenvolvidos em ambientes virtuais de aprendizagem na Internet. Para isso, realizou-se um estudo de caso no Curso de Capacitação de Técnicos dos Núcleos de Tecnologia Educacional (NTE) das escolas da Região Sul do Brasil. Foram utilizadas seis fontes de coleta de dados: levantamento estruturado (Pesquisa Survey), observação direta, análise de registros e documentos, entrevistas abertas e entrevistas semi-estruturadas. A Pesquisa Survey foi, contudo, o meio de coleta de dados mais relevante. Para realizá-la, adaptou-se e validou-se ao contexto da pesquisa algumas escalas ligadas à auto-regulação dos recursos de aprendizagem (gestão do tempo, do ambiente, do esforço, do ambiente social e prorrogação da gratificação acadêmica) e às preferências por contato social (motivação ao contato social e preferência por solitude). No processo de validação, realizou-se um estudo piloto aplicando o questionário preliminar em 292 estudantes de graduação de universidades de Porto Alegre (em cursos presenciais). Na coleta definitiva dos dados no Curso de Capacitação de Técnicos do NTE, foram realizadas 28 entrevistas semi-estruturadas e aplicou-se o questionário com 104 estudantes do curso. A análise dos dados permitiu verificar a influência dos fatores anteriormente citados de auto-regulação e contato social na percepção (1) dos resultados, (2) da qualidade e (3) da satisfação com o curso, (4) na percepção de efetividade dos cursos na Internet em comparação com os cursos presenciais e (5) na percepção das vantagens e desvantagens dos cursos na Internet. Os resultados mostram que os estudantes que conseguiram auto-regular melhor o ambiente social, o tempo, o esforço e o ambiente de estudo, além de apresentarem uma maior necessidade de apoio emocional, perceberam uma maior efetividade e qualidade no Curso de Capacitação de Técnicos do NTE, além de ficarem mais satisfeitos Também se verificou que os estudantes que acreditam que em muitos aspectos os cursos na Internet podem ser mais efetivos do que os cursos presenciais, apresentam igualmente uma maior auto-regulação do tempo, do esforço, do ambiente social, além de uma maior tendência de prorrogação da gratificação acadêmica, uma necessidade relativamente grande de atenção e intermediária de estímulo positivo. Os resultados encontrados mostraram ainda que os estudantes que identificaram mais vantagens nos cursos via Internet foram também mais capazes na gestão do ambiente social, do tempo, do esforço, além de apresentarem uma maior tendência à prorrogação da gratificação acadêmica e uma relativamente alta necessidade de apoio emocional e estímulo positivo. Por fim, se identificou grupos de estudantes com perfis similares de preferência por contato social e de auto-regulação dos recursos de aprendizagem e a influência destes perfis na efetividade dos cursos desenvolvidos na Internet.
Resumo:
A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.
Resumo:
Pesquisa qualitativa, de caráter descritivo-exploratório, realizada em uma clínica de hemodiálise, no interior do Paraná. A coleta de dados ocorreu com pacientes que se encontravam em tratamento hemodialítico, no período entre setembro e novembro de 2003, totalizando quinze sujeitos. O objetivo consistiu em conhecer situações significativas para o paciente renal crônico vivenciadas no espaço de hemodiálise. A coleta de dados ocorreu por meio de entrevistas semi-estruturadas e o material foi submetido à análise de conteúdo. Quatro categorias principais apontam os resultados do estudo: início do tratamento; possibilidade de vida; estar com o(s) outro(s) e organização do ambiente físico. Nos relatos, sobressaíram dificuldades associadas ao processo de comunicação, sendo que a falta de informações e o desconhecimento de aspectos que envolvem o tratamento resultam em um fator de insatisfação, no cotidiano vivenciado na clínica. O tratamento hemodialítico é apreendido como uma possibilidade de continuar vivendo, mas esta condição é iluminada e sustentada pela esperança de acessar o transplante renal, como única forma de libertação do próprio tratamento. Ainda ficou patente a atribuição de importância à família, à relação com os demais usuários e com os membros da equipe de saúde, como forma de contribuir para o processo de recuperação e de adaptação, em meio às adversidades impostas pela doença, mas também àquelas requeridas pelo tratamento. Aspectos relacionados à apresentação e estética do ambiente, como limpeza, temperatura e conforto das instalações, emergiram nas falas como fatores que também interferem na satisfação dos pacientes, amenizando o sofrimento e colaborando para o enfrentamento de condições adversas a que estão submetidos.