626 resultados para incertezas
Resumo:
Sempre houve, na humanidade, incertezas quanto ao futuro. Por parte dos investidores, incertezas e riscos nos investimentos. Outros acreditam que os mercados financeiros operam de forma eficiente e, portanto, para reduzirem o risco e minimizarem as perdas tentam fazer regressão à média, ou seja, tomam decisões pensando que os fatos voltarão ao “normal”. Neste sentido, o presente trabalho procura discutir uma nova metodologia, proposta por Haugen (2000), e denominada de Modelo de Fator de Retorno Esperado, utilizando-se de variáveis fundamentalistas. Contudo, no dia-a-dia, os erros cometidos, a ambigüidade dos fatos e, principalmente, o poder das emoções humanas - “efeito manada”, podem rapidamente destruir um modelo. Os mercados são bem menos eficientes na prática do que quando se estudam ou se tenta aplicar as teorias. Por isso, os modelo aqui estudados, o Modelo de Fator do Retorno Esperado e, secundariamente, o Modelo de Precificação de Ativos(CAPM) e a Teoria de Preços por Arbitragem(APT), diferem muito entre si. Este trabalho teve como objetivo principal avaliar o desempenho do Modelo de Fator de Retorno Esperado. Assim, o trabalho mostrou que o Modelo de Fator de Retorno Esperado, ao ser utilizado na composição de carteiras de investimento, é eficiente. Carteiras montadas de acordo com este modelo superaram o desempenho do Índice principal do mercado acionário brasileiro. Pôde-se constatar que outras variáveis, além do beta, aqui denominadas de fundamentalistas, podem explicar a rentabilidade esperada de um ativo. São elas: Valor de Mercado (VM), Indicador de Preço/Lucro (PL), o índice Preço de Mercado/Valor Patrimonial (PV), o Retorno sobre o Patrimônio líquido (ROE), a Liquidez em Bolsa(Liq) e o Beta do Mercado (BETA).
Resumo:
A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.
Resumo:
Esta é uma investigação realizada no Colégio de Aplicação da Universidade Federal do Rio Grande do Sul - Brasil, sobre as tensões provocadas pela presença de um projeto de ensino interdisciplinar para 5as e 6as séries do Ensino Fundamental: O Projeto Amora. Propõe um olhar compreensivo sobre esta crise através de uma perspectiva teórico-metodológica alicerçada, principalmente, em Edgar Morin, Michel Maffesoli, Georges Balandier, Rodolfo Kusch e Humberto Maturana, procurando colocar em evidência, uma duplicidade antropológica de nossa cultura (o dever-ser e o estar) enquanto atitudes distintas mas co-existentes frente às incertezas e mudanças paradigmáticas de um mundo sempre em movimento e integração. A partir desta perspectiva, a investigação procura mostrar algumas das resistências geradas com a presença do Projeto Amora, que se revelam tanto nas relações humanas como epistemológicas. Ao mesmo tempo em que procura compreender e acolher estas resistências, a investigação as relativiza através da apresentação de algumas das potencialidades éticas e estéticas que o Projeto Amora sugere, vividas pelos seus alunos, alunas, professores e professoras. Para além de uma educação prioritariamente produtivista, individualista e de resultados, procurou-se mostrar as possibilidades de um novo estar na escola onde qualquer saber pode ser considerado, compartilhado e vivido em conjunto com o outro e de onde pode surgir uma ética compreensiva da convivência e da inteireza humanas.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
A tomada de decisão é fator crucial nas organizações. As informações para subsidiar estes processos decisórios é que permitem ao decisor minimizar as incertezas e decidir melhor. Para que estas informações estejam disponíveis, devem ser construídos Sistemas de Informações (SI) com base nas necessidades dos decisores, através da adequada definição dos requisitos de informações. Este trabalho tem como objetivo a validação externa da metodologia Análise Focada na Decisão (AFD), desenvolvida por Santos, Becker e Fisher (1998) e que tem por objetivo definir os requisitos de informações para o desenvolvimento de SI. Tem como foco da análise o processo decisório e é composta por fases seqüenciais de atividades de análise e de modelagem de sistema, resultando um modelo integrado de fluxo de dados, onde os objetos estão centrados nas classes de decisões. A aplicação da AFD foi realizada em um hospital regional filantrópico, através de estudo de caso, sendo o Prontuário do Paciente (PP) o elemento central de integração. O objetivo da aplicação da metodologia é a definição das informações essenciais do PP, tendo como classes de decisão os usuários representativos das áreas médica, de enfermagem e administrativa e o modelo integrado resultante é a base para a definição das informações essenciais do PP. Pode-se concluir que a AFD é uma metodologia adequada para a definição de requisitos de informações, uma vez que os resultados de sua aplicação foram extremamente satisfatórios, pois, além do alcance dos objetivos propostos, propiciou mudanças na empresa.
Resumo:
A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.
Resumo:
Empresas e instituições de ensino têm realizado investimentos significativos na implementação de programas de educação a distância (EAD) que utilizam a Internet como principal tecnologia de informação e comunicação. O atual cenário econômico, cultural e tecnológico favorece a criação de um mercado eletrônico da aprendizagem, justificando tais investimentos. A educação a distância aparenta mover-se em direção da Internet, mas o caminho é difícil por causa das muitas incertezas. Estas incertezas, juntamente com o grande número de variáveis envolvidas nos programas de EAD via Internet, dificultam, para os gestores, que se mantenha o foco nos pontos mais essenciais. Assim, o objetivo deste trabalho é identificar os fatores críticos de sucesso dos programas de educação a distância via Internet. Procura-se ainda, identificar os pontos importantes e os problemas mais críticos na gestão destes programas. Para isso, foram realizadas 9 entrevistas em profundidade com especialistas do assunto no Brasil. Posteriormente, a partir dos resultados destas entrevistas, foram realizados dois estudos de caso, com o programa Iniciando um Pequeno Grande Negócio, do SEBRAE, e com o Núcleo de Aprendizagem Virtual da Escola de Administração da UFRGS. O resultados da pesquisa apontaram a existência de seis fatores críticos de sucesso, ligados à capacitação e à experiência da equipe dos programas de EAD, ao grau de envolvimento dos membros da organização com os programas de EAD, ao conhecimento e à preocupação com as características e comportamento do estudante, ao modelo pedagógico, à tecnologia – em especial a infra-estrutura tecnológica e os softwares utilizados - e à realização de parcerias.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.
Resumo:
Esta dissertação traz como tema principal o planejamento da produção, com enfoque no planejamento agregado da produção. Tal planejamento de longo prazo é o elo entre a alta administração da empresa e a manufatura. Através dele, as metas estratégicas da empresa são comunicadas por meio de uma linguagem comum ao corpo tático/operacional, visando coordenar os esforços e buscar comprometimento para o alcance das metas. O desenvolvimento de um plano agregado de produção é concretizado através do uso de algoritmos de pesquisa operacional, visando otimizar o sistema, considerando-se os fatores restritivos. O planejamento agregado da produção definirá o grau de utilização dos recursos de produção e servirá de base para elaboração dos planejamentos de produção mais detalhados, que definirão como melhor utilizar os recursos disponibilizados num horizonte de planejamento mais curto e sob menores incertezas de mercado. Esta dissertação traz como aplicação prática a modelagem de um plano agregado de produção para uma agroindústria de grande porte e diversas plantas produtoras, no segmento de produtos suínos.
Avaliando questionários de risco e o comportamento do investidor sobre a ótica de behavioral finance
Resumo:
Tolerância ao risco é fundamental quando se tomam decisões financeiras. No entanto, a avaliação da tolerância ao risco tem se baseado ao longo dos anos em diferentes metodologias, tais como julgamentos heurísticos e a teoria da utilidade esperada que tem como base a hipótese dos mercados eficientes. Foi dentro desta ótica que este trabalho se desenvolveu. O objetivo é analisar três diferentes questionários de avaliação ao risco que são na prática amplamente utilizados por consultores financeiros. Foi assumido para isso que os investidores são considerados racionais, conhecem e ordenam de forma lógica suas preferências, buscam maximizar a "utilidade" de suas escolhas, e conseguem atribuir com precisão probabilidades aos eventos futuros, quando submetidos a escolhas que envolvam incertezas. No entanto, em uma análise preliminar dos questionários, estes poderiam estar utilizando conceitos de behavioral finance para avaliarem a tolerância ao risco, ao invés de utilizarem somente a metodologia tradicional da teoria da utilidade esperada. Dessa forma tornou-se necessário o estudo dos conceitos de behavioral finance. O primeiro capítulo então trata dos aspectos psicológicos do investidor, procurando entender como este se comporta e como este forma suas preferências. Apesar do estudo assumir racionalidade nas decisões, se a teoria de behavioral estiver correta e os investidores apresentarem desvios a racionalidade, como a teoria prospectiva afirma, o questionário poderia ser o veículo ideal para identificar tais desvios, sendo possível então educar e orientar o indivíduo em suas escolhas financeiras, afim de maximizá-las. O capitulo dois coloca a análise dos questionários inserida no contexto da teoria moderna de finanças, falando das escolhas de portfólio para investidores de longo prazo. O capítulo mostra de forma bem resumida e simplificada como o investidor maximiza a sua utilidade da riqueza. A idéia desse capítulo é entender como alguns julgamentos heurísticos assumidos na prática por consultores financeiros afetam as escolhas de portfólio e em quais condições esses julgamentos heurísticos são verdadeiros. Isso se torna importante pois os questionários mesclam medidas de risco com horizonte de investimentos do investidor. Estes questionários são utilizados para traçar uma política de investimentos completa para o investidor. Para cada perfil de risco encontrado a instituição traça um modelo de alocação de portfólio. O capítulo três trata da avaliação dos questionários em si tendo como base a teoria da utilidade esperada, os conceitos de behaviral finance e as lições tiradas das escolhas de portfólio para investidores de longo prazo.
Resumo:
Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.
Resumo:
Este trabalho tem como tema a juventude. Propõe-se discutir os processos educativos dos jovens da cidade de Santo Antônio da Patrulha, em grupos de música e religião. Tendo como foco dois jovens integrantes de uma banda de hardcore e duas jovens de um grupo da Pastoral da Juventude, procura analisar as experiências dos jovens no grupo, dando visibilidade aos processos educativos e as relações com outras instâncias sociais como a escola, família e trabalho. Significa discutir que existe um educativo para além do escolar. Diário de campo, observação, entrevistas individuais e coletivas foram estratégias importantes usadas na pesquisa. Autores como Alberto Melucci e Marília Sposito constituem as principais referências teóricas deste estudo. A investigação aponta que a imagem que esses jovens colocam em questão é a juventude vista como um tempo de quem não sabe ainda o que quer. Nesta aproximação, foi possível perceber que os conflitos e as incertezas existem entrelaçados com projetos de vida. Nutrem sonhos que expressam o desejo de serem tratados com mais respeito pelas opções que fazem. Denunciam o preconceito como um aspecto que os afasta de outros grupos, do mundo adulto e de uma participação mais ativa na cidade.
Resumo:
O tema central deste trabalho é a avaliação do valor da opção real de espera do investimento em uma Unidade Separadora de Propeno, em comparação com uma análise estática de Valor Presente Líquido. Para isso, foi exposta a teoria de opções reais, os processos estocásticos para a estimação das suas principais variáveis de incerteza (preço de produto e insumo), bem como a descrição das ferramentas de simulação a serem utilizadas. Com os instrumentos expostos, pretendemos demonstrar aos responsáveis por projetos de investimento que as incertezas podem ser medidas, levando a maior flexibilidade na tomada de decisões. Os resultados obtidos apontam para o exercício imediato da opção pela abordagem de ativos contingentes e resultados divergentes na análise de ativos contingentes em função do diferencial de preços, em função da taxa de dividendos adotada. A influência dos valores da volatilidade e da taxa de dividendos nos resultados também foi avaliada, levando à conclusão de que o primeiro gera impactos maiores no valor da opção do que o segundo.
Resumo:
O objetivo desse trabalho é estudar as variáveis econômicas que influenciaram o investimento das empresas brasileiras no período de 1990-01, para estudar a hipótese do Racionamento do Crédito como fator determinante na decisão de investimento nesse período. As teorias do investimento do ponto de vista macro e microeconômico indicam que vários fatores podem afetar o volume dos investimentos, como nível de atividade da economia, taxa de juros, perspectivas de lucros futuros e de retornos dos investimentos. Todavia as teorias também indicam que mesmo projetos que são viáveis economicamente não são levados a cabo por problemas informacionais, criando o Racionamento do Crédito. Os dados da pesquisa demonstrados nesse trabalho apontam os determinantes da decisão de investimento da empresa. Entre os principais determinantes estão os financiamentos para novos projetos, o mercado doméstico, a taxa de lucro, as incertezas, os custos dos tributos, o câmbio e a taxa de inflação doméstica. Os resultados indicam que a empresa pode ter sofrido o racionamento do crédito no período estudado.