905 resultados para Probabilidade e Estatística Aplicadas
Resumo:
Este trabalho, baseado na teoria de Jean Piaget sobre o desenvolvimento do pensamento adolescente, visa continuar a mesma linha de investigação no que se refere à aquisição do conceito de probabilidade. O conceito de probabilidade na teoria piagetiana representando a intercepção do real e do possível, foi submetido, neste trabalho, a uma análise crítica e a um projeto de verificação experimental. Em termos teóricos, a crítica orientou-se para a relação entre os canais sensoriais receptores de informação e a organização do nível formal que permite elaborar relações de probabilidade. Importante papel foi atribuído ao estudo da manipulação - expressão direta da ação em seus níveis primordiais - como fator determinante de elaboração específica nas relações de probabilidade. Uma segunda vertente sociogênica do problema foi analisada em termos do nível sócio-econômico como fator que influencia o desenvolvimento do pensamento formal e especificamente a aquisição do conceito de probabilidade. Em termos de verificação experimental, constatou se a possibilidade de se definirem diversos estágios de desenvolvimento, chegando-se a classificar, de modo geral, os sujeitos em: aqueles que ainda não possuem habilidade de pensamento para solução de problema de probabilidade, aqueles que já apresentam tal habilidade, porém, são incapazes de generalização, e outros, em menor parte, que têm estabelecidas as estruturas operatórias do período lógico formal. Dentre estes grupos somente o último faz uso sistemático de estratégias corretas e corresponde aos sujeitos adolescentes do sexo masculino. Isto mostra que existe uma diferença nos resultados devido às diferenças sexuais a favor do sexo masculino e que a capacidade de lidar com relações probabilísticas se torna mais organizada e estruturada com o avanço da idade dos sujeitos. As variáveis ambientais exercem influência no rendimento do sujeito, os resultados variam de acordo com o meio socio econômico, favorecendo os de nível superior, isto é, permitindo-lhes um desenvolvimento normal.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Esta dissertação tem por objetivo primário encontrar uma métrica de risco para bancos elegível a ser uma componente específica em futuros modelos de custo de capital. Como objetivo secundário, este trabalho descreve um processo de modelagem passível de ser estendido a outros segmentos bancários. O conjunto de contribuições deste trabalho consiste na visão de aplicação, no objeto de estudo (bancos de pequeno e médio porte com baixa diversificação de produtos ou segmentos no sistema financeiro brasileiro) e na acessibilidade do processo de modelagem estruturado
Resumo:
O campo de investigação dos Estudos do Futuro é uma área de estudos ativa, promovida por organismos internacionais e universidades de vanguarda mundial. Dentre os diversos métodos e técnicas, até então desenvolvidos para estudar o futuro, destaca-se o método de construção de cenários prospectivos. Neste trabalho, se procura testar estes métodos ao estudo do futuro de uma cadeia produtiva agronegocial. A consideração desta, como objeto de aplicação de uma análise prospectiva, apresenta desafios peculiares, requerendo uma abordagem metodológica apropriada, que pode ser adaptada das ferramentas conhecidas. O exemplo considerado trata da cadeia da vitivinicultura riograndense. A análise documental e dos relatos de personalidades permitiu a elaboração de um panorama atual e retrospectivo, representativo dessa cadeia, útil para a construção de cenários prospectivos. Este estudo foi seguido de consultas a expertos, representantes de cada um dos elos da cadeia, para a identificação dos fatos do futuro, relativos às condicionantes do ambiente em que se insere o objeto. Foram arrolados cerca de setenta fatos do futuro, os quais foram submetidos à ponderação dos expertos. Nessa ponderação aplicaram-se critérios de seleção de incertezas críticas, previamente usados em cenarizações de futuro de objetos de outra natureza, distintos das cadeias produtivas. A utilização desses critérios indica a pertinência do emprego das ferramentas selecionadas para o estudo proposto. As incertezas críticas, assim arroladas, devem permitir a execução de um exercício completo de cenarização do futuro de uma cadeia produtiva agronegocial.
Resumo:
O objetivo deste estudo foi investigar o processo de corrosão no aço embutido nos concretos com relação a/agl 0,40; a/agl 0,50 e a/agl 0,70, com substituição parcial do cimento por 30% de cinza da casca de arroz (CCA), 25% ou 50% de cinza volante (CV), expresso por massa de cimento, obtendo-se concretos convencionais com resistência mecânica variando entre 17 e 51 MPa, aos 28 dias de idade. O processo de corrosão foi induzido pelos íons cloreto, por exposição aos ciclos de imersão em solução com 3,5% NaCl e secagem ao ar, durante um longo período de exposição (5 anos). Foram apresentados os resultados obtidos das propriedades físicas (resistência mecânica à compressão axial, índice de vazios e absorção de água) e propriedades elétricas (queda ôhmica, resistência e capacitância do concreto e interfacial). Foram discutidas as técnicas eletroquímicas usadas para avaliar o processo de corrosão, tais como o monitoramento do potencial de corrosão (Ecorr), resistência de polarização (Rp), espectroscopia de impedância eletroquímica (EIS) e curvas de polarização. A técnica de interrupção de corrente foi usada para obter-se informações sobre a queda ôhmica no sistema. No presente estudo foram utilizados diferentes métodos de determinação da velocidade de corrosão (icorr), tais como Rp e EIS. Ambas as técnicas foram relativamente adequadas para a determinação do valor da icorr, quando o aço se encontrava no estado de corrosão ativa. O valor da icorr obtida pela extrapolação das retas de Tafel (retas tangentes às curvas de polarização) tendeu ser mais baixo. Observou-se que a técnica de Rp é relativamente simples, rápida e quantitativa, mas requer a determinação da compensação da queda ôhmica no sistema, o qual pode variar com o tempo de exposição, conteúdo de umidade, teor de íons cloreto e com o grau de hidratação. A técnica EIS pode fornecer informações precisas sobre a icorr, processo de difusão envolvido, heterogeneidade ou porosidade da matriz e interfaces do concreto. Todavia, pode criar um espectro de difícil interpretação, além de consumir muito tempo para a aquisição dos resultados. A dificuldade na técnica EIS ficou também relacionada com a obtenção direta da resistência de transferência de carga (Rt) no diagrama de Nyquist. A evolução do processo de corrosão pode ser mais bem avaliada pelo acompanhamento da diminuição da inclinação da curva log |Z| x log ƒ no diagrama de Bode, sendo esta diretamente proporcional à Rt. Para a análise dos dados de impedância, um circuito equivalente foi proposto, auxiliando na interpretação física do processo de corrosão acontecendo no sistema aço-concreto sem pozolana. Os resultados obtidos também demonstraram que os concretos com mais baixa relação a/agl estudada e com pozolana (30% CCA, 25% CV ou 50% CV, por massa de cimento) foram mais eficientes no controle da iniciação do processo de corrosão, induzida por íons cloreto, quando monitorado pela medida do Ecorr.
Resumo:
Existe a necessidade da sustentação da produção vegetal no período de inverno no Rio Grande do Sul para a produção animal, e há duas espécies potenciais para isto, o trevo vermelho e a alfafa. No entanto, vários são os fatores que são necessários para a implantação destas culturas cujo custo, por ser elevado, deve ser justificado. O melhoramento genético vegetal é uma das áreas que pode contribuir na maior produção destas espécies principalmente de matéria seca e de produção de sementes. Especificamente, os índices de seleção que associam diversas características de interesse na seleção são ferramentas importantes. Desta forma, o objetivo deste trabalho é verificar a eficiência da utilização de diferentes metodologias de índices de seleção na escolha das melhores plantas cultivadas à campo. Os dados sobre características agronômicas de duas populações de trezentas plantas, uma de trevo vermelho (Trifolium pratense L.) e outra de alfafa (Medicago sativa L.) avaliadas a campo de forma individualizada, dispostas em seis blocos, com cinqüenta plantas em cada bloco, foram investigadas. Utilizou-se a análise de correlações residuais entre as variáveis analisadas, para se determinar quais seriam as características que seriam incluídas nos índices, eliminando-se uma de cada duas altamente correlacionadas. Foram construídos seis índices de seleção: o multiplicativo de Elston, o base de Baker, os base de Williams via componentes principais e via função discriminante canônica, um índice construído através da correlação canônica e o de soma de postos de Mulamba e Mock. Estudos de concordância, entre os diferentes índices, foram realizados através da correlação de Sperman. A concordância quanto às plantas selecionadas, pelos diferentes índices de seleção, foi procedida sob uma seleção de 20% das plantas. As metodologias de seleção de plantas individuais foram eficientes, na escolha de plantas promissoras, levando em consideração simultaneamente às várias características. Os índices de seleção apresentaram alta concordância em relação às plantas selecionadas.
Resumo:
Este trabalho apresenta o estudo, investigação e realização de experimentos práticos, empregados na resolução do problema de reconhecimento de regiões promotoras em organismos da família Mycoplasmataceae. A partir disso, é proposta uma metodologia para a solução deste problema baseada nas Redes Neurais Artificiais. Os promotores são considerados trechos de uma seqüência de DNA que antecedem um gene, podem ser tratados como marcadores de uma seqüência de letras que sinalizam a uma determinada enzima um ponto de ligação. A posição onde se situa o promotor antecede o ponto de início do processo de transcrição, onde uma seqüência de DNA é transformada em um RNA mensageiro e, este potencialmente, em uma proteína. As Redes Neurais Artificiais representam modelos computacionais, inspirados no funcionamento de neurônios biológicos, empregadas com sucesso como classificadores de padrões. O funcionamento básico das Redes Neurais está ligado ao ajuste de parâmetros que descrevem um modelo representacional. Uma revisão bibliográfica de trabalhos relacionados, que empregam a metodologia de Redes Neurais ao problema proposto, demonstrou a sua viabilidade. Entretanto, os dados relativos à família Mycoplasmataceae apresentam determinadas particularidades de difícil compreensão e caracterização, num espaço restrito de amostras comprovadas. Desta forma, esta tese relata vários experimentos desenvolvidos, que buscam estratégias para explorar o conteúdo de seqüências de DNA, relativas à presença de promotores. O texto apresenta a discussão de seis experimentos e a contribuição de cada um para consolidação de um framework que agrega soluções robustas consideradas adequadas à solução do problema em questão.
Resumo:
O objetivo desta pesquisa é fornecer informações que propiciem ao gestor de convênios, condição necessária para apresentar uma prestação de contas com maior probabilidade de aceitação por parte da FINEP. Foram pesquisadas as causas dos erros mais frequentes detectados na execução financeira dos projetos que impedem a aprovação da prestação de contas no momento da análise. A pesquisa foi realizada em duas etapas: pesquisa documental e tratamento dos dados. A primeira etapa foi qualitativa constando de coleta de dados e análise documental. O período analisado foi de 01/01/2013 a 30/11/2013, por serem as mais recentes, abrangendo convênios assinados entre 2001 e 2012. Nesta pesquisa foram considerados todos os convênios analisados no período acima referido, apoiados com recursos FNDCT para desenvolvimento de estudos e pesquisas, analisados pela FINEP, e com ao menos uma impropriedade. A pesquisa documental foi realizada no Departamento de Prestação de Contas de Convênio, Termos e Acordos de Cooperação - DPC1, responsável pelo acompanhamento da execução financeira dos convênios na FINEP. Cabe informar que foram analisados 2.476 convênios ao todo no ano de 2013, sendo 1.248 aprovados e 1.228 com alguma impropriedade. A segunda etapa da pesquisa foi quantitativa, e a técnica por saturação, utilizando estatística descritiva com análise exploratória dos dados. O tratamento dos dados foi realizado a partir da distribuição de frequência observada. Como resultado da pesquisa, observa-se que as dez impropriedades mais recorrentes correspondem a 90% de todas as impropriedades do período analisado. Diante disto, cabe a proposta de orientação ao convenente, através de um FAQ no site da FINEP, abordando assuntos afetos a convênios assinados com recursos FNDCT, de fácil entendimento e acesso.
Resumo:
Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.
Resumo:
Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.
Resumo:
O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.
Resumo:
O Governador do Rio Grande do Sul, Tarso Genro, foi recebido nesta sexta-feira (11) na sede da Diretoria de Análise de Políticas Públicas da Fundação Getúlio Vargas (FGV/DAPP) para uma reunião de avaliação de programas e tecnologias aplicadas no Estado. Participaram do encontro o Secretário-Geral do Governo, Vinicius Wu, o Diretor da FGV/DAPP, Marco Aurélio Ruediger, e os pesquisadores Ricardo Rotenberg, Pedro Lenhard e Amaro Grassi. Em junho, o governador Tarso Genro participou de reunião com o Presidente da FGV, Carlos Ivan Simonsen Leal.
Resumo:
O estudo desenvolvido tem como objetivo apresentar uma visão geral da relevância e das relações entre os temas responsabilidade social e gerenciamento de projetos. Apresentando a justificativa para a necessidade de se segregar os dois temas na gestão dos projetos de responsabilidade social, o estudo aborda não só a questão da implantação da responsabilidade social nas empresas, como também busca medir o nível de utilização de práticas em gerenciamento nos projetos de responsabilidade social em uma empresa brasileira. O trabalho apresenta os principais conceitos que abordam o tema Responsabilidade Social Corporativa, bem como, os conceitos que tratam o tema Gerenciamento de Projetos. Como o tema Responsabilidade Social Corporativa deixou de ser para as empresas apenas uma questão de filantropia, mas de gestão organizacional e estratégica, o presente trabalho direciona para o levantamento da relevância do tema e da necessidade de se aplicar conceitos e práticas em gerenciamento de projetos de responsabilidade social. A questão explorada no estudo de caso desenvolvido é quanto a empresa estudada utiliza das práticas e metodologias de gerenciamento de projetos aplicadas aos projetos de responsabilidade social. Visando avaliar o cenário das organizações brasileiras, o trabalho abordou um estudo de caso de uma organização brasileira que desenvolve diversos projetos em responsabilidade social e tem ações de responsabilidade social definidas em sua estratégia organizacional. O resultado obtido no estudo de caso demonstrou que embora a empresa tenha iniciado o processo de transferência de conhecimento e padronização de práticas de gerenciamento de projetos, a percepção dos gestores e o resultado da pesquisa refletiram que essas práticas devem ser amadurecidas no ambiente de projetos corporativos.
Resumo:
Esta tese teve por objetivo identificar os principais fatores de motivação de pessoas que trabalham em organizações públicas fortemente hierarquizadas, como as do Exército Brasileiro, preenchendo uma lacuna de conhecimento existente em pesquisas acadêmicas sobre o tema. Diferentes trabalhadores possuem diferentes fatores de motivação, fatores estes que liberam a motivação que está dentro dessas pessoas.Estudou-se dezoito teorias sobre motivação dentre as mais citadas no meio acadêmico. Estas teorias permitiram estruturar um roteiro de entrevistas que foi aplicado em trinta e três militares do Exército Brasileiro.Estas entrevistas foram submetidas à análise de conteúdo, o que permitiu a identificação dos principais fatores de motivação desses profissionais.Concluiu-se que os principais fatores de motivação das pessoas que trabalham em organizações fortemente hierarquizadas, em ordem de importância, são: 1) valorização, 2) fazer o que se gosta, 3) exemplo do chefe, 4) importância do que se faz, 5) realização, 6) confiança e 7) justiça. Os três primeiros fatores formam um primeiro grupo e os outros quatro fatores formam um segundo grupo. Essa divisão se fez necessária porque os fatores do primeiro grupo se revelaram muito mais fortes que os fatores do segundo grupo, havendo necessidade de destacá-los. Confirmou-se, também, que as teorias de motivação são perfeitamente aplicáveis às organizações públicas fortemente hierarquizadas e que estas teorias produzem alguns fatores de motivação específicos à realidade organizacionaldessas instituições. Após a análise do conteúdo das entrevistas, à luz das teorias de motivação, concluiu-se que há uma necessidade psicológica muito forte nas pessoas: a necessidadede se sentir valorizada. A motivação no contexto organizacional normalmente depende do relacionamento entre o gestor de pessoas, ou o líder e os seus liderados. A ação do líder é fundamental para despertar a motivação que já está dentro das pessoas. O foco das atenções do líder deve estar voltado para os liderados e não para si mesmo.Porque quando os liderados são fortes, o líder é forte e a organização obtém resultados surpreendentes. Por fim, conclui-se que a motivação das pessoas, nas organizações públicas fortemente hierarquizadas, como o Exército Brasileiro, é liberada quando a organização procura aplicar os sete principais fatores de motivação de pessoas revelados nesta tese.E acima de tudo, quando o líder cria condições para a satisfação da principal necessidade das pessoas: se sentir valorizadas.