997 resultados para softwares estatísticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

From a financial perspective, this dissertation analyzes the Brazilian mutual fund industry performance for an average retail client. The most representative funds for the local population, that are the fixed income open-end ones, will be selected and their performance will be measured aiming to answer if clients of this industry obtained a proper return over their investments in the period between August 2010 and August 2013. A proper return will be understood as the preservation of the purchasing power of the individual´s savings, what is achieved with a positive performance of a mutual fund after discounting taxes, administrative fees and inflation. After obtaining an answer for the previous question, this dissertation will explore a possible alternative solution: Tesouro Direto, that is an example of a financial approach that could foster the disintermediation between savings and investments through electronic channels. New electronic platforms, with a broader scope, could be utilized to increase the efficiency of funding productive investments through better remunerating Brazilian savings. Tesouro Direto may point towards a new paradigm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar se houve evolução nas práticas de governança corporativa entre os anos de 2005 a 2012 nas empresas brasileiras que abriram capital entre 2004 e 2006, e se esta evolução ocorreu no sentido de melhoria das práticas de governança. Busca-se também entender se esta evolução ocorreu continuamente em todo o período estudado ou se somente nos primeiros anos após seu IPO. Também busca-se compreender se a evolução ocorreu somente nos requisitos mandatórios por lei ou se houve uma real mudança de cultura nas empresas após abrirem seu capital. Para mensurar a qualidade das práticas de governança foi utilizado o Corporate Governance Index – CGI desenvolvido por Leal e Carvalhal-da-Silva (2007) para avaliar as práticas de governança em empresas brasileiras. O índice é composto de 24 questões binárias, e considera-se uma evolução nas práticas quanto mais o índice da empresa se aproxima dos 24 pontos. O índice foi calculado ano a ano para o período e empresas estudadas. Em seguida, o índice foi dividido em duas partes, questões diretamente relacionadas a leis e regulamentações e questões não diretamente relacionadas a leis e regulamentações. Utilizando os testes estatísticos T-student e W de Kendall, comprovou-se estatisticamente que houve evolução nas práticas de governança corporativa entre os anos de 2005 a 2012, entretanto, prova-se estatisticamente que esta melhora está concentrada no período de 2005 a 2008, sendo que não foi constatada uma alteração significativa nas práticas no período de 2009 a 2012. Identificou-se também que houve uma evolução positiva nas práticas de governança não diretamente relacionadas a leis e regulamentações entre os anos de 2005 a 2012, entretanto, quando retira-se deste teste as questões que foram indiretamente impactadas por mudanças nas instruções da CVM que ocorreram no período, encontra-se uma piora nas práticas de governança entre 2005 e 2012. Estes resultados sugerem que as empresas estão trabalhando em um movimento de “check the box” das boas práticas de governança, cumprindo o que é mandatório por lei e regulamentações, e questiona se as evoluções de leis, regulamentações e códigos de boas práticas de governança corporativa no Brasil estão cumprindo o seu objetivo final de desenvolver uma cultura de boa governança nas empresas brasileiras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O impacto da cultura na efetividade comparada de propaganda racional e emocional tem recebido significativa atenção acadêmica e empresarial, visto que diferentes culturas podem implicar em efetividades distintas de uma mesma comunicação. A relação entre efetividade de propaganda racional e emocional com cultura pode ser investigada sob duas perspectivas relacionadas, porém distintas: a homogeneidade e a favorabilidade. A primeira trata de qual tipo de propaganda apresenta resultados mais homogêneos apesar das diferenças culturais, enquanto a segunda de qual tipo de propaganda é mais favorável, dependendo da cultura em questão. Considerando essas duas perspectivas, a revisão teórica identificou três lacunas importantes de conhecimento. Primeiramente, existe uma aparente controvérsia entre autores sobre a efetividade de propaganda racional e emocional em diferentes culturas. Em segundo lugar, a questão cultural é tipicamente investigada tendo como unidade de análise fronteiras nacionais ou geopolíticas, e usualmente pesquisando uma única cidade por país comparado. Se uma heterogeneidade cultural dentro de um mesmo país seria suficiente para afetar a efetividade da propaganda racional e emocional é assunto pouco explorado. Por último, os estudos que buscam entender o efeito da cultura na efetividade de propaganda racional e emocional comumente não controlam outras possíveis variáveis moderadoras como, por exemplo, o tipo de produto. Tais lacunas levaram à proposta deste estudo, que foi estudar a efetividade comparada de propagandas racionais e emocionais de marcas em diferentes subculturas de um país. O objetivo geral dessa investigação foi medir e comparar a efetividade de propagandas racionais em relação às emocionais em diferentes subculturas Brasileiras. Para atingir tal objetivo, a estratégia de pesquisa foi realizar uma survey via Internet, com amostras de mesmo tamanho e homogêneas em termos de gênero, idade, escolaridade e classe social. As subculturas Brasileiras consideradas foram as regiões geográficas do país (Norte, Nordeste, Sul, Sudeste, Centro-Oeste), já identificadas em estudos científicos anteriores. Foram desenvolvidas duas propagandas impressas – uma predominantemente racional e outra predominantemente emocional – isolando outras possíveis influências na efetividade de propaganda racional e emocional, de forma que apenas a questão cultural foi testada. Tais propagandas foram expostas aos consumidores, que avaliaram a sua efetividade por meio de variáveis de efetividade de propaganda utilizadas em estudos anteriores sobre o tema. Os resultados estatísticos apontaram a propaganda emocional como mais homogênea que a racional, com diferenças absolutas modestas. Do ponto de vista da favorabilidade em cada subcultura, a propaganda racional mostrou-se estatisticamente mais efetiva nas subculturas Sul e Norte, com diferenças absolutas também de magnitudes relativamente pequenas. Não houve diferença de efetividade nas demais subculturas. Do ponto de vista das relações entre dimensões culturais e efetividade, os resultados indicaram que a propaganda racional é estatisticamente mais efetiva em culturas de maior distância do poder, mais masculinas e tanto em culturas mais individualistas como coletivistas. Não houve diferenças significantes nas demais dimensões culturais investigadas, de forma que a propaganda emocional não se mostrou mais efetiva que a racional em nenhuma dimensão. Esse estudo traz contribuições significativas teóricas, metodológicas e gerenciais. Do lado teórico, testou limites de proposições existentes, trouxe dados empíricos para tema atualmente controverso, na direção de reconciliar as proposições contraditórias atuais e adicionou conhecimento novo quantitativo sobre efetividade de propaganda no Brasil. Do ponto de vista metodológico, desenvolveu um método que melhor isola o efeito da cultura na efetividade de propaganda racional e emocional, de forma que estudos futuros sobre o tema poderão melhor medir o impacto real da cultura; contribuiu também ao ser o primeiro estudo a utilizar como amostra não uma cidade por subcultura, mas sim a subcultura de forma mais abrangente, o que possivelmente traz uma melhor representatividade dos resultados. Por último, gerencialmente os aprendizados do estudo podem auxiliar gestores de marcas a escolher que tipo de propaganda utilizer no Brasil, rentabilizando melhor o dinheiro investido nessa ferramenta de marketing. Para marcas com planos de mídias nacionais com objetivo de construir um posicionamento único no país, pode ser mais interessante utilizar uma propaganda emocional, que tem resultados mais homogêneos. Para marcas que não estão presentes em todas as regiões do Brasil ou que definem qual propaganda utilizar regionalmente, vale considerar que a propaganda racional se mostrou ser mais efetiva no Sul e no Norte, sendo que nas demais regiões não há evidências de diferença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa objetivou analisar e compreender, considerando os aspectos culturais da organização, como os servidores do Instituto de Criminalística percebem os riscos em seus ambientes interno e externo. A integração das dimensões investigadas (cultura, risco, percepção e gestão) a última sob um breve olhar fenomenológico, possibilitou desvelar até que ponto os valores da organização policial interferem na percepção dos riscos, adicionando uma contribuição às escassas publicações sobre o tema. Em busca da cultura da organização policial, uma incursão histórica esquadrinhou a linhagem da polícia e da Criminalística. No caminho metodológico, deparou-se com raras publicações sobre o tema, demandando um desenho específico para o estudo de caso, considerando o seu contexto atual, em caráter exploratório sobre o foco investigado. Uma abordagem qualitativa, acompanhada de dados estatísticos obtidos na própria instituição, favoreceu a compreensão do problema, envolvendo valores e riscos. Foram desenhadas planilhas ajustadas à realidade da unidade e orientadas aos gestores das seções internas e externas, configurando um mapa de risco do Instituto, resultando em um documento, sem precedentes, tipológico dos riscos na atividade pericial. Levantamento bibliográfico, documental, entrevistas e questionários, garantiram integridade à pesquisa. Em termos práticos, as identificações dos riscos (incluindo o mapa) e os esclarecimentos sobre a cultura, favorecerão, aos administradores, a programação de ações de gestão, visando à redução de instabilidades e tensões que contribuem para a ocorrência de acidentes e perdas no âmbito da criminalística. Concluiu-se, que a percepção e a própria gestão dos riscos são sensíveis às influências de valores culturais, exigindo dos gestores e administrados, em ação participativa, a construção de um ambiente redutor de instabilidades e tensões com a relevância do humano cuja essencialidade representou a senda de partida, de chegada e para retomada, na gestão organizacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe uma divergência nos estudos de mercados emergentes sobre a relação entre retorno e liquidez. Enquanto nos mercados desenvolvidos é consenso que o retorno cresce com a falta de liquidez, em mercados como o Brasil concorda-se com a sua influência, mas não é unânime o crescimento da rentabilidade diante da iliquidez. Assim, este estudo busca definir as variáveis que representam o conceito de liquidez e se elas possuem influência no retorno das ações brasileiras, além de entender se existe prêmio adicional por falta de liquidez. Para elucidar estas dúvidas foram analisadas 100 empresas pertencentes ao IBrX no período de 2003 a 2013, tendo como variáveis representativas de liquidez o spread, turnover, número de trades e volume financeiro. Os resultados estatísticos comprovaram a significância das variáveis, sendo as três primeiras negativamente correlacionadas e a última positivamente. Porém, ao contrário da literatura internacional, este trabalho não encontrou uma relação de retorno e liquidez crescente. Outro resultado encontrado foi que a influência da liquidez não se comporta de modo constante ao longo do tempo, o que pode ser uma das razões da diferença dos resultados da literatura nacional. Além disso, como a liquidez é um conceito multivariado e não mensurável diretamente, dependendo das variáveis de liquidez adotadas pode-se obter resultados distintos, conforme comprovado nos testes com o volume financeiro e as demais variáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho visa discutir os fatores que determinam a violência policial. Para tanto, são estudados os homicídios causados por policiais. A hipótese colocada é a de que há uma relação entre a orientação política dos Governadores dos Estados e a qualidade institucional das polícias e o número de homicídios causados anualmente por policiais em cada Estado. A base teórica visa definir um ciclo esquemático onde se relacionam os conceitos do monopólio do uso da força e a violência policial. A ideia é a de que esses dois conceitos são mantém uma relação de gênese e fonte de sustentação. No entanto, de forma a se aprofundar a discussão, são trabalhados conceitos intermediários que irão influir nessa relação, quais sejam, abordagem histórica, militarismo, direitos humanos, mandato policial, poder de polícia, relação entre polícia e sociedade e questões sociais. Como o estudo se foca em homicídios causados por policiais, é colocada como base do trabalho as polícias militares, por assumir-se que esse tipo de violência seja mais típico dessas corporações. Conforme é demonstrado na base teórica, as polícias civis tendem a recorrer à tortura quando extrapolam seus deveres legais. Para a pesquisa empírica são elaborados modelos estatísticos aos quais é aplicada a metodologia de dados em painel. Nos modelos são colocadas como variáveis independentes medidas de orientação política dos governadores de 20 Estados brasileiros e é analisado o período de 2003 a 2010. Para completar os modelos são controladas variáveis de sociodemográficas e são criadas duas variáveis para expressar a qualidade institucional das Polícias militares, sendo elas os anos de existência dos Cursos de Formação de Oficiais e anos médios de escolaridade das tropas. Como achado de pesquisa resta comprovado que são determinantes da violência policial: a orientação política do governador de Estado, a desigualdade de renda, o número de homicídios registrados e a escolaridade média da tropa da PM. Em seguida, para aprimorar a ideia da qualidade institucional, é elaborada uma comparação entre as Polícias Militares do Rio de Janeiro e de Minas Gerais, onde é aprofundado o tema levando-se em conta outras questões institucionais que vão além da formação dos policiais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Duas classes de modelos buscam explicar o padrão de ajustamento de preço das firmas: modelos tempo-dependente e estado-dependente. O objetivo deste trabalho é levantar algumas evidencias empíricas de modo a distinguir os modelos, ou seja, identificar de que maneira as firmas realmente precificam. Para isso, escolheu-se a grande desvalorização cambial de 1999 como principal ferramenta e ambiente de análise. A hipótese fundamental é que o choque cambial impacta significativamente o custo de algumas indústrias, em alguns casos induzindo-as a alterarem seus preço após o choque. A partir de uma imensa base de micro dados formada por preços que compõem o CPI, algumas estimações importantes como a probabilidade e a magnitude média das trocas foram levantadas. A magnitude é dada por uma média simples, enquanto a probabilidade é estimada pelo método da máxima verossimilhança. Os resultados indicam um comportamento de precificação similar ao proposto por modelos estado-dependente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é obter os parâmetros turbulentos para o crescimento da camada limite planetária (CLP), durante a realizaçãoo do experimento Olad (Overland along wind dispersion experiment), conduzido na transição da noite para o dia. Nesta hora a CLP exibe uma altura, geralmente, pequena, disponibilizando pouco volume para a dispersão dos poluentes. Assim, concentrações superficiais elevadas podem ocorrer, atacando materiais, plantas e a saúde da população. Logo, conhecer os parâmetros do crescimneto é de fundamental importância para o correto modelamento da dispersão atmosférica ao amanhecer. A validação dos parâmetros é realizada a partir da solução da equação da difusão-advecção bidimensional, pelo método da GILTT (Generalized Integral Laplace Transform Technique). São empregados coeficientes de difusão turbulenta (problema de fechamento) dependentes da estabilidade atmosférica. As concentrações superficiais tridimensionais são obtidas através do espalhamento lateral da pluma com distribuição gaussiana. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com os dados experimentais. O modelo proposto mostrou-se aceitável em relação aos dados do experimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo experimental sobre o desempenho de reforços de pavimentos asfálticos de uma via urbana com elevado volume de tráfego comercial pesado no município de São Paulo, monitorados durante quatro anos desde a mais recente restauração executada. A pesquisa envolveu o acompanhamento sistemático de seções pré-selecionadas na Avenida dos Bandeirantes, por meio de medidas de irregularidade longitudinal com um medidor tipo resposta bem como do trincamento superficial com o mapeamento e registros realizados em campo. A Avenida dos Bandeirantes é o principal corredor de interligação entre as vias localizadas no Oeste do Estado de São Paulo com o Porto de Santos, absorvendo 58% do total de veículos que passam pela Região Metropolitana, totalizando aproximadamente de 250.000 veículos/dia (em ambos os sentidos), sendo destes, cerca de 20.000 caminhões. Combase em dados levantados em campo e em projetos de restauração anteriormente realizadosforam desenvolvidos modelos empíricos de previsão de desempenho dos reforçosde pavimentos asfálticos,levando em consideração fatores relevantes para seu comportamento. Para isto, foram testados modelos lineares com diferentes estruturas de covariância e também modelos de regressão logística, que ao final mostraram-se mais conservadores que aqueles empregados na previsão de desempenho do programa HDM-4, para as condições do problema, no que tange à evolução do trincamento. No caso de previsão de irregularidade, observaram-se resultados similares entre os modelos desenvolvidos e aqueles preconizados pelo programa HDM-4. Fornecer suporte para decisões relacionadas à gerência de manutenção de pavimentos urbanos de grandes metrópoles e considerar modelos estatísticos ainda pouco utilizados para prever desempenho foram as principais contribuições buscadas durante a realização da pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dado a importância da gestão de risco associada às operações de crédito, modelos estatísticos que avaliam o risco de inadimplência tornaram-se fundamentais na mensuração do risco associado a um cliente. Neste contexto, foi desenvolvido um modelo dinâmico de crédito utilizando variáveis características dos clientes, comportamentais e macroeconômicas através da Análise de Sobrevivência aplicada a dados discretos. Os resultados obtidos indicam que a inclusão de variáveis macroeconômicas provoca um efeito significativo, porém baixo, no ajuste do modelo. Entretanto, nota-se uma melhora expressiva no poder de previsão da taxa de inadimplência do portfólio quando aplicado a um conjunto de dados de validação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game .