998 resultados para Mercado financeiro - Modelos matemáticos - Brasil
Resumo:
As informações publicadas na mídia ajudam os investidores no processo decisório e consequentemente influenciam no mercado financeiro. O objetivo do presente trabalho é explorar o efeito da publicação de notícias no mercado financeiro. Para isso, o trabalho aborda variáveis de quantidade de notícias e o efeito semântico de cada uma delas, bem como sua relação com os índices de retorno, volatilidade e volume negociado do Ibovespa. As hipóteses da pesquisa são de que a quantidade de conteúdo publicado e o sentimento da informação podem ser preditores válidos para o nível de volatilidade, retorno e volume. Contudo, isso não implica que esses dados ajudam a prever o futuro, mas sim o presente. Os resultados encontrados evidenciam que a quantidade e conteúdo semântico das notícias não têm efeito significativo sobre o retorno, mas os aumentos da quantidade de notícias e da quantidade de notícias negativas sugerem o aumento da volatilidade e do volume negociado do Ibovespa. Além disso, o efeito das notícias é maior na volatilidade de acordo com o estado econômico, ou seja, o impacto de más notícias na expectativa dos investidores é maior em bons tempos que em maus tempos. Este trabalho também apresenta novas evidências para o efeito de acordo com o dia da semana. Isto é, a quantidade de notícias publicadas de sexta-feira a domingo está relacionada com a volatilidade e o volume negociado do Ibovespa.
Resumo:
A mobilização dos processos de negócio das grandes empresas permite um ganho de eficiência na condução dos negócios, por disponibilizar o acesso a sistemas corporativos à distância, em qualquer lugar e a qualquer hora. Aplicativos como automação de força de vendas, automação de técnico em campo, telemetria para setores como saúde, transporte logístico ou medição de energia elétrica são alguns exemplos do uso de soluções de mobilidade no mercado corporativo, através de uma rede de operadora móvel como meio de transmissão da informação sem fio. Os participantes envolvidos numa solução de mobilidade para atender as grandes empresas estão em um mercado de grande dinâmica tecnológica e ainda não é claro a melhor forma de atendimento a esta demanda. As empresas envolvidas numa solução de mobilidade podem ter benefícios se trabalharem em parcerias. Esta dissertação busca entender, do ponto de vista de uma operadora móvel, os desafios para a gestão em redes de soluções de mobilidade, como forma de alinhar os interesses do cliente, do desenvolvedor de aplicativos e da própria operadora. O método utilizado foi de pesquisa exploratória para identificar os desafios de gestão associados a este mercado. Para isto foram realizadas entrevistas em profundidade com responsáveis por uma operadora móvel, desenvolvedores de aplicativos móveis e cliente corporativo. Por fim, a dissertação utiliza conceitos teóricos de perspectiva de redes para analisar os desafios de gestão. O resultado da pesquisa busca analisar os desafios de prover soluções de mobilidade no mercado corporativo, a partir da perspectiva de uma operadora móvel. Concluiu-se que os principais desafios estão na definição da visão da rede, na adequação dos processos internos e na qualificação dos parceiros.
Resumo:
O aumento da complexidade do mercado financeiro tem sido relatado por Rajan (2005), Gorton (2008) e Haldane e May (2011) como um dos principais fatores responsáveis pelo incremento do risco sistêmico que culminou na crise financeira de 2007/08. O Bank for International Settlements (2013) aborda a questão da complexidade no contexto da regulação bancária e discute a comparabilidade da adequação de capital entre os bancos e entre jurisdições. No entanto, as definições dos conceitos de complexidade e de sistemas adaptativos complexos são suprimidas das principais discussões. Este artigo esclarece alguns conceitos relacionados às teorias da Complexidade, como se dá a emergência deste fenômeno, como os conceitos podem ser aplicados ao mercado financeiro. São discutidas duas ferramentas que podem ser utilizadas no contexto de sistemas adaptativos complexos: Agent Based Models (ABMs) e entropia e comparadas com ferramentas tradicionais. Concluímos que ainda que a linha de pesquisa da complexidade deixe lacunas, certamente esta contribui com a agenda de pesquisa econômica para se compreender os mecanismos que desencadeiam riscos sistêmicos, bem como adiciona ferramentas que possibilitam modelar agentes heterogêneos que interagem, de forma a permitir o surgimento de fenômenos emergentes no sistema. Hipóteses de pesquisa são sugeridas para aprofundamento posterior.
Resumo:
The reduction of standard weekly working hours from the curreilt leveI of 44 hours to 40 hours has recently been proposed by the main central unions as a way to create jobs and reduce unemployment in Brazil. The idea, known as work-sharing, is that the reduction in average hours per worker allows the same tasks to be performed bymore employees. However, the notion ofwork-sharing has been challenged by the theoretical and the empirical literature. Theory says that, in general, a reduction in the duration ofthe workweek tends to decrease employment. Work-sharing is even less likely in the case of no wage restraint, when monthly wages are not proportionally reduced. Recent cautious econometric evidence also conflict with the notion of work -sharing (Hunt, 1999, and Crépon and Kramarz, 2000). The objective ofthis paper is to study the effects ofthe workweek length reduction from 48 to 44 hours, prescribed by the 1988 Constitutional change, on the Brazilian labor market. We find that: i) the reduction of standard working hours was followed by a significant decrease in actual working hours: 60,7% ofthe employees that worked between 45 and 48 weekly hours in 1988 (the affected group) and that remained employed in 1989 switched to a 40-44 hours workweek; ii) belonging to the affected group in 1988 had no statistical effect on the probability ofbecoming unemployed, exiting the labor market, or switching to an informal job in 1989; iii) the reduction in working hours implied a 8,8% increase in hourly real wages with respect to those that remained employed at 40-44 hours a week. In sum, the reduction of standard working hours in 1988 reduced actual working hours, did not affect the probability ofa typical worker to lose hisjob in 1989, and implied a relative increase in hourly real wages.
Resumo:
Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.
Resumo:
Esta tese é composta por três artigos e uma nota, sendo um em cada capítulo. Todos os capítulos enquadram-se na área de Microeconomia Aplicada e Economia do Trabalho. O primeiro artigo estende o modelo tradicional de decomposição das flutuações na taxa de desemprego de Shimer (2012), separando o emprego formal do informal. Com essa modificação, os principais resultados da metodologia se alteram e conclui-se que os principais fatores para a queda do desemprego na última década foram (i) a queda na taxa de participação, principalmente pela menor entrada na força de trabalho; (ii) o aumento da formalização, atingido tanto pelo aumento da probabilidade de encontrar um trabalho formal quanto pela probabilidade de deixar a condição de empregado formal. O segundo capítulo apresenta estimativas para o retorno à educação no Brasil, utilizando uma nova metodologia que não necessita de variáveis de exclusão. A vantagem do método em relação a abordagens que utilizam variáveis instrumentais é a de permitir avaliar o retorno médio para todos os trabalhadores (e não somente os afetados pelos instrumentos) e em qualquer instante do tempo. Face aos resultados, concluímos as estimativas via MQO subestimam o retorno médio. Discute-se possíveis explicações para esse fenômeno. O terceiro artigo trata da terceirização da mão de obra no Brasil. Mais especificamente, mede-se o diferencial de salários entre os trabalhadores terceirizados e os contratados diretamente. Os resultados de uma comparação não condicional indicam que os terceirizados têm salário médio 17% menor no período 2007 a 2012. Porém, com estimativas que levam em conta o efeito fixo de cada trabalhador, esse diferencial cai para 3,0%. Além disso, o diferencial é bastante heterogêneo entre os tipos de serviços: aqueles que utilizam trabalhadores de baixa qualificação apresentam salário menores, enquanto nas ocupações de maior qualificação os terceirizados têm salários iguais ou maiores do que os diretamente contratados. Mais ainda, as evidencias apontam para a diminuição do diferencial ao longo do tempo no período analisado. Finalmente, a nota que encerra a tese documenta dois aspectos relevantes e pouco conhecidos da Pesquisa Mensal de Emprego do IBGE que podem levar a resultados imprecisos nas pesquisas que utilizam esse painel se não forem tratados adequadamente.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Foram ajustadas 7239 curvas de lactação de vacas Caracu, controladas semanalmente entre os anos de 1978 a 1988, pertencentes à Fazenda Chiqueirão, Poços de Caldas, MG. As funções utilizadas foram a linear hiperbólica (FLH), a quadrática logarítmica (FQL), a gama incompleta (FGI) e a polinomial inversa (FPI). Os parâmetros foram estimados por meio de regressões não lineares, usando-se processos iterativos. A verificação da qualidade do ajuste baseou-se no coeficiente de determinação ajustado (R²A), no teste de Durbin-Watson (DW) e nas médias e desvios-padrão estimados para os parâmetros e funções dos parâmetros dos modelos. Para a curva média, os R²A foram superiores a 0,90 para todas as funções. Bons ajustes, baseados nos R²A>0,80 foram obtidos, respectivamente, por 25,2%, 39,1%, 31,1% e 28,4% das lactações ajustadas pelas funções FLH, FQL, FGI e FPI. de acordo com o teste de DW, bons ajustes foram proporcionados para 29,4% das lactações ajustadas pela FLH, 54,9% pela FQL, 34,9% pela FGI e 29,6% pela FPI. Para ambos os critérios, a FQL foi superior às demais funções, indicando grande variação nas formas das curvas de lactação geradas pelos ajustes individuais. Curvas atípicas foram estimadas pelas funções, com picos ocorrendo antes do parto e algumas vezes após o término da lactação. Todas as funções apresentaram problemas quando ajustaram dados individuais.
Resumo:
O trabalho foi realizado com o objetivo de estimar a retenção de elementos minerais durante a gestação de cabras com um ou dois fetos, utilizando-se diferentes modelos matemáticos. A estimativa de retenção foi baseada na diferença entre o total de cada mineral depositado no feto, útero, membranas, fluídos fetais e glândula mamária dos animais nas diferentes etapas da gestação e o total de cada mineral armazenado nas cabras vazias, utilizando-se os modelos de predição: ln Y = A - B e -C X ; Y = A e B X e ln Y = A + Bx + Cx², em que x = tempo de gestação. Comparando-se a estimativa com os valores reais obtidos, verificou-se que o modelo proposto ln = A+Bx+Cx², explicou com coerência e precisão o comportamento biológico da retenção de minerais durante todas as fases da gestação.
Resumo:
O objetivo neste estudo foi avaliar diferentes modelos ajustados às respostas de ganho de peso obtidas em experimento com aves da linhagem ISA Label no período de 1 a 28 dias de idade. Foram utilizados 480 pintos de ambos os sexos, distribuídos em delineamento inteiramente casualizado, em arranjo fatorial 4 X 2 (níveis de lisina X sexo), com três repetições, com 20 aves por unidade experimental. Uma ração basal foi formulada para atender às exigências das aves, exceto em lisina. Essa ração foi suplementada com L-lisina HCl em substituição ao ácido L-glutâmico, resultando em rações experimentais isonitrogênicas e isoenergéticas contendo 0,85; 0,97; 1,09 e 1,21% de lisina digestível. As respostas de ganho de peso foram ajustadas de acordo com os níveis de lisina da ração pelos modelos Linear Reponse Plateau (LRP), segmentado de duas inclinações, polinomial quadrático e exponencial. A primeira intersecção da equação quadrática com o platô do LRP também foi utilizado para estimar o nível ótimo. Os níveis de lisina digestível estimados pelos modelos LRP, segmentado e quadrático, foram 0,999; 1,010 e 1,116%, respectivamente. Na combinação do modelo quadrático com o LRP, a estimativa da exigência de lisina digestível foi de 1,041%. O modelo exponencial proporcionou estimativa de 1,066%, considerando 95% da resposta assintótica. Com base nos custos com alimentação, esse mesmo modelo gerou estimativas de 1,000 e 1,030% quando o custo do quilograma de L-lisina HCl foi R$ 8,50 e R$ 6,50, respectivamente. Considerando as limitações de cada um dos modelos propostos, o procedimento para estimar as exigências de lisina digestível pela primeira intersecção da equação quadrática com o platô do LRP foi o mais adequado para melhorar o ganho de peso das aves quando variáveis econômicas não foram consideradas.
Resumo:
A utilização de funções matemáticas para descrever o crescimento animal é antiga. Elas permitem resumir informações em alguns pontos estratégicos do desenvolvimento ponderal e descrever a evolução do peso em função da idade do animal. Também é possível comparar taxas de crescimento de diferentes indivíduos em estados fisiológicos equivalentes. Os modelos de curvas de crescimento mais utilizados na avicultura são os derivados da função Richards, pois apresentam parâmetros que possibilitam interpretação biológica e portanto podem fornecer subsídios para seleção de uma determinada forma da curva de crescimento em aves. Também pode-se utilizar polinômios segmentados para descrever as mudanças de tendência da curva de crescimento animal. Entretanto, existem importantes fatores de variação para os parâmetros das curvas, como a espécie, o sistema de criação, o sexo e suas interações. A adequação dos modelos pode ser verificada pelos valores do coeficiente de determinação (R2), do quadrado médio do resíduo (QM res), do erro de predição médio (EPm), da facilidade de convergência dos dados e pela possibilidade de interpretação biológica dos parâmetros. Estudos envolvendo modelagem e descrição da curva de crescimento e seus componentes são amplamente discutidos na literatura. Porém, programas de seleção que visem a progressos genéticos para a forma da curva não são mencionados. A importância da avaliação dos parâmetros dos modelos de curvas de crescimento é ainda mais relevante já que os maiores ganhos genéticos para peso estão relacionados com seleção para pesos em idades próximas ao ponto de inflexão. A seleção para precocidade pode ser auxiliada com base nos parâmetros do modelo associados à variáveis que descrevem esta característica genética dos animais. Esses parâmetros estão relacionados a importantes características produtivas e reprodutivas e apresentam magnitudes diferentes, de acordo com a espécie, o sexo e o modelo utilizados na avaliação. Outra metodologia utilizada são os modelos de regressão aleatória, permitindo mudanças graduais nas covariâncias entre idades ao longo do tempo e predizendo variâncias e covariâncias em pontos contidos ao longo da trajetória estudada. A utilização de modelos de regressões aleatórias traz como vantagem a separação da variação da curva de crescimento fenotípica em seus diferentes efeitos genético aditivo e de ambiente permanente individual, mediante a determinação dos coeficientes de regressão aleatórios para esses diferentes efeitos. Além disto, não há necessidade de utilizar fatores de ajuste para a idade. Esta revisão teve por objetivos levantar os principais modelos matemáticos frequentistas utilizados no estudo de curvas de crescimento de aves, com maior ênfase nos empregados com a finalidade de estimar parâmetros genéticos e fenotípicos.
Resumo:
Nos últimos anos houve uma contribuição significativa dos físicos para a construção de um tipo de modelo baseado em agentes que busca reproduzir, em simulação computacional, o comportamento do mercado financeiro. Esse modelo, chamado Jogo da Minoria consiste de um grupo de agentes que vão ao mercado comprar ou vender ativos. Eles tomam decisões com base em estratégias e, por meio delas, os agentes estabelecem um intrincado jogo de competição e coordenação pela distribuição da riqueza. O modelo tem demonstrado resultados bastante ricos e surpreendentes, tanto na dinâmica do sistema como na capacidade de reproduzir características estatísticas e comportamentais do mercado financeiro. Neste artigo, são apresentadas a estrutura e a dinâmica do Jogo da Minoria, bem como as contribuições recentes relacionadas ao Jogo da Minoria denominado de Grande Canônico, que é um modelo mais bem ajustado às características do mercado financeiro e reproduz as regularidades estatísticas do preço dos ativos chamadas fatos estilizados.
Resumo:
The purpose of this study was to identify and quantify the magnitude of the slow component of VO2 (SC) in children during running exercise, performed at heavy intensity domain (75%Δ), using two different mathematical models: a) three-exponential model and; b) ΔVO2 6-3 min. Eight healthy male children (11.92 ± 0.63 years; 44.06 ± 13.01 kg; 146.63 ± 7.25 cm; and sexual maturity levels 1 and 2), not trained, performed in different days the following tests: 1) incremental running treadmill test to determine the peak oxygen uptake (VO2peak) and the lactate threshold (LT); and 2) two transitions from baseline to 75%Δ [75%Δ = LT + 0.75 x (VO2 peak - LT)] for six minutes on treadmill. The SC was determined by two models: a) three-exponential model (Exp3); and b) the VO2 difference between the sixth and the third exercise minute (ΔVO2 6-3min). The SC was expressed as the absolute (ml/min) and percent contribution (%) to the total change in VO 2. The SC values determined by model Exp3 (129.69 ± 75.71 ml/min and 8.4 ± 2.92%) and ΔVO2 6-3 min (68.69 ± 102.54 ml/min and 3.6 ± 7.34%) were significantly different. So, the SC values in children during running exercise performed at heavy intensity domain (75%Δ) are dependent of the analysis model (Exp3 x ΔVO2 6-3 min).