9 resultados para Process control - Statistical methods

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese avalia o impacto dos principais atores recorrentes durante o processo de IPO, em particular, o venture capitalist, o underwriter, e o auditor, sobre as condições de comercialização das ações da empresa, capturado pelo bid-ask spread, a fração de investidores institucionais que investem na empresa, a dispersão de capital, entre outros. Além disso, este estudo também analisa alguns benefícios que os fundos de Venture Capital (VCs) fornecem às empresas que eles investem. Ele investiga o papel dos VCs em dificultar o gerenciamento de resultados em IPOs e quantifica o papel desempenhado por eles no desempenho operacional das empresas após sua oferta inicial de ações. No primeiro capítulo, os resultados indicam que as empresas inflam seus resultados principalmente nos períodos pré-IPO e do IPO. Quando nós controlamos para os quatro períodos diferentes do IPO, observamos que IPOs de empresas investidas por VCs apresentam significativamente menos gerenciamento de resultados no IPO e em períodos seguintes à orfeta inicial das ações, exatamente quando as empresas tendem a inflar mais seus lucros. Este resultado é robusto a diferentes métodos estatísticos e diferentes metodologias usadas para avaliar o gerenciamento de resultados. Além disso, ao dividir a amostra entre IPOs de empresas investidas e não investidas por VCs, observa-se que ambos os grupos apresentam gerenciamento de resultados. Ambas as subamostras apresentam níveis de gerenciamento de resultados de forma mais intensa em diferentes fases ao redor do IPO. Finalmente, observamos também que top underwriters apresentam menores níveis de gerenciamento de resultados na subamostra das empresas investidas por VCs. No segundo capítulo, verificou-se que a escolha do auditor, dos VCs, e underwriter pode indicar escolhas de longo prazo da empresa. Nós apresentamos evidências que as características do underwriter, auditor, e VC têm um impacto sobre as características das empresas e seu desempenho no mercado. Além disso, estes efeitos são persistentes por quase uma década. As empresas que têm um top underwriter e um auditor big-N no momento do IPO têm características de mercado que permanecem ao longo dos próximos 8 anos. Essas características são representadas por um número maior de analistas seguindo a empresa, uma grande dispersão da propriedade através de investidores institucionais, e maior liquidez através um bid-ask spread menor. Elas também são menos propensas a saírem do mercado, bem como mais propensas à emissão de uma orferta secundária. Finalmente, empresas investidas por VCs são positivamente afetadas, quando consideramos todas as medidas de liquidez de mercado, desde a abertura de capital até quase uma década depois. Tais efeitos não são devido ao viés de sobrevivência. Estes resultados não dependem da bolha dot-com, ou seja, os nossos resultados são qualitativamente similares, uma vez que excluímos o período da bolha de 1999-2000. No último capítulo foi evidenciado que empresas investidas por VCs incorrem em um nível mais elevado de saldo em tesouraria do que as empresas não investidas. Este efeito é persistente por pelo menos 8 anos após o IPO. Mostramos também que empresas investidas por VCs estão associadas a um nível menor de alavancagem e cobertura de juros ao longo dos primeiros oito anos após o IPO. Finalmente, não temos evidências estatisticamente significantes entre VCs e a razão dividendo lucro. Estes resultados também são robustos a diversos métodos estatísticos e diferentes metodologias.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data available on continuos-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the use of Martingale Estimating Functions and the application of Generalized Method of Moments (GMM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data available on continuous-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the employment of Martingale Estimating Functions, and the application of Generalized Method of Moments (GMM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho aqui apresentado relata um estudo exploratório na área de Educação Técnico-Industrial de segundo grau, cujo objetivo consistiu em selecionar, dentre vários testes, os que fossem melhores preditores do aproveitamento acadêmico dentro da formarão profissional, para formar parte da bateria de testes que serão utilizadas na seleção dos candidatos aos cursos oferecidos pelo Colégio Técnico Nacional para a formação de técnicos de nível médio. o estudo em apreço, realizado mediante a colaboração entre o Departamento de Educação Técnica e o Departamento de Orientação Educacional e Vocacional, ambos do Ministério de Educa9ão e Cultura do Paraguai, é parte do projeto de expansão da orientação no nível de Formação Técnico-Industrial e Formação Profissional do qual um dos objetivos é controlar a qualidade da matricula a fim de evitar a evasão e favorecer o maior aproveitamento destes cursos oferecidos a este nível, o que será possível através da implantarão, em todos os Colégios desde tipo, de medidas de avaliação de aptidões e interesses para o desenvolvimento dos recursos humanos dos países em desenvolvimento. Partiu-se de uma análise minuciosa dos programas de estudo das matérias que compunham a bagagem de cada especialidade, com a finalidade de realizar uma lista de aptidões e traços que compõe a especificação profissional de cada especialidade. Foram experimentados 13 testes psicométricos, um de interesses ocupacionais e dois de personalidade. Dos quais após submetidos ao tratamento estadístico para conhecer sua precisão e validade em relação a um critério (o rendimento acadêmico nas matérias da especialidade) foram selecionados os seguintes testes: I N V de Pierre Weil, Raciocínio espacial Ribakow, Rapidez e exatidão no cálculo da bateria CEPA, Teste de Destreza Manual e Atenção distribuída e o Raciocínio Mecânico do DAT por ser os de melhor índice de precisão e validade (elevada correlação com as mate rias profissionais das especialidades). Este estudo se constitui no passo inicial para a elaboração de outros sistemas de seleção de matrícula baseados em provas pSicol6gicas, organizados pela Unidade de Psicometria e Psicologia Escolar de Dpto. de Orientação Educativa e Vocacional do M. E. C.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of 'pattern recognition'. Based on the results of this research, we explore a change of perspective. The idea of 'pattern recognition' presupposes that the processing of relevant information is on 'patterns' (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar se as principais mudanças ocorridas na forma de condução de um processo de gestão operacional de uma empresa pública de TI, quando da implantação de um novo modelo de suporte técnico aos usuários de seus produtos e serviços, proporcionaram uma alteração no paradigma de gestão existente. Em função do proposto, a diretriz adotada para a condução deste trabalho foi a de pesquisar as alterações relativas aos procedimentos de organização e gestão das atividades e não as inerentes à infra-estrutura técnica. Com este fim, foi utilizado como referencial teórico a literatura que aborda a evolução do processo de gestão da produção, notadamente aquele desenvolvido do final do século XIX até os dias atuais, tais como: o taylorismo, o fordismo e o pós-fordismo. Para estruturar a coleta de informações foram definidas as seguintes dimensões de análise: Conhecimento do Processo; Planejamento da Produção; Execução da Produção; Controle do Processo; Divisão do Trabalho; Trabalho em Equipe e Recursos Técnicos, representativas e aplicáveis a qualquer modelo, permitindo a comparação entre estes. Para levantamento dos dados foram utilizadas as documentações existentes na empresa, registros de bancos de dados, observações diretas, observações participantes e questionários, respondidos pelos gerentes responsáveis pela condução do processo. Uma vez concluída esta etapa e com o uso das dimensões de análise, foram identificadas as principais características dos dois paradigmas adotados: fordista e pós-fordista. Fez-se também a descrição destas dimensões de análise tendo por base os dados coletados sobre os modelos em estudo. Finalmente, houve a confrontação das informações para se identificar a qual paradigma cada modelo mais se assemelhava e se houve a mudança prevista. Os resultados obtidos comprovaram que o modelo anterior era mais próximo ao paradigma fordista, enquanto o novo modelo apresentava suas características predominantes identificadas com o paradigma pós-fordista. Com isto foi possível concluir que a pesquisa realizada comprovou o proposto neste trabalho, que o modelo adotado promove a mudança do paradigma de gestão existente no modelo anterior.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo trata das dificuldades que os professores de matemática encontram na sua prática diária de sala de aula, dificuldades estas que sempre existiram e parecem persistir apesar das tentativas de solucioná-las. O trabalho desenvolveu-se através de entrevistas, ob servações de aulas e reuniões de área. Os maiores problemas apontados foram: formação do professor, conteúdo programático, aprendizagem, avaliação e dificuldades dos alunos. Cada um destes itens foi aprofundado sempre que necessario. Procurou-se esclarecer todos e com isto encontrar caminhos. Após caracterizá-los, passou-se às dificuldades dos alunos; são enfocadas apenas as mais significativas, segundo os professores. Foi aplicado um teste onde muitas delas se confirmaram. Concluiu-se que a prática da matemática em nossas escolas continua ineficiente. O seu ensino não acompanha as necessidades da sociedade, os professores tendem a abandonar a profissão por causa dos baixos salários, os alunos são reprovados em massa e abandonam seus estudos, os livros apenas acrescentam ou retiram conteúdos, as escolas continuam formando alunos passivos e pouco criticos em relação à matemáti ca. Muitas tentativas ainda serão feitas mas nao se pode contar com a certeza do retorno porque o professor não é valorizado e nem ouvido quando se trata de apresentar propostas. Os poucos resultados positivos observados partiram deles que sempre procuram soluções práticas e não dispendiosas para resolver seus problemas. Finalizando o trabalho foram apresentadas sugestões dos professores e se acredita que muitas produzem resultado positivo em pouco tempo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O propósito deste estudo é compreender como os diferentes membros gerenciam o risco na cadeia de suprimentos global. Por meio de um estudo multicaso na cadeia de exportação da manga brasileira para os Estados Unidos foram investigados os elos fornecedor, exportador, operador logístico e importador. Foi desenvolvido um protocolo de pesquisa conforme sugestão de Yin (2010) e adaptação de instrumento de coleta de dados semi-estruturado de Christopher, et al. (2011). A partir de entrevistas com organizações de apoio ao objeto da pesquisa, foi selecionado a amostra de empresas nas quais o fenômeno de gestão do risco poderia ser melhor observado. Baseado nas classificações de tipo de risco elaboradas por Christopher et al. (2011), é sugerida uma nova organização das categorias de risco (demanda, suprimentos, processo e controle, ambiental e sustentabilidade). Este trabalho apresenta uma descrição da cadeia de exportação de manga, bem como os principais riscos e as estratégias mitigadoras de risco empregadas pelos quatro membros da cadeia estudados. Conforme regra de Sousa (2001), foram realizadas comparações entre os tipos de risco e estratégias mitigadoras observadas na cadeia de suprimentos. Por fim, o estudo mostrou que a gestão do risco é heterogenia entre os membros da cadeia, o exportador é o mais penalizado pela consequência de risco à cadeia e a colaboração é a principal forma observada de mitigação.