937 resultados para Seleção dependente de frequência
Resumo:
Este trabalho investiga os fatores associados à segregação de alunos entre o Ensino Superior provido publicamente e aquele oferecido pelo setor privado. Com base em dados da Pesquisa Nacional por Amostra de Domicílios (PNAD/IBGE), são encontrados indícios de que um ano a mais de estudo da mãe do aluno afeta positivamente (0,3 ponto percentual) a probabilidade de o aluno ingressar na rede pública. Em relação à qualidade do Ensino Superior, representada pela nota agregada ao longo do curso da prova objetiva do componente específico do Exame Nacional de Desempenho dos Estudantes (Enade), são encontradas evidências de uma maior qualidade do bem ofertado publicamente em comparação à rede privada: alunos de instituições públicas apresentam nota agregada 6,17 pontos mais elevada. Usando o método de decomposição de Oaxaca-Blinder sobre a nota do Exame Nacional do Ensino Médio (Enem) do aluno ingressante, encontra-se que apenas um terço do diferencial de -0,61 pontos na nota entre os alunos da rede privada e os da pública pode ser explicado pelas variáveis observáveis utilizadas, enquanto dois terços do diferencial estariam associados a variáveis não-observáveis, como a habilidade inata do aluno. A nota do Enem, líquida das demais variáveis observáveis, estaria representando, portanto, as características intrínsecas do aluno, inclusive habilidade. Ao se usar esta nota do Enem líquida como variável explicativa na decomposição da nota do Enade de formação geral do ingressante, tem-se que mais de 90% do diferencial de notas entre as redes de ensino podem ser explicados pelas observáveis, e a nota do Enem líquida é o principal fator responsável por explicar este diferencial de notas.
Resumo:
Esta tese visa mensurar o efeito de variáveis, relativas à orientação para o mercado e às características do empreendedor, no tempo de sobrevivência de empresas constituídas no período de 1997 a 2007, originadas de incubadoras de empresas de Minas Gerais. Com o intuito de analisar tal efeito, foi elaborado um modelo de estudo que contempla quatro variáveis independentes, ‘orientação para o mercado - OPM’, ‘experiência prévia empresarial’, ‘background empresarial familiar’ e ‘formação em gestão’, e a variável dependente ‘longevidade’. Foi validada uma escala de OPM, modificada de Deshpandé e Farley (1988), a fim de aferir a intensidade de orientação para o mercado das empresas entrevistadas. Foram identificados, também, clusters de empresas, indicando que existem grupos bem distintos de organizações que se originam das incubadoras de Minas Gerais. Este estudo, além de fornecer um panorama do número de empresas constituídas em Minas Gerais no período de 1997 a 2007 por setor, também propõe contribuições para os órgãos de fomento e incubadoras que poderão destinar seus recursos e esforços de forma mais efetiva e eficaz, por meio da melhoria do processo de seleção de negócios, no qual poderão ser consideradas características do capital humano empreendedor que favorecem a longevidade dos novos negócios. Neste trabalho foram geradas contribuições teóricas relativas à longevidade de empresas start-ups e gerenciais relativas à possibilidade de melhoria dos critérios de seleção de novos negócios das incubadoras de empresas. Uma importante contribuição teórica foi a de que há indícios de que a presença de empreendedores sócios com experiência prévia e formação em gestão tenha mais influência na longevidade de empresas mais jovens do que em empresas mais maduras. Constatou-se, também, que as empresas que têm sócios com formação em gestão e com background empresarial familiar são mais propensas a possuir práticas de Orientação para o Mercado. Por fim, as variáveis relativas ao capital humano empreendedor têm diferentes intensidades de influência na longevidade das empresas, dependendo do tipo do grupo ao qual pertencem e, por isso, tanto as análises quanto as conclusões sobre as associações entre estas variáveis devem ser individualizadas por cluster e não tratadas generalizadamente.
Resumo:
Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.
Resumo:
Um dos grandes desafios atuais da política educacional brasileira é compreender as razões da chamada crise de audiência do ensino médio. Como alternativa à modalidade regular, jovens a partir dos 17 anos podem optar pela educação de jovens e adultos. Neste artigo, descrevemos os fatores associados às transições de entrada e saída do ensino regular e EJA, bem como de transferência dos estudantes entre as modalidades. Além disso, fornecemos evidências de que a EJA rivaliza com o ensino médio regular, incentivando alunos em idade correta para cursar o ensino médio a migrar para a educação de jovens e adultos.
Resumo:
Existe a necessidade da sustentação da produção vegetal no período de inverno no Rio Grande do Sul para a produção animal, e há duas espécies potenciais para isto, o trevo vermelho e a alfafa. No entanto, vários são os fatores que são necessários para a implantação destas culturas cujo custo, por ser elevado, deve ser justificado. O melhoramento genético vegetal é uma das áreas que pode contribuir na maior produção destas espécies principalmente de matéria seca e de produção de sementes. Especificamente, os índices de seleção que associam diversas características de interesse na seleção são ferramentas importantes. Desta forma, o objetivo deste trabalho é verificar a eficiência da utilização de diferentes metodologias de índices de seleção na escolha das melhores plantas cultivadas à campo. Os dados sobre características agronômicas de duas populações de trezentas plantas, uma de trevo vermelho (Trifolium pratense L.) e outra de alfafa (Medicago sativa L.) avaliadas a campo de forma individualizada, dispostas em seis blocos, com cinqüenta plantas em cada bloco, foram investigadas. Utilizou-se a análise de correlações residuais entre as variáveis analisadas, para se determinar quais seriam as características que seriam incluídas nos índices, eliminando-se uma de cada duas altamente correlacionadas. Foram construídos seis índices de seleção: o multiplicativo de Elston, o base de Baker, os base de Williams via componentes principais e via função discriminante canônica, um índice construído através da correlação canônica e o de soma de postos de Mulamba e Mock. Estudos de concordância, entre os diferentes índices, foram realizados através da correlação de Sperman. A concordância quanto às plantas selecionadas, pelos diferentes índices de seleção, foi procedida sob uma seleção de 20% das plantas. As metodologias de seleção de plantas individuais foram eficientes, na escolha de plantas promissoras, levando em consideração simultaneamente às várias características. Os índices de seleção apresentaram alta concordância em relação às plantas selecionadas.
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
Lourenço Filho discursa em atividades do Instituto de Seleção e Orientação Porfissional
Resumo:
Este artigo apresenta a utilização de Beta e variação de Beta dos ativos pertencentes ao Ibovespa como novos critérios para a construção de carteiras vencedoras e perdedoras em estratégias de momento. Os resultados mostram que as estratégias de momento, com base em critérios de maior ou menor Beta e de variação de Beta dos ativos pertencentes ao Ibovespa, geram retornos positivos ao longo de períodos subsequentes de 6 meses e 12 meses, porém apontam que estas estratégias, quando aplicadas e renovadas a cada mudança do principal índice bursátil brasileiro, apresentaram-se menos rentáveis do que as estratégias habituais baseadas no retorno total dos ativos no período entre 1995 a 2013.
Resumo:
O tema de sustentabilidade ambiental tem se tornado cada vez mais um interesse nos negócios e, com a consciência crescente de práticas ambientais, a gestão na cadeia de suprimentos e seus impactos deixam de ser um problema restrito ao poder governamental e entra para a agenda das empresas, trazendo responsabilidade a todos que, de forma direta ou indireta, geram resíduos. Com participação de 8,8% do PIB em 2009, as despesas com consumo de bens e serviços de saúde cresceu com relação ao ano de 2008, quando representou 8,3%. Contudo, o setor saúde se constitui um importante consumidor de insumos e recursos naturais, gerando impactos, tanto na prestação da assistência, quanto ao longo da cadeia de fornecedores de produtos e serviços gerando cerca de 200 mil toneladas de resíduos sólidos urbanos por dia, que representa entre 1% e 1,5% dos resíduos gerados por uma cidade ou comunidade. Apesar de o tema sustentabilidade estar em voga ultimamente e, de diversos estudos terem sido feitos sobre o tema, ainda existem poucos fundamentos sólidos da relação entre investimentos em práticas ambientais e aumento de competitividade, principalmente na área de saúde, que é foco deste estudo. O objetivo geral desta dissertação será, então, entender como as práticas ambientais de fornecedores médico hospitalares são percebidas pelas instituições de saúde, tornando-os preferencias. Para isso, serão realizadas entrevistas, com abordagem qualitativa e de caráter exploratório, com coleta de dados realizada através de questionário e entrevistas com 6 instituições de saúde de grande representatividade no cenário nacional. Assim, a questão de pesquisa deste trabalho é: de que forma práticas ambientais são consideradas na seleção e gestão de fornecedores médicos hospitalares.
Formação para a administração pública : seleção de candidatos ao curso superior de graduação da EBAP
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.
Resumo:
O trabalho tem como objetivo contribuir para um melhor entendimento do processo de aprendizado dos indivíduos e empresas. O interesse da pesquisa é o processo de Recrutamento e Seleção de pessoas, pilar da estratégia de Recursos Humanos. Foi realizado um estudo de casos múltiplos, por meio de uma abordagem processual de “como” se dá o aprendizado, utilizando-se de um framework teórico que permitiu a operacionalização da pesquisa. A partir da análise dos casos, foram identificados conhecimentos tácitos e explícitos que ajudam no processo de tomada de decisão, por meio da articulação e codificação destes conhecimentos. O trabalho ainda propõe uma discussão complementar das heurísticas das regras simples como aquilo que é aprendido na experiência em processos estratégicos
Resumo:
Partindo da constatação de que o Brasil acompanha hoje um fenômeno global de protagonismo das cortes supremas nas sociedades complexas contemporâneas, notadamente na criação de políticas-públicas e regulação, o estudo procura mapear a evolução – e progressiva democratização – de uma estrutura de freios e contrapesos prevista na Constituição da República Federativa do Brasil de 1988 (“Constituição”), qual seja, o processo de seleção dos ministros do Supremo Tribunal Federal. Ao longo do texto é analisada a arquitetura institucional e constitucional do processo de indicação e aprovação de novos ministros, bem como exemplificadas mudanças no perfil dos atores políticos, no plexo de competências das instituições envolvidas e no contexto social, político, econômico e cultural que forçaram a transformação prática do modelo de seleção institucional, sem alteração, no entanto, da formatação originalmente prevista desde o Século XIX. Mapeando a origem e evolução da fórmula constitucional de colaboração entre o Poder Executivo e o Poder Legislativo para a escolha dos membros da cúpula do Poder Judiciário, o estudo identifica a origem do modelo brasileiro na inspiração da experiência norte-americana, descrevendo esta e os paralelos possíveis com aquele. A partir do marco central da Constituição, o trabalho procura demonstrar uma progressiva mobilização de atores políticos e sociais em relação ao processo de escolha, notadamente em relação ao momento em que os indicados para o Supremo Tribunal Federal são sabatinados pela Comissão de Constituição, Justiça e Cidadania do Senado Federal. Finalmente, são analisadas concretamente as sabatinas e algumas das suas principais discussões, buscando extrair lições que sirvam de norte colaborativo para a evolução da forma de seleção dos ministros do Supremo Tribunal Federal, inclusive como instrumento de controle prévio de seus membros, futuros elaboradores de políticas-públicas.
Resumo:
As empresas de capital aberto, listadas em bolsa de valores, são naturalmente aquelas que vieram apresentando retornos superiores perante às demais empresas do seu setor. Assim, será que o viés de seleção desses ativos in uencia sigini cativamente no resultado do Equity Premium Puzzle, primordialmente lançado por Mehra and Prescott (1985)? É essa pergunta que este trabalho investiga e conclui que, sim, de fato pode haver uma in uência desse viés em explicar o Puzzle . Para isso, iremos gerar uma economia cujos ativos, por hipótese, sejam preci cados de acordo com o fator estocástico de desconto (SDF) baseado em consumo, ou seja, os modelos conhecidos como CCAPM (Consumption Capital Asset Pricing Model). Assim, essa economia será gerada via simulação de Monte Carlo, de forma que iremos construir um índice benchmark dessa economia, nos quais participariam apenas os ativos que foram historicamente mais rentáveis. Adota-se tal metodologia em paralelo à forma como os reais benchmarks são construidos (S&P 500, Nasdaq, Ibovespa), em que neles participam, basicamente, as empresas de capital aberta mais negociadas em Bolsa de Valores, que são, comumente, as empresas historicamente mais rentáveis da economia. Em sequência, iremos realizar a estimação via GMM (Generalized Method of Moments) de um dos parâmetros de interesse de uma economia CCAPM: o coe ciente de aversão relativa ao risco (CRRA). Finalmente, os resultados obtidos são comparados e analisados quanto ao viés de estimação.