34 resultados para Identificação estocástica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil é o segundo produtor mundial de soja [Glycine max (L.) Merr.] e o sétimo de óleo vegetal. A produção brasileira desta oleaginosa alcançou 61 milhões de toneladas na safra 2007/08 e projeta-se, para 2020, produção de 105 milhões de toneladas. O consumo de biodiesel em 2008 representou um milhão de toneladas e a demanda por este biocombustível deverá atingir 3,1 milhões de toneladas em 2020. Para atender esta demanda haverá ampliação da área plantada principalmente na região Centro-Oeste, mas também exigirá esforços no aumento de produtividade. Visando melhor conhecimento das inferências das variáveis climáticas temperatura e radiação global sobre o desenvolvimento da soja e sua produtividade de grãos e óleo, foi proposto um modelo estocástico com distribuição normal truncada para os dados de temperatura máxima, mínima e média. Também foi incluído neste modelo distribuição triangular assimétrica para determinação da produtividade de óleo mais provável. Foram estipuladas oito datas de semeadura para a localidade de Piracicaba/SP onde está localizada a estação meteorológica da ESALQ/USP, fornecedora dos dados climáticos utilizados neste estudo. Conclui-se que: (i) ao longo das datas de semeadura houve redução do ciclo com o aumento da temperatura média; (ii) a redução do ciclo da cultura de soja interferiu nas produtividades de grãos e de óleo; (iii) a radiação global média nos trinta dias após a antese refletiram-se na partição de fotoassimilados e na produtividade de grãos e óleo; (iv) os modelos estocásticos podem ser utilizados para a previsão das produtividades de soja e óleo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A falta de eficiência das organizações compromete no longo prazo o desenvolvimento de toda a economia. No caso do mercado de saúde ambiental, uma maior coordenação entre os programas públicos e privados aumentaria a universalização do serviço de controle de endemias para a sociedade. A falta do domínio da tecnologia (como produzir; como atender à preferência do consumidor; como obter ganho de escala; como coordenar e motivar os públicos envolvidos e como fortalecer as instituições de longo prazo) gera perdas de até 49% segundo esta estimativa. Para contribuir com a hipótese acima e para incentivar e promover a eficiência das empresas deste setor, este trabalho calcula a eficiência na prestação de serviço com o método de fronteira estocástica de produção com dados em painel (2005-2008) para a atividade de imunização e controle de pragas. A fronteira de produção retraiu-se neste período. As variáveis: idade da empresa, foco da formação do líder e meta de lucratividade mostram-se significativas para a eficiência da amostra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema estudado neste trabalho aborda a SIGNIFICAÇÃO DA RELAÇÃO PROFESSOR-ALUNO, tomando como referência teórica explicativa, os processos de IDENTIFICAÇÃO, IDENTIDADE e MATURIDADE. Admite-se que a relação estabelecida entre alunos e professores, no momento em que eles ingressam na Universidade, é caracterizada pelo binômio: IDENTIDADE PROFISSIONAL DO PROFESSOR - BUSCA DA IDENTIDADE PROFISSIONAL DO JOVEM UNIVERSITÁRIO. A IDENTIDADE PROFISSIONAL é definida, como a assunção de papéis profissionais que satisfaçam os aspectos dominantes da diferenciação. Assim, supõe-se que, a existência da complementariedade de papéis profissionais recíprocos, em termos da "dependência madura", deva orientar as relações estabelecidas entre professores e alunos. É propósito deste trabalho, analisar e descrever como está se processando tal relação. Para isto, usa-se de uma abordagem exploratória, tomando-se como sujeito da pesquisa, alunos e professores da área de Biociências da Universidade Federal de Pernambuco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação avalia o Prêmio Nacional da Qualidade (PNQ), cujo papel, segundo a entidade mantenedora, é nortear a Excelência em Gestão no Brasil. O estudo utiliza os textos do modelo de excelência PNQ 2011, que, aliado à revisão de literatura acadêmica sobre o tema, deu suporte ao estudo empírico aqui apresentado. Esta pesquisa baseia-se em tema, perspectiva e metodologia diferentes de estudos prévios encontrados na literatura científica, e contribui para a identificação de fatores chaves para a avaliação da excelência em gestão, um trabalho que exercita o Prêmio Nacional da Qualidade (PNQ), em uma abordagem estatística multivariada, com sugestão de novos conhecimentos acadêmico e executivo. Para as 409 organizações respondentes, entre outubro e novembro de 2011 e janeiro de 2012, 262 apresentaram questionários válidos. A amostra é semelhante à realidade econômica do Brasil em 2011, composta por: 30% do setor Industrial e 70% do setor de Serviços, igual à composição do Produto Interno Bruto (PIB), segundo o IBGE, além de contar com representantes dos 21 segmentos de atuação, conforme classificação da revista Exame. Como principal resultado, 67,5%% da avaliação da excelência em gestão no Brasil se aplica à seis fatores chaves: 1) indicadores de desempenho, 2) resposta ágil aos clientes, 3) estímulos internos para resultado e excelência, 4) mitigação de impactos negativos à sociedade, 5) equidade social da força de trabalho e 6) participação de mercado, baseado no PNQ 2011, avaliado pela análise fatorial exploratória.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mensalmente são publicados relatórios pelo Departamento de Agricultura dos Estados Unidos (USDA) onde são divulgados dados de condições das safras, oferta e demanda globais, nível dos estoques, que servem como referência para todos os participantes do mercado de commodities agrícolas. Esse mercado apresenta uma volatilidade acentuada no período de divulgação dos relatórios. Um modelo de volatilidade estocástica com saltos é utilizado para a dinâmica de preços de milho e de soja. Não existe um modelo ‘ideal’ para tal fim, cada um dos existentes têm suas vantagens e desvantagens. O modelo escolhido foi o de Oztukel e Wilmott (1998), que é um modelo de volatilidade estocástica empírica, incrementado com saltos determinísticos. Empiricamente foi demonstrado que um modelo de volatilidade estocástica pode ser bem ajustado ao mercado de commodities, e o processo de jump-diffusion pode representar bem os saltos que o mercado apresenta durante a divulgação dos relatórios. As opções de commodities agrícolas que são negociadas em bolsa são do tipo americanas, então alguns métodos disponíveis poderiam ser utilizados para precificar opções seguindo a dinâmica do modelo proposto. Dado que o modelo escolhido é um modelo multi-fatores, então o método apropriado para a precificação é o proposto por Longstaff e Schwartz (2001) chamado de Monte Carlo por mínimos quadrados (LSM). As opções precificadas pelo modelo são utilizadas em uma estratégia de hedge de uma posição física de milho e de soja, e a eficiência dessa estratégia é comparada com estratégias utilizando-se instrumentos disponíveis no mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo, por meio de uma pesquisa exploratória, descritiva e explicativa, buscou identificar os riscos associados ao processo de mudança na implantação de um novo modelo de gestão de operações denominado gerenciamento integrado de operações (GIOp), considerando novos processos e tecnologias na área de negócio de E&P da Petrobras. Utilizando como referência o modelo proposto por Kotter (1996), no qual identifica oito passos para a gestão de mudança em uma organização, e com base na aplicação do questionário proposto por Cohen (2005) denominado “The Change Readiness Assessment”, que permite aferir dentro dos oito passos onde estão localizados potenciais riscos e ameaças, este estudo apresenta reflexões sobre as percepções de quatro categorias de trabalho (executivos, gerentes, técnicos e equipe de projeto) da UO-ES, e de que forma impactam na prontidão para a mudança. O estudo trata também da importância do papel fundamental desempenhado por líderes neste processo, que asseguram o patrocínio necessário para a sustentabilidade do projeto. O resultado dos questionários demonstra uma percepção de risco considerável em todas as categorias. O único passo que não foi abrangido na área de risco é o senso de urgência (passo 1), que apresentou baixo risco. Como a mudança não se sustenta somente no passo 1, é importante que se reúnam os indivíduos, no sentido de buscar desenvolver uma avaliação compartilhada das questões relativas ao processo de mudança (problemas, oportunidades) entre os grupos envolvidos, objetivando um clima de confiança e de comunicação acerca do projeto, para assegurar que os resultados sejam atingidos. Nesse contexto, o sentido de urgência serve como força motriz para acelerar e dinamizar os passos seguintes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo do fenômeno cluster, nos últimos 30 anos, sob inúmeras qualificações, tem atraído atenção crescente tanto do meio acadêmico quanto dos responsáveis pelo desenvolvimento de políticas públicas. No entanto, seu ciclo de desenvolvimento ainda é um aspecto pouco explorado. A necessidade em se investigar e compreender o ciclo de desenvolvimento dos clusters é destacada por vários autores. Do ponto de vista das políticas públicas, a importância em se identificar o ciclo de evolução dos clusters, bem como cada um de seus estágios, reside na assertividade das ações por elas proporcionada. A tese é apresentada na forma de três artigos científicos. O primeiro busca determinar a natureza e as dimensões da noção de cluster pela exploração das bases teórico-conceituais de três áreas de conhecimento em que o conceito é mais comumente empregado: a geografia econômica, a administração estratégica e a administração de operações. Além de outras descobertas, os resultados proporcionam uma classificação dos temas de pesquisa ao redor do conceito, bem como das linhas teórico-conceituais que os sustentam. O segundo lida com a questão de como os clusters são identificados. Partindo de algumas limitações das estatísticas da economia regional, em especial do Quociente Locacional (QL), o autor propõe uma abordagem de aplicação conjunta dessas estatísticas com aquelas apresentadas pela Análise Exploratória de Dados Espaciais (AEDE). Os resultados mostram a complementariedade das abordagens, pois parte das limitações da primeira consegue ser resolvida pela segunda, mas, mais importante, conseguem revelar o valor proporcionado pelas estatísticas da AEDE acerca da dinâmica regional. Por fim, o terceiro e último artigo propõe um instrumento de avaliação do ciclo de desenvolvimento dos clusters envolvendo 6 dimensões e 11 elementos de avaliação. A partir dos potenciais clusters identificados no segundo artigo, o instrumento é aplicado sobre três deles. O resultado é a obtenção de uma abordagem simples, conceitualmente coerente, prática e de baixo custo de aplicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Identifica-se a gestão por processos como uma abordagem eficaz para alavancar os resultados da organização. Para que isso possa ocorrer porem é necessário modificar os processos de negócio existentes. Pessoas são o único elemento comum na gestão por processos e na mudança. Para realizar os benefícios pretendidos, a ação organizacional deve focalizar seus esforços na consecução do apoio das pessoas. A revisão bibliográfica identificou mais de uma centena de fatores de influência na mudança. Esses fatores foram classificados em 4 grupos, a saber: características do indivíduo – Tipo 1, características do indivíduo – Tipo 2, características da organização e fatores de influência. Somente os identificados como fatores de influência exercem um impacto direto sobre o indivíduo. Estes fatores foram reclassificados nos 15 atributos utilizados para realizar o estudo empírico. O primeiro estudo, qualitativo, selecionou dos 15 fatores de influência no indivíduo para a mudança, os 10 mais importantes. Com esses 10 fatores, foi realizada uma pesquisa quantitativa pela internet visando identificar a importância relativa destes. Foram utilizados dois métodos para estimar a importância de cada fator para cada respondente que participou do estudo: Adaptive Conjoint Analysis (ACA) e Ordenação. Utilizando-se o método estatístico Analise de Agrupamento, foram formados, por semelhança, de 2 a 10 grupos com as importâncias relativas resultantes. Esses agrupamentos foram posteriormente confrontados com as variáveis de controle e com o fato da mudança avaliada, ter sido ou não gerada por uma demanda de tecnologia da informação (TI). Nos grupos formados pelo método ACA, há indícios de que as variáveis de controle e o fator gerador da mudança impactam o comportamento dos indivíduos. Nos grupos formados pelo método ordenação, os indícios revelam que não há impacto nem das variáveis de controle (salvo poucas exceções), nem do fator gerador da mudança. No teste não paramétrico de Friedman e nas comparações múltiplas de Dunn-Bonferroni utilizados para priorizar as importâncias calculadas no método ACA, foram encontrados dois grupos distintos. Pelo método de ordenamento, o resultado da amostra mostrou três grupos com priorização distinta dos atributos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos desafios diários enfrentados nas diferentes empresas é avaliar com razoável precisão a dinâmica dos preços de seus ativos e passivos. Em muitos casos esses preços estão atrelados ao preço de commodities, devido a sua presença tanto como insumos produtivos quanto em derivativos financeiros. Nesse contexto o presente trabalho se propõe a avaliar um modelo de volatilidade estocástico através da aplicação de estratégias de trading. Desta forma busca-se comparar diferentes estratégias de negociação para avaliar o resultado financeiro obtido a partir da adoção do modelo proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tese aborda o processo de identificação das favelas e sua apropriação pelos movimentos de “trabalhadores favelados”. Em A Invenção das Favelas (2005), Valladares discutiu as favelas como uma representação e invenção social do século XX. Partindo desse marco analítico compartilhado e discutido por outros autores, construímos uma escala de comparação entre Rio de Janeiro e Belo Horizonte. Na primeira parte da tese, compreendemos essa representação como o resultado de um processo identificação. Como observou Noriel, em L’Identification (2006), o Estado moderno foi um dos maiores produtores de tecnologias de identificação, dispositivos de poder que visam conhecer, classificar e governar as populações num dado território. Investigamos como as práticas estatais no Rio de Janeiro e em Belo Horizonte constituíram representações das favelas, delineando um discurso e um dispositivo de poder sobre os territórios da pobreza através de legislações, censos e comissões de estudo. As analogias, particularidades e trocas instituídas no processo de identificação são analisadas, observando a formação de uma retórica da marginalidade social no âmbito do Estado, reproduzindo estigmas sociais, mas também gerando oportunidades para reivindicação de direitos. Nesse sentido, na segunda parte da tese, analisamos os movimentos dos “trabalhadores favelados”, organizados pela União dos Trabalhadores Favelados (UTF) no Rio de Janeiro e Federação dos Trabalhadores Favelados de Belo Horizonte (FTFBH). Compreendemos a forma como esses movimentos sociais organizaram repertórios de ação, apropriando-se da identificação das favelas para reivindicar direitos, mobilizaram-se eleitoralmente, vinculando-se a grupos de esquerda, e propuseram projetos de reforma urbana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.