998 resultados para Modelos de dados de contagem
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
Este estudo visa contribuir para um maior entendimento de um fenômeno atual que atinge a indústria de aparelhos celulares. Ao que se percebe, as forças que regem a indústria têm se modificado nos últimos anos, favorecendo estruturas desverticalizadas. Tal fenômeno pode vir a mudar toda cadeia de valor num futuro próximo, favorecendo a entrada de novas empresas, ao mesmo tempo que criando desafios aos tradicionais participantes desse mercado. O trabalho procura identificar as relações causais entre verticalização e competitividade para a indústria de aparelhos celulares no Brasil. Para tanto, foram analisados dois casos contrastantes: o de modelo tradicional (Motorola); e outro de modelo inovador em sua concepção da cadeia de valor (Gradiente). Através do estabelecimento de pressupostos teóricos, foi adotada a técnica de adequação ao padrão de variáveis dependentes. A coleta de dados foi extensa, incluindo entrevistas com representantes-chave da indústria, questionários estruturados, análise de documentos e observação participante. Em função da análise das variáveis externas, criaram-se os fundamentos para se perceber como as forças podem favorecer, ou não, a verticalização. Tal análise foi feita utilizando-se as teorias de amadurecimento da indústria, verticalização e cinco forças da indústria. Em seguida, foi feito um mapeamento da cadeia de valor do setor no Brasil, utilizando os conceitos de cadeia de valor, para se definir o modelo de negócio de cada um dos casos analisados. Por fim, foram analisadas as estratégias de cada um dos modelos de negócio para se perceber qual das estratégias seria mais adequada ao momento que a indústria vive, bem como das restrições criadas pela indústria no momento, no mercado brasileiro. Nesse ponto, foram utilizadas como referência as teorias de estratégias genéricas, RBV, cadeia de fornecedores, disruptura e objetivos de desempenho em operações. O setor passa por mudanças significativas que podem alterar completamente as regras anteriormente estabelecidas. Algumas das evidências encontradas foram o amadurecimento do mercado que se aproxima, a difusão de tecnologia proprietária, a modularização das arquiteturas de produto, a baixa especificidade dos ativos, a possibilidade de compra de escala de terceiros, a diminuição dos custos de coordenação - promovida pela massificação dos meios de comunicação modernos -, surgimento de players de nicho, comoditização de uma grande parte dos segmentos de mercado, barreiras de entrada baixas para novos competidores e poderosos compradores que têm interesse no fomento de novos fornecedores.
Resumo:
O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.
Resumo:
A determinação e a mensuração da importância das principais fontes de vantagem competitiva, ainda é um tema em discussão na área de Estratégia. Uma linha de pesquisa, iniciada em meados dos anos 80, tem seu foco principal na determinação e quantificação da importância dos fatores que poderiam explicar as diferenças no desempenho de um grupo de empresas, utilizando a decomposição da variância dos valores do desempenho através das técnicas de Regressão Linear ou de Componentes de Variância. Nesta linha de pesquisa, desenvolveram-se uma série de trabalhos empíricos cujo propósito principal é quantificar, entre outros fatores, qual a importância do setor industrial em que a empresa atua, qual a importância do ano, qual a importância de se fazer parte de um grupo econômico e qual a importância dos fatores idiossincráticos da empresa na explicação do desempenho apresentado em determinados períodos. Dos resultados destes trabalhos surgiram discussões importantes sobre o papel da estratégia corporativa e sobre a importância relativa de tais fatores na determinação da vantagem competitiva. Este trabalho se insere nesta linha de pesquisa, cujo objetivo é, utilizando uma base de dados brasileira muito mais abrangente e completa que os estudos anteriores, quer nacionais e internacionais, primeiramente verificar se a realidade apontada nos estudos internacionais se assemelha à do Brasil. Em segundo lugar, contribuir com um refinamento teórico, refazendo estas análises utilizando modelos lineares mistos, mais apropriados para estes conjuntos de dados, que os modelos de componentes de variância. Em terceiro lugar, utilizando dois tipos de matriz de covariância, verifica se o desempenho de um determinado ano influi no desempenho dos anos imediatamente subseqüentes, verificando, assim, a possível existência de medidas repetidas para a variável ano. Finalmente, analisa se parte da variabilidade do desempenho das empresas brasileiras pode ser atribuído ao fato da empresa se localizar em determinada Unidade da Federação
Resumo:
Com o objetivo de realizar consultas em diferentes fontes XML,é necessário que se escreva uma consulta específica para cada fonte XML. Uma solução mais adequada é fazer uma única consulta sobre um esquema conceitual e então traduzi-la automaticamente para consultas XML para cada fonte XML específica. CXPath é uma linguagem de consulta que foi proposta para consultar dados em nıvel conceitual. Este trabalho tem como objetivos formalizar a linguagem existente, estendê-la para permitir consultas que utilizem o conceito de herança e estender o mecanismo de tradução de consultas. A formalização da linguagem é feita por meio de um conjunto de regras que definem formalmente um critério para validar uma consulta escrita nessa linguagem sobre um esquema conceitual. Essa formalização permite estender a linguagem para que ela passe a tratar os relacionamentos de herança e especialização. Outra contribuição dessa formalização é que ela apresenta o primeiro passo rumo à verificação formal de que a avaliação da consulta global traz os mesmos resultados obtidos pela avaliação da consulta resultante do processo de mapeamento de consultas proposto. A extensão do mecanismo de tradução de consultas é necessária para traduzir relacionamentos representados no modelo conceitual para junções nas fontes de dados XML. Tal aspecto é fundamental para permitir a construção de modelos conceituais com relacionamentos semânticos e que não dependam de relacionamentos físicos existentes nos documentos fontes, mas apenas de junções tal como é feito em bases de dados relacionais.
Resumo:
Estudo que sistematiza e compara os resultados apresentados por diferentes modelos de gestão hospitalar pública do Estado de São Paulo, durante o período de 2000 a 2001, quando a rede era composta por mais de 60 hospitais públicos. Por meio de uma extensa revisão bibliográfica foi traçado um panorama ao longo das últimas décadas, no que tange à Reforma do Estado, e as transformações que o Estado sofreu na tentativa da redução dos gastos govermentais, em função de sua crise econômico-financeira à partir da década de 70 e como estas afetaram as políticas de Saúde Pública. Buscou-se uma metodologia que permitisse a análise da eficiência técnica, e do desempenho da nova Política Pública que introduz o terceiro setor e outras formas organizacionais como agentes gestores do aparelho de Saúde Pública. A coleta de dados foi realizada em onze hospitais estudados, os quais foram analisados e classificados de acordo com o modelo de gestão: administração direta, administração mista e administração por OSS; em relação às dimensões de capacidade instalada, recursos humanos, produção e financeiras comparados entre sí e frente a literatura. Seguindo-se a aplicação de dois modelos de DEA (CCR e BCC), orientados à maximização dos resultados, que permitiram a elaboração dos rankings de eficiência técnica. Após a análise dos dados e de posse dos resultados foi realizada a discussão dos mesmos, possibilitando investigar a eficiência técnica de três modelos de gestão hospitalar, tendo em vista as seguintes questões: a eficiência técnica do novo modelo de gestão por Organizações Sociais em Saúde é superior que os demais? Os hospitais de porte menor são mais eficientes? e por fim se os hospitais universitários têm eficiência menor que os demais? Chegando-se à conclusão de que a diferença do escore de eficiência técnica dentre os três modelos de gestão estudados não foi estatísticamente significativa em ¾ dos modelos de DEA aplicados (p-valor 0,1576); que o escore de eficiência técnica não apresentou diferença estatísticamente associada ao porte (H-valor 3,15;) e que os hospitais universitários embora mais custosos não apresentam grau de ineficiência maior que os demais (p-valor 0,2909). E por fim que é recomendável introduzirem-se métodos objetivos de avaliação da eficiência hospitalar como ferramenta indispensável à moderna Administração de Saúde e à elaboração e definição de Políticas Públicas direcionadas ao Setor.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
Este trabalho tem por objetivo propor uma carteira composta por posições compradas e vendidas de ações que supere os principais Índices de mercado. O resultado é obtido através de um modelo de Lógica Fuzzy, que é um modelo de inteligência artificial que trata os dados de maneira lógica, ou seja, sem relacionar as variáveis através de modelos matemáticos convencionais. Para esse estudo utilizamos como variáveis de entrada os múltiplos Preço/Lucro Esperado e Preço/Valor Patrimonial da Empresa de cada ação considerada. Foram estudadas as ações do mercado americano pertencentes ao índice S&P 500, do ano de 2000 até 2007. Com o intuito de comparar a eficiência do Modelo de Lógica Fuzzy, utilizamos o modelo de Regressão Linear Multivariada e os índices de mercado S&P 500 e o S&P 500 com uma modificação para se adequar aos dados escolhidos para o estudo. O modelo proposto produziu resultados satisfatórios. Para quase todos os anos estudados o retorno da carteira obtida foi muito superior ao dos Índices de mercado e do modelo linear convencional. Através de testes adequados comprovamos estatisticamente a eficiência do modelo em comparação aos Índices de mercado e ao modelo linear convencional.
Resumo:
Nos últimos anos, a indústria elétrica brasileira passou, basicamente, por duas reestruturações setoriais, implantadas segundo políticas e ideologias divergentes, mas que convergiram para o mesmo objetivo final: a busca por investimentos privados para dar suporte à expansão do sistema. Esse é o grande desafio do novo modelo institucional de 2004, que surge em um ambiente conturbado, de forte percepção de riscos e incertezas. A própria instabilidade regulatória é a grande responsável pelo recuo e ponderação na hora de investir. Contudo, a pergunta que se faz na presente pesquisa objetiva identificar os fatores motivadores da nova reestruturação setorial. Só assim, pode-se correlacionar os fatos do passado com a recente reforma, identificando possíveis deficiências e fatores críticos de sucesso. Para tanto, o presente estudo recorreu à literatura existente, assim como a entrevistas semi-estruturadas com especialistas do setor elétrico brasileiro. Os dados foram analisados qualitativamente, por meio de categorias estabelecidas a posteriori, buscando-se aceitar ou refutar suposições. As evidências sugerem que, apesar de a nova reforma institucional ter realizado avanços, ao introduzir mecanismos absorvidos, principalmente, a partir das experiências regulatórias dos últimos anos, dificuldades ainda permanecem e devem ser enfrentadas, especialmente no que tange à mitigação dos riscos ambientais e regulatórios, este último, percebido com maior intensidade a partir de 2004. Sendo assim, cabe ao governo federal, representado pelo Ministério de Minas e Energia (MME), conseguir atrair investimentos e proporcionar estabilidade regulatória, a fim de afastar o “fantasma” do racionamento.
Resumo:
A Salmonella permanece um importante problema na avicultura mundial e considerando os patógenos transmitidos por alimentos, a Salmonella aparece como um dos agentes principais em surtos de toxinfecções alimentares. Existem vários relatos de isolamento de Salmonella em frangos vivos e surtos alimentares, porém em carcaças de frangos e cortes a disponibilidade de dados é menor, assim como estudos de determinação do número de Salmonella presentes nas amostras, também são poucos. No presente estudo, foram analisadas 180 carcaças de frangos resfriadas, adquiridas em varejos, para determinação da ocorrência de contaminação por Salmonella pelo método de microbiologia convencional, ensaio imunoenzimático (ELISA) e determinação do número de células da bactéria pelo método do número mais provável (NMP) nos ágares para isolamento verde brilhante com novobiocina (BGN) e xilose-lisina tergitol 4 (XLT4). Neste mesmo estudo, foi determinado o perfil de resistência a antimicrobianos de 13 amostras de Salmonella isoladas das carcaças de frangos, e analisados 101 suabes de arrasto de camas aviárias, pelo método microbiológico convencional, para a presença do agente. Os resultados mostraram 15,8% de ocorrência de Salmonella nos suabes de arrasto e 12,2% de ocorrência nas carcaças de frangos resfriadas, pelo método de microbiologia convencional. O teste de ELISA detectou 11,3% de positividade para Salmonella nas carcaças de frangos resfriadas. A média de NMP de Salmonella por mL, na leitura pelo ágar XLT4 foi de 2,674 células e BGN foi de 1,282 células. As cepas de Salmonella apresentaram resistência aos antimicrobianos lincomicina, penicilina e estreptomicina (100%), josamicina e enrofloxacina (69,23%), amoxicilina (30,76%), clortetraciclina (23,07%), estreptomicina e estreptomicina + penicilina (15,83%) e 7,69% de resistência a doxiciclina e polimixina B. Os sorovares de Salmonella isolados no estudo foram Enteritidis, Agona, Risssen, Heidelberg e Livingstone, nas carcaças de frangos, e, Enteritidis, Agona, Ohio, Rissen, Tennessee, entérica O: 3,10 e entérica O: 6,71 nos suabes de arrasto. A análise dos resultados apresentou contaminação por Salmonella nas camas aviárias e presença de cepas de Salmonella, isoladas das carcaças, multiresistentes a antimicrobianos. Também demonstrou existir um número variável de células de Salmonella contaminando as carcaças de frango resfriadas que estão à venda ao consumidor.
Resumo:
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
Resumo:
O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado
Resumo:
O objetivo deste trabalho é testar modelos clássicos de real business cycles para a economia brasileira. Em um primeiro estágio busca-se fatos estilizados, o que foi feito através da escolha de séries adequadas e da separação dos componetes cíclicos e da análise dos ciclos resultantes. Os parâmetros dos diversos modelos foram estimados utilizando o Método Generalizado dos Momentos (MGM). Estes parâmetros foram utilizados para construir diversas economias artificiais que, após simulação, foram confrontadas com os dados da economia brasileira. Entre todos testados, o modelo que melhor se adequou aos dados foi de cash in advance com taxação distorciva. Entretanto, alguns fatos estilizados importantes, como por exemplo o excesso de volatilidade do consumo, não foram adequadamente reproduzidos pelos modelos testados.
Resumo:
Utilizando dados financeiros brasileiros do Ibovespa, testa-se a validade dos modelos de valor presente (MVP) no mercado de ações. Estes modelos relacionam o preço de uma ação ao seu fluxo de caixa futuro esperado (dividendos) trazido a valor presente utilizando uma taxa de desconto constante ou variante ao longo do tempo. Associada a estes modelos está a questão da previsibilidade dos retornos num contexto de expectativas racionais. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Autorregressões Vetoriais. Os resultados empíricos corroboram, em grande medida, o MVP para o Ibovespa brasileiro, pois há uma igualdade estatística entre a previsão ótima do mercado para o spread do equilíbrio de longo prazo e seus valores observados.
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor presente na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, à previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Auto-Regressão Vetorial. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.