1000 resultados para Previsão com Metodologia de Bonx-Jenkis
Resumo:
O objetivo neste estudo foi propor um programa de mudança na relação empresa-fornecedores num momento em que técnicas sobre o tema são discutidas na vivência de um relacionamento ainda nada colaborativo. Para tanto se utilizou a metodologia do tipo Soft Systems adequada à natureza social do objeto de estudo: as relações entre empresa varejista e seus fornecedores. Esta metodologia permite o levantamento de dados em campo, a caracterização do modelo de relacionamento vigente na empresa, a comparação deste modelo com o modelo idealizado e a elaboração de um programa de intervenção para readequação do modelo vigente.
Resumo:
O Setor da Saúde Suplementar se encontra em crise no Brasil. Devido à sua importância econômica, representada por um faturamento de R$ 25 bilhões, e sua importância social, sendo responsável pelo atendimento de 38 milhões de usuários, acreditamos ser importante um estudo mais adequado.A crise do setor é evidente, pois existe um descontentamento de todos os participantes do setor.Em 2003, 34% das operadoras tiveram prejuízo, hospitais e médicos reivindicam um maior rendimento e os pacientes recebem um serviço cuja qualidade ameaça a sua vida e cujos custos estão se tornando, progressivamente, proibitivos. Analisamos as prováveis causas da crise e concluímos por: envelhecimento da população e o aumento nos custos da saúde que acompanha a maior incidência de doenças crônicas e novos problemas de saúde, como obesidade, com os quais não temos experiências satisfatórias.A qualidade do serviço oferecido pelo setor e a regulamentação estão, também, entre as principais causas. A análise econômica mostra uma diminuição no número de usuários.Fatores extrínsecos ao setor tem uma grande importância na gênese da crise. As alterações na economia do país, principalmente aquelas desencadeadas pela globalização, aumentaram a passagem de trabalhadores para o setor informal e provocaram uma queda na renda média do assalariado. Os causadores de crise que são intrínsecos a indústria são: alterações demográficas e assimetria informacional que tem como conseqüência seleção adversa e dano moral. Verificamos, utilizando a análise das cinco forças de Michael Porter, que existe grande competição entre as empresas do setor e que um posicionamento estratégico deve considerar: um relacionamento de boa qualidade e de longo prazo com as equipes médicas, a criação de custos de mudança e diferenciações.Na busca por atividades de valor que pudessem levar a uma maior diferenciação, usamos a metodologia da cadeia de valor. Quando conectamos a cadeia de valor da empresa e os valores dos compradores, identificamos algumas atividades que poderiam se tornar diferencial. As atividades com potencial de diferenciação se encontram em vários setores das empresas da indústria da saúde suplementar.
Resumo:
A Tecnologia da Informação é um dos pilares da sociedade moderna. Através do uso desta em diversas dimensões sócio-econômicas, várias antigas estruturas foram modificadas: globalização, automatização, comunicação etc. Além disto, a constante inovação permite que esta tecnologia atinja novas fronteiras, possibilitando novas oportunidades e benefícios aos seus usuários. Portanto, . dominar e conhecer esta tecnologia tornou-se fundamental para o desenvolvimento econômico-social de um país. Tendo em mente a importância da Tecnologia da Informação, este trabalho buscá compreender a estrutura atual e prospectar como pode ser o futuro do segmento de software no Brasil. Para atingir este objetivo, o trabalho foi conduzido em três partes. A primeira parte faz uma retrospectiva do desenvolvimento do segmento, primeiramente, no mundo e, posteriormente, no Brasil. A visita à História brasileira aborda o período da reserva de mercado e os primeiros anos pósintervenção estatal. A parte seguinte analisa o momento atual do segmento através da metodologia de Análise de Indústria proposta por Michael Porter. E, enfim, a última parte propõe quatro cenários prospectivos para o futuro das empresas brasileiras de software
Resumo:
As transformações ocorridas no mercado têm levado os clientes a exigirem dos fornecedores níveis de desempenho cada vez mais elevados, principalmente no que diz respeito à entrega. O desafio para a organização que pretende ser líder em serviço ao cliente é conhecer as exigências dos diferentes segmentos em que atua e reestruturar seus processos de logística em direção ao cumprimento dessas exigências da maneira mais eficiente possível, maximizando a utilização de seus recursos e, para isso, reduzindo os custos. Nas análises de redução dos custos, as empresas avaliaram suas contas dos demonstrativos contábeis e descobriram que o estoque exigia um valor de capital investido, gerando altos custos financeiros ou alto custo de oportunidade. Simplesmente tomar ações pontuais para redução de estoques sem o conhecimento científico tem levado muitas delas à queda do nível de serviço logístico oferecido e, conseqüentemente, à perda de vendas. Esta dissertação objetivou trazer para dentro da empresa, de forma unificada e estruturada, as necessidades/desejos dos clientes, definindo, assim, níveis de serviço adequados aos tipos de mercado ou produto. Isso permite um melhor gerenciamento dos estoques, ou seja, a definição de níveis de serviço por categorias de produtos e conseqüentemente estoques de segurança para sustentar tais níveis. Nesse sentido, recomenda-se a matriz da “casa da qualidade” do QFD como ferramenta de concatenação das necessidades dos clientes com as características logísticas e os recursos da companhia. Para alcançar esse objetivo, foi construído um modelo hipotético de aplicação para estudar diversos níveis de serviços e seus respectivos impactos em valor no estoque de segurança. O estudo visa à aplicação em empresas que atendam aos clientes com estoques de produtos acabados de demanda independente, planejando e produzindo as reposições desses estoques, baseados em previsões de demanda.
Resumo:
Este trabalho tem por objetivo analisar a questão da adoção do custo do capital divisional em empresas multinacionais e suas implicações no aceite de projetos sob a perspectiva do acionista, tendo como base a análise de risco e retorno. Verifica-se que a fim de simplificar o processo de análise de projetos, é comum as empresas multinacionais adotarem um custo de capital corporativo único para todas as suas divisões de negócio, de modo que todos os novos projetos são analisados, rejeitados ou aceitos, levando-se em conta esse custo de capital corporativo. Para analisar algumas das implicações dessa simplificação, este trabalho vai utilizar uma metodologia já existente para determinar os diferentes custos de oportunidade de cada divisão, e posteriormente analisará o impacto comparativo entre a adoção de um custo de capital corporativo e custos de capital por divisão, sob a perspectiva do acionista. Este trabalho mostrará que quando as divisões de uma empresa multinacional apresentam custos de capital muito distintos entre si, ou muito diferentes do custo de capital corporativo, a adoção de um custo de capital divisional representa um avanço no sentido da incorporação do conceito de risco, incrementando e aprimorando a análise de projetos, mantendo um nível razoável de simplicidade, mas gerando mais valor ao acionista.
Resumo:
O trabalho apresenta análise e comentários sobre os critérios ideais para a tomada de decisão de viabilidade de um negócio imobiliário. Inicia comparando e elegendo os indicadores financeiros mais adequados. Posteriormente trata a decisão diante do risco e incerteza do mercado de incorporações imobiliárias utilizando como ferramentas a gestão dinâmica e a simulação para estimar a velocidade de vendas e obter probabilidade dos resultados. O modelo desenvolvido confere e recomenda um tratamento mais técnico e apurado ao processo de tomada de decisão e expõe suas vantagens diante da realidade mais simplista na análise de fluxo de caixa que é característica dominante do mercado atual
Resumo:
Esta dissetação propõe um estudo da metodologia utilizada no Processo de Desenvolvimento de Produto (PDP) da Siemens Metering Ltda, uma empresa do ramo eletroeletrônico, aboradando o mesmo através de uma visão sistêmica, com o suporte de ferramentas de qulaidade, sendo o objetivo principal a utilização integrada das ferramentas QFD e FMEA no processo de desenvolvimento de produto tornando possível a prevenção de falhas, melhorando a eficiência do processo. Para o desenvolvimento do trabalho foram feitos estudos junto a áreas da empresa onde se identificou que o método atualmente empregado em 98% dos projetos desenvolvidos acarretava falhas no desenvolvimento e conseqüentes atrasos dos cronogramas dos problemas ocorridos, o faturamento previsto não era cumprido, ficando em média com 2% do faturamento total da empresa, quando a previsão era de 12% em média. O impacto financeiro de reduções de custo propostas e não implementadas geraram a empresa um montante de R$ 250.000,00/ano, de despesas que poderiam ter sido evitadas A proposta de melhoria constitiu em definir uma metodologia de desenvolvimento de produto com suporte de ferrramentas de qualidade, QFD e FMEA. A abordagem sistêmica do processo possibilitou a identificação dos pontos relevantes do projeto, de forma a atender os requisitos do cliente, bem como a definiçaõ de ações de prevenção em pontos importantes para o projeto. A combinação destas ações possibilita que o processo de desenvolvimento de produto seja mais confiável, quanto a prazos e também em relação ao desempenho do produto resultante. Para o desenvolvimento do trabalho, foram selecionados dois projetos em desenvolvimento pela atual metodologia, onde a proposta foi aplicada, de forma que, foi possível identificar os pontos que anteriormente não haviam sido identificados como relevantes para as etapas de desenvolvimento já concluídas. A aplicação do QFD possibilitou transformar a qualidade demandada em requisitos do produto e do processo. O FMEA, aplicado a um item de cada projeto, possibilitou a definição de ações preventivas que se implementadas com sucesso, minimizam a possibilidade de falha do produto acabado. Os resultados demonstram que a nova metodologia se aplicada na etapa inicial do processo de desenvolvimento de produto, permite um ganho de produtividade e de confiabilidade em relação aos resultados obtidos com o processo atual.
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).
Resumo:
Uma das maiores dificuldades encontradas pelos técnicos envolvidos na elaboração da previsão do tempo é a falta de integração entre o software de visualização usado por eles e os programas usados para escrever os boletins. Os previsores necessitam de um meio rápido e fácil de gerar previsões com outras formas de apresentação, além do formato de texto em que ela normalmente é produzida. A partir do estudo dessas dificuldades, formulou-se a hipótese de que seria benéfico criar uma linguagem visual para a criação da previsão do tempo, que permitisse gerar tanto o texto de um boletim meteorológico quanto as imagens correspondentes. Este trabalho descreve a especificação dessa linguagem, à qual se deu o nome de Pythonissa. Ela foi definida usando o formalismo de grafos e se constitui de um modelo da estrutura de um boletim de previsão do tempo. Em Pythonissa, cada região geográfica para a qual é feita a previsão é representada por um vértice em um grafo. Os fenômenos presentes na região também são representados por vértices, de outros tipos, ligados à região por arestas que denotam sua presença. Cada tipo de vértice e aresta tem mapeamentos para representações gráficas e para elementos de controle em uma interface com o usuário. A partir da linguagem, foi implementado um protótipo preliminar, no qual é possível criar um boletim de por meio de uma interface visual e gerar o texto e a imagem correspondentes. Foi dado início, também, à construção de um framework para integração da linguagem a um ambiente de visualização de dados, de modo a produzir uma aplicação utilizável em um ambiente de trabalho real. Para isto foram usados o software de visualização Vis5D e a linguagem de scripts Python. A este framework, se deu o nome de Py5D.
Resumo:
A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.
Resumo:
Este trabalho descreve PMT – Pattern-based Methodology Tailoring, uma abordagem para a adaptação de metodologias de desenvolvimento de software, baseada em padrões e em critérios de risco. Seu principal objetivo é estabelecer meios de se adaptar uma linguagem de padrões organizacionais ao contexto de um projeto específico, o que é obtido através da seleção sistemática dos padrões organizacionais mais adequados aos requisitos do projeto. O trabalho é motivado pelo levantamento de que os arcabouços de processos de software existentes pouco fazem para compreender as necessidades de um projeto antes de definir a metodologia a ser aplicada. PMT utiliza uma análise dos riscos e do contexto de criticalidade para guiar o processo de adaptação. Padrões organizacionais que descrevem técnicas preventivas para os riscos identificados são selecionados por um mecanismo sistemático de seleção, o qual é suportado por uma ferramenta, chamada PMT-Tool.
Resumo:
A formação interna da estrutura de uma peça fundida deve determinar as características mecânicas dessa peça, quando em serviço. Dessa forma, torna-se fundamental conhecer e parametrizar os elementos que influem na formação da estrutura do componente sólido, para o desenvolvimento adequado de sistemas de solidificação que permitam conduzir a melhoria da qualidade de uma peça no processo de solidificação. Modelos numéricos podem ser empregados para a determinação da formação estrutural, entretanto estes devem ser aferidos adequadamente para garantir sua aplicabilidade. No trabalho em questão, desenvolveu-se uma metodologia que permitiu a aferição de um modelo numérico para a previsão das condições de resfriamento de ligas de alumínio. Elaborou-se um conjunto de coquilhas e moldes que permitiram o acoplamento e verificação da estrutura formada na solidificação em diferentes situações de resfriamento, observando principalmente a direção de extração de calor e a taxa de resfriamento associada. O modelo numérico aplicado respondeu coerentemente aos resultados obtidos permitindo a previsão da estrutura solidificada pela observação dos resultados de evolução das isotermas solidus e liquidus no interior dos sistemas.
Resumo:
A conscientização das indústrias, em especial o Setor Moveleiro, em relação ao meio ambiente, vem impulsionando as mesmas para o desenvolvimento de produtos com inovações sustentáveis. Dentro deste contexto o presente trabalho teve como objetivo estudar a biônica como ferramenta de trabalho de ecodesign, originando desenvolvimento sustentável na produção de produtos da Indústria Moveleira, em particular dobradiças (elementos de abertura e fechamento de portas em móveis). Utilizou-se biônica, que se caracteriza na procura de modelos na natureza que passaram por um processo evolutivo e seletivo de suas formas e funções. A metodologia da biônica foi aplicada na análise de dobradiças de abertura e fechamento de portas de móveis já existentes no mercado consumidor, em analogia com modelos da natureza, como estrutura craniana e mandibular de cobras e estrutura de patas (pereiópodos) de crustáceos. Este estudo resultou no desenvolvimento de um projeto conceitual de dobradiça com menos materiais e menor número de peças, com viabilidade técnica baseado nos conceitos de ecodesign e sustentabilidade.
Resumo:
Apesar dos aparelhos celulares terem se tornado parte fundamental da comunicação pessoal durante os últimos dez anos, há escassez de pesquisas de ordem acadêmica dedicadas à valoração das diferentes características dos planos e aparelhos celulares. Vários fatores precisam ser levados em conta para se conhecer a percepção de valor dos atributos dos planos e aparelhos celulares, desde as condições microeconômicas que afetam a evolução do mercado de aparelhos celulares em geral, até as decisões e motivações pessoais do processo de decisão de compra de um consumidor. Este estudo procura responder quais atributos são mais valorizados pelo consumidor brasileiro em um aparelho celular pós-pago, bem como o preço destes atributos no mercado. Para isto aplicou-se o método de preços hedônicos a uma base de dados de 48 modelos de celulares diferentes, de seis marcas presentes no mercado brasileiro, de três operadoras, em nove diferentes planos de assinatura, com observações de preços semanais ao longo do ano de 2008, totalizando 27 atributos diferentes e 292.410 observações. Por fim, também é apresentada nesta dissertação uma interpretação do mercado brasileiro pela ótica da Economia das Telecomunicações, e é realizado o cálculo da deflação ocorrida no mercado brasileiro de aparelhos celulares pós-pagos no ano de 2008 levando-se em consideração as mudanças de qualidade, funcionalidades e características destes aparelhos ocorridas ao longo do ano mencionado.