997 resultados para Modelo de tempo de falha acelerado. Dados correlacionados.Imputação de dados. Análise de resíduos
Resumo:
O setor farmacêutico apresenta um elevado grau de complexidade, dada a regulamentação a que está sujeito. Atualmente, um dos principais problemas deste setor prende-se com o acentuado aumento (142,6% entre dezembro de 2012 e julho de 2014) do número de farmácias insolventes, sendo impacto da crise económica e consequentes medidas regulamentares aplicadas com o Memorando de Entendimento da Troika. Dada a importância que as farmácias têm na dispensa do medicamento assim como o papel do farmacêutico no aconselhamento diário aos utentes, a redução do número de farmácias levanta problemas no acesso ao medicamento por parte da população. Assim, é necessário dotar as farmácias de ferramentas que lhes permitam gerir o seu negócio, criando bases sólidas de forma a terem uma maior capacidade de reagir em tempos de crise. Desta forma, o objetivo principal do trabalho é fornecer às farmácias uma dessas ferramentas, através da criação de um modelo preditivo de insolvência que permita estimar uma probabilidade de uma farmácia entrar em insolvência. Para o efeito, desenvolveu-se um modelo teórico, com base na revisão de literatura científica e na análise do setor farmacêutico em Portugal, que foi depois testado recorrendo a métodos de estimação com recurso ao modelo logit através do método da Máxima Verosimilhança. O modelo empírico foi estimado com dados de uma amostra de 97 farmácias, selecionadas a partir de uma base de dados da ANF. Esta amostra é composta por todas as farmácias insolventes e por uma seleção aleatória de farmácias solventes, para as quais foi possível utilizar informação proveniente do IES, mantendo a total confidencialidade, nomeadamente dados relativos às dimensões consideradas no modelo teórico: Autonomia Financeira, Endividamento, Gestão de Inventários, Gestão de Funcionários, Liquidez, Prazo Médio de Pagamentos do Estado, Prazo Médio Pagamentos a Fornecedores, Rendibilidade, Solvabilidade, Tesouraria, Dimensão e Localização. As dimensões referidas foram selecionadas após uma análise extensiva da bibliografia sobre esta temática. Estas dimensões foram incluídas na estimação através de variáveis proxy (com exceção da Tesouraria), para as quais foi também levada a cabo uma análise de sensibilidade. Depois de validados os pressupostos da estimação e de uma análise crítica sobre os resultados, foi possível selecionar um modelo em que mais de 90% das observações foram classificadas corretamente. O modelo preditivo selecionado inclui as variáveis proxy das dimensões: Autonomia Financeira, Prazo Médio Pagamentos a Fornecedores, Endividamento, Rendibilidade, Dimensão e Localização. Em testes posteriores, validou-se a capacidade preditiva do modelo com recurso a uma amostra de teste.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
PhD in Chemical and Biological Engineering
Resumo:
O objetivo deste trabalho foi avaliar a conveniência de definir o número de componentes multiplicativos dos modelos de efeitos principais aditivos com interação multiplicativa (AMMI) em experimentos de interações genótipo x ambiente de algodão com dados imputados ou desbalanceados. Um estudo de simulação foi realizado com base em uma matriz de dados reais de produtividade de algodão em caroço, obtidos em ensaios de interação genótipo x ambiente, conduzidos com 15 cultivares em 27 locais no Brasil. A simulação foi feita com retiradas aleatórias de 10, 20 e 30% dos dados. O número ótimo de componentes multiplicativos para o modelo AMMI foi determinado usando o teste de Cornelius e o teste de razão de verossimilhança sobre as matrizes completadas por imputação. Para testar as hipóteses, quando a análise é feita a partir de médias e não são disponibilizadas as repetições, foi proposta uma correção com base nas observações ausentes no teste de Cornelius. Para a imputação de dados, foram considerados métodos usando submodelos robustos, mínimos quadrados alternados e imputação múltipla. Na análise de experimentos desbalanceados, é recomendável escolher o número de componentes multiplicativos do modelo AMMI somente a partir da informação observada e fazer a estimação clássica dos parâmetros com base nas matrizes completadas por imputação.
Resumo:
Este trabalho teve o objetivo de avaliar o desempenho dos modelos de predição das perdas de solo USLE, RUSLE e WEPP para diferentes condições edafoclimáticas brasileiras. Para alcançar o objetivo proposto, perdas de solo estimadas pelos referidos modelos em nove localidades do Brasil foram comparadas às perdas medidas em parcelas experimentais, por meio do coeficiente de correlação, da raiz do erro quadrático médio (RMSE), do índice de concordância de Willmott, do índice de confiança, do coeficiente de Nash-Sutcliffe e da eficiência dos modelos. As parcelas experimentais adotadas nos estudos de perdas de solo utilizados no presente trabalho apresentavam dimensões (de 38 a 1.875 m²) e tempo de coleta de dados (de 1 a 7 anos) variados. Observou-se diferença significativa entre a média geral de perdas de solo estimada pelos modelos e a medida no campo. O WEPP apresentou estimativas mais precisas em 46% das condições simuladas, seguido pelo RUSLE com 42% e USLE com 12%, sendo que os indicadores estatísticos estudados mostraram que o modelo WEPP apresenta melhor desempenho quando comparado com os demais modelos. Apesar de a diferença entre os dados estimados e observados ocorrer para os três modelos, o WEPP, por apresentar melhor desempenho, coeficiente angular mais próximo da unidade na relação entre perdas de solo medidas no campo e estimadas pelo modelo e por ser embasado em processos físicos, demonstra ter maior potencial para fazer previsão da erosão para diferentes condições edafoclimáticas brasileiras.
Resumo:
Neste trabalho foi feita a otimização do processo de secagem do malte de milho (Zea mays) com o objetivo de gerar um derivado de alto valor comercial sem reduzir a atividade das enzimas presentes neste, alfa e beta - amilases, e tentar agregar valor à cultura do milho. Modelos de curvas de secagem foram usados para simular as isotermas de secagem. Um planejamento fatorial completo do tipo 2² foi feito, usando como fatores o tempo (5,18; 6; 8; 10 e 10,8 h) em torno do tempo de secagem para determinação de umidade em alimento e a temperatura (54, 65 e 76 °C) próxima do ótimo das enzimas e a atividade enzimática no malte como resposta. O modelo que mais se ajustou aos dados de cinética de secagem foi o de Henderson e Henderson, e a umidade média retirada do malte foi maior que 40%. A otimização da secagem indicou que se deve operar o secador na região que se aproxima dos 54 °C e da faixa de 5,18 a 6 h de processo. O malte obtido possuiu um bom potencial enzimático, sendo possível assim, contribuir para a agregação de valor à cultura do milho.
Resumo:
A água tônica é um refrigerante caracterizado pelo gosto amargo atribuído à presença de quinina. O presente trabalho teve como objetivo avaliar a aceitação e a percepção do gosto amargo de três marcas comerciais de água tônica. Para o teste de aceitação foi utilizada escala hedônica de nove pontos com noventa e seis consumidores. Este estímulo também foi analisado utilizando-se a técnica tempo-intensidade. Nove provadores selecionados e treinados avaliaram as amostras da água tônica utilizando o programa "Sistema de Coleta de Dados Tempo-Intensidade-SCDTI" para Windows. Os resultados obtidos foram analisados por análise de variância (ANOVA) e teste de Duncan para comparação de médias. As marcas de água tônica apresentaram curvas de tempo-intensidade distintas para o gosto amargo. As amostras não apresentaram diferença quanto à intensidade do gosto amargo pela análise tempo-intensidade. Em relação à aceitação, as amostras M-1 e M-2 diferiram da amostra M-3 (p < 0,05), sendo M-3 a menos aceita.
Resumo:
A mídia social tornou-se um canal muito importante de comunicação e interação para pessoas de todo o mundo, e uma grande quantidade de conteúdo está sendo criado. Como resultado, o processo de análise de tal enorme quantidade de dados requer o suporte de ferramentas e técnicas de visualização. Este estudo está centrado nas relações entre as palavras postadas no Twitter, usando o princípio da Folksonomia para categorizar as palavras mais recorrentes como etiquetas (ou tags). Além disso, ele propõe um modelo visual baseado no princípio de atração física, que tem como objetivo mostrar a maneira como as principais etiquetas estão correlacionadas. Os resultados indicam o potencial do Modelo Orbital, porque pode ser utilizado para representar a dinâmica das relações ao longo do tempo.
Resumo:
O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
A dissertação tem como objeto a investigação das relações entre a o design de um website de comércio eletrônico de CDs e o comportamento do consumidor virtual, com ênfase a sua atitude e intenção de compra. O objetivo principal é mensurar o efeito do design da loja virtual (website) em seu papel de agente de vendas na Internet. A análise do comércio varejista de CDs foi escolhida, pois este produto é um dos principais artigos de venda neste canal. O estudo é apoiado em um referencial teórico, no qual são analisadas as características dos seguintes pontos: i) a Internet atuando como canal de vendas; ii) o comércio varejista de CD no Brasil e iii) o comportamento do consumidor e o seu processo decisório. Ainda no referencial teórico são apresentados os diversos modelos de avaliação de website existentes: baseado em Marketing, Teoria dos Dois Fatores, avaliação da qualidade, avaliação da web (W AM) e aceitação da Tecnologia na Web (T AM). A análise e comparação destes modelos serviu como base para o desenvolvimento da proposta do modelo de avaliação website. O estudo é complementado pelo desenvolvimento de uma pesquisa, com aplicação de questionário via web (websurvey). A coleta dos dados é utilizada como forma de validação estatística das relações existentes no modelo desenvolvido. Isto é feito por meio do uso da ferramenta de análise de Equações Estruturadas (SEM), suportada pelos conceitos e métodos de abordagem descritos no referencial teórico. A ferramenta permite tanto avaliar um modelo de mensuração e um modelo estrutural simultaneamente.
Resumo:
Este trabalho tem por objetivo mostrar a importância de se utilizar um sistema integrado de indicadores de desempenho e algumas práticas da gestão baseada no tempo para a administração de empresas. Iniciou-se o trabalho com uma revisão bibliográfica dos conceitos mencionados. Utilizou-se da metodologia de estudo de caso, com uma abordagem qualitativa e com entrevistas, questionários, observações e consultas a documentos internos como instrumentos para coleta de dados, com sua aplicação numa empresa de transportes. Os problemas analisados foram operacionais, principalmente relacionados com a produtividade das operações e a qualidade do serviço oferecido. Com o sistema integrado de indicadores de desempenho foi possível identificar os processos e atividades que necessitavam de melhorias. Os conceitos da gestão baseada no tempo forneceram suporte para tomada de decisões que possibilitaram a obtenção de algumas otimizações necessárias e possíveis. Dentre os ganhos obtidos tiveram-se: aumento da produtividade dos equipamentos em aproximadamente 70%, possibilitando um aumento nos lucros e uma maior satisfação dos clientes.
Resumo:
A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.