947 resultados para testes baseados em modelos
Resumo:
Estudamos neste trabalho, o nível de significância empírico dos testes portmanteau baseados nas estatísticas propostas por Ljung e Box (1978), Monti (1994) e Pe˜na e Rodríguez (2002) nos processos ARFIMA(p; d; q). Consideramos o processo ARFIMA(p; d; q) nas situações adequadas para representar séries temporais com características de longa dependência. Para estimar o parâmetro de diferenciação d utilizamos os métodos de estimação propostos por Geweke e Porter-Hudak (1983), Reisen (1994), Robinson (1994) e Fox e Taqqu (1983).
Resumo:
A leishmaniose visceral americana (LVA) é uma doença em expansão no Brasil, para a qual se dispõem de poucas, e aparentemente ineficientes, estratégias de controle. Um dos grandes problemas para a contenção da leishmaniose visceral americana é a falta de um método acurado de identificação dos cães infectados, considerados os principais reservatórios da doença no meio urbano. Neste sentido, a caracterização de marcadores clínico-laboratoriais da infecção neste reservatório e a avaliação mais adequada do desempenho de testes para diagnóstico da infecção podem contribuir para aumentar a efetividade das estratégias de controle da LVA. Com isso, o presente estudo tem dois objetivos principais: (1) desenvolver e validar um modelo de predição para o parasitismo por Leishmania chagasi em cães, baseado em resultados de testes sorológicos e sinais clínicos e (2) avaliar a sensibilidade e especificidade de critérios clínicos, sorológicos e parasitológicos para detecção de infecção canina por L. chagasi mediante análise de classe latente. O primeiro objetivo foi desenvolvido a partir de estudo em que foram obtidos dados de exames clínico, sorológico e parasitológico de todos os cães, suspeitos ou não de LVA, atendidos no Hospital Veterinário Universitário da Universidade Federal do Piauí (HVU-UFPI), em Teresina, nos anos de 2003 e 2004, totalizando 1412 animais. Modelos de regressão logística foram construídos com os animais atendidos em 2003 com a finalidade de desenvolver um modelo preditivo para o parasitismo com base nos sinais clínicos e resultados de sorologia por Imunofluorescência Indireta (IFI). Este modelo foi validado nos cães atendidos no hospital em 2004. Para a avaliação da área abaixo da curva ROC (auROC), sensibilidade, especificidade, valores preditivos positivo (VPP), valores preditivos negativo (VPN) e acurácia global, foram criados três modelos: um somente baseado nas variáveis clínicas, outro considerando somente o resultado sorológico e um último considerando conjuntamente a clínica e a sorologia. Dentre os três, o último modelo apresentou o melhor desempenho (auROC=90,1%, sensibilidade=82,4%, especificidade=81,6%, VPP=73,4%, VPN=88,2% e acurácia global=81,9%). Conclui-se que o uso de modelos preditivos baseados em critérios clínicos e sorológicos para o diagnóstico da leishmaniose visceral canina pode ser de utilidade no processo de avaliação da infecção canina, promovendo maior agilidade na contenção destes animais com a finalidade de reduzir os níveis de transmissão. O segundo objetivo foi desenvolvido por meio de um estudo transversal com 715 cães de idade entre 1 mês e 13 anos, com raça variada avaliados por clínicos veterinários no HVU-UFPI, no período de janeiro a dezembro de 2003. As sensibilidades e especificidades de critérios clínicos, sorológicos e parasitológicos para detecção de infecção canina por Leishmania chagasi foram estimadas por meio de análise de classe latente, considerando quatro modelos de testes e diferentes pontos de corte. As melhores sensibilidades estimadas para os critérios clínico, sorológico e parasitológico foram de 60%, 95% e 66%, respectivamente. Já as melhores especificidades estimadas para os critérios clínico, sorológico e parasitológico foram de 77%, 90% e 100%, respectivamente. Conclui-se que o uso do exame parasitológico como padrão-ouro para validação de testes diagnósticos não é apropriado e que os indicadores de acurácia dos testes avaliados são insuficientes e não justificam que eles sejam usados isoladamente para diagnóstico da infecção com a finalidade de controle da doença.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
A Internet das Coisas tal como o Big Data e a análise dos dados são dos temas mais discutidos ao querermos observar ou prever as tendências do mercado para as próximas décadas, como o volume económico, financeiro e social, pelo que será relevante perceber a importância destes temas na atualidade. Nesta dissertação será descrita a origem da Internet das Coisas, a sua definição (por vezes confundida com o termo Machine to Machine, redes interligadas de máquinas controladas e monitorizadas remotamente e que possibilitam a troca de dados (Bahga e Madisetti 2014)), o seu ecossistema que envolve a tecnologia, software, dispositivos, aplicações, a infra-estrutura envolvente, e ainda os aspetos relacionados com a segurança, privacidade e modelos de negócios da Internet das Coisas. Pretende-se igualmente explicar cada um dos “Vs” associados ao Big Data: Velocidade, Volume, Variedade e Veracidade, a importância da Business Inteligence e do Data Mining, destacando-se algumas técnicas utilizadas de modo a transformar o volume dos dados em conhecimento para as empresas. Um dos objetivos deste trabalho é a análise das áreas de IoT, modelos de negócio e as implicações do Big Data e da análise de dados como elementos chave para a dinamização do negócio de uma empresa nesta área. O mercado da Internet of Things tem vindo a ganhar dimensão, fruto da Internet e da tecnologia. Devido à importância destes dois recursos e á falta de estudos em Portugal neste campo, com esta dissertação, sustentada na metodologia do “Estudo do Caso”, pretende-se dar a conhecer a experiência portuguesa no mercado da Internet das Coisas. Visa-se assim perceber quais os mecanismos utilizados para trabalhar os dados, a metodologia, sua importância, que consequências trazem para o modelo de negócio e quais as decisões tomadas com base nesses mesmos dados. Este estudo tem ainda como objetivo incentivar empresas portuguesas que estejam neste mercado ou que nele pretendam aceder, a adoptarem estratégias, mecanismos e ferramentas concretas no que diz respeito ao Big Data e análise dos dados.
Resumo:
Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.
Resumo:
O objetivo deste trabalho foi investigar como fazer os alunos modelarem mentalmente os enunciados de problemas de papel-e-lápis a fim de entendê-los e resolvê-los baseados em procedimentos analíticos e não buscando uma “fórmula”. Foram realizados cinco estudos empíricos com alunos universitários dos cursos de Engenharia e Física da Pontifícia Universidade Católica do Rio Grande do Sul, cursando a disciplina de Mecânica Geral. Foi utilizada uma metodologia qualitativa baseada em depoimentos verbais (durante aulas exclusivas de problemas e entrevistas semi-estruturadas) e escritos (em testes e exames) durante o período de 1998 e 2004. O trabalho está subsidiado teoricamente pelas teorias dos modelos mentais de Johnson-Laird e dos campos conceituais de Vergnaud, tendo como teoria educacional subjacente, a teoria educacional da aprendizagem significativa de Ausubel. Resultados da pesquisa parecem dar suporte para a hipótese da autora, segundo a qual a representação mental dos enunciados dos problemas, apresentados acompanhados ou não por uma representação pictórica, podem ser facilitados pelo ensino explícito da modelagem física das situações envolvidas. Os conhecimentos-em-ação que os estudantes usam, como se pode inferir de suas soluções verbais e escritas, identificaram algumas características em seus desempenhos que pode ajudar com que os professores entendam os processos que eles usam durante as atividades de resolução de problemas, com possíveis conseqüências para os procedimentos usados pelos professores com relação ao ensino.
Resumo:
This work addresses issues related to analysis and development of multivariable predictive controllers based on bilinear multi-models. Linear Generalized Predictive Control (GPC) monovariable and multivariable is shown, and highlighted its properties, key features and applications in industry. Bilinear GPC, the basis for the development of this thesis, is presented by the time-step quasilinearization approach. Some results are presented using this controller in order to show its best performance when compared to linear GPC, since the bilinear models represent better the dynamics of certain processes. Time-step quasilinearization, due to the fact that it is an approximation, causes a prediction error, which limits the performance of this controller when prediction horizon increases. Due to its prediction error, Bilinear GPC with iterative compensation is shown in order to minimize this error, seeking a better performance than the classic Bilinear GPC. Results of iterative compensation algorithm are shown. The use of multi-model is discussed in this thesis, in order to correct the deficiency of controllers based on single model, when they are applied in cases with large operation ranges. Methods of measuring the distance between models, also called metrics, are the main contribution of this thesis. Several application results in simulated distillation columns, which are close enough to actual behaviour of them, are made, and the results have shown satisfactory
Resumo:
Recent astronomical observations (involving supernovae type Ia, cosmic background radiation anisotropy and galaxy clusters probes) have provided strong evidence that the observed universe is described by an accelerating, flat model whose space-time properties can be represented by the FriedmannRobertsonWalker (FRW) metric. However, the nature of the substance or mechanism behind the current cosmic acceleration remains unknown and its determination constitutes a challenging problem for modern cosmology. In the general relativistic description, an accelerat ing regime is usually obtained by assuming the existence of an exotic energy component endowed with negative pressure, called dark energy, which is usually represented by a cosmological constant ¤ associated to the vacuum energy density. All observational data available so far are in good agreement with the concordance cosmic ¤CDM model. Nevertheless, such models are plagued with several problems thereby inspiring many authors to propose alternative candidates in the relativistic context. In this thesis, a new kind of accelerating flat model with no dark energy and fully dominated by cold dark matter (CDM) is proposed. The number of CDM particles is not conserved and the present accelerating stage is a consequence of the negative pressure describing the irreversible process of gravitational particle creation. In order to have a transition from a decelerating to an accelerating regime at low redshifts, the matter creation rate proposed here depends on 2 parameters (y and ߯): the first one identifies a constant term of the order of H0 and the second one describes a time variation proportional to he Hubble parameter H(t). In this scenario, H0 does not need to be small in order to solve the age problem and the transition happens even if there is no matter creation during the radiation and part of the matter dominated phase (when the ß term is negligible). Like in flat ACDM scenarios, the dimming of distant type Ia supernovae can be fitted with just one free parameter, and the coincidence problem plaguing the models driven by the cosmological constant. ACDM is absent. The limits endowed with with the existence of the quasar APM 08279+5255, located at z = 3:91 and with an estimated ages between 2 and 3 Gyr are also investigated. In the simplest case (ß = 0), the model is compatible with the existence of the quasar for y > 0:56 whether the age of the quasar is 2.0 Gyr. For 3 Gyr the limit derived is y > 0:72. New limits for the formation redshift of the quasar are also established
Resumo:
In survival analysis, the response is usually the time until the occurrence of an event of interest, called failure time. The main characteristic of survival data is the presence of censoring which is a partial observation of response. Associated with this information, some models occupy an important position by properly fit several practical situations, among which we can mention the Weibull model. Marshall-Olkin extended form distributions other a basic generalization that enables greater exibility in adjusting lifetime data. This paper presents a simulation study that compares the gradient test and the likelihood ratio test using the Marshall-Olkin extended form Weibull distribution. As a result, there is only a small advantage for the likelihood ratio test
Resumo:
Survival models deals with the modeling of time to event data. However in some situations part of the population may be no longer subject to the event. Models that take this fact into account are called cure rate models. There are few studies about hypothesis tests in cure rate models. Recently a new test statistic, the gradient statistic, has been proposed. It shares the same asymptotic properties with the classic large sample tests, the likelihood ratio, score and Wald tests. Some simulation studies have been carried out to explore the behavior of the gradient statistic in fi nite samples and compare it with the classic statistics in diff erent models. The main objective of this work is to study and compare the performance of gradient test and likelihood ratio test in cure rate models. We first describe the models and present the main asymptotic properties of the tests. We perform a simulation study based on the promotion time model with Weibull distribution to assess the performance of the tests in finite samples. An application is presented to illustrate the studied concepts
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)