1000 resultados para Modelos bayesianos hierárquicos espaço-temporais
Resumo:
Identifica-se que a aplicação de técnicas estatísticas e financeiras nos modelos para a tomada de decisão dos investimentos de marketing se apresenta muito abaixo de seu potencial. O modelo do Valor do Cliente e o cálculo do Valor Vitalício do Cliente vêm ganhando destaque como referência bibliográfica no tema, provocando discussão nos meios acadêmicos e empresariais em torno de como projetar o fluxo de caixa futuro descontado, gerado por um cliente durante o tempo que manterá relacionamento comercial com a empresa. Apesar de na literatura acadêmica existirem diversos artigos descrevendo o cálculo do Valor do Cliente, poucos sugerem técnicas estatísticas e estimadores que poderiam ser úteis para este fim. O modelo de cálculo usado como referência neste estudo propõe uma combinação original envolvendo as técnicas de análise de sobrevivência com modelos lineares hierárquicos. Nesta tese será demonstrado como os Modelos Lineares Hierárquicos podem ser utilizados como uma importante ferramenta para entender, explicar e prever a margem de contribuição gerada por um cliente. Essa técnica recentemente passou a ser utilizada como ferramenta nas questões relacionadas à Administração de Empresas e ainda não foi aplicada no cálculo do Valor Vitalício do Cliente. Entre outras vantagens, a técnica permite levar em consideração, no cálculo, tanto as características individuais de cada cliente, quanto à tendência da margem gerada por ele ao longo do tempo. A Análise de Sobrevivência foi utilizada para modelar a probabilidade de um cliente manter o relacionamento comercial com a Administradora. Na tentativa de contribuir para o tema, este estudo desenvolveu uma aplicação a partir da modelagem desenvolvida por Cox (1972). Essa metodologia também permite estimar o comportamento do cliente levando em conta suas características individuais. Como ilustração, o modelo será aplicado em uma das cinco principais Administradoras de Cartões de Crédito do Brasil. Vale observar que o mesmo modelo poderia ser aplicado em outras indústrias com características semelhantes, como telefonia, provedores de internet, bancos e financeiras. Dada a natureza exploratória do estudo, suas conclusões se restringem à análise da amostra; entretanto, elas podem se constituir em um ponto de partida para outras pesquisas mais aprofundadas.
Resumo:
Esta tese trata de um tema fundamental na sociedade moderna: gestão escolar. O objetivo deste trabalho é contribuir com o gestor, ou a gestora, de Instituições de Ensino Superior de tal forma que ele, ou ela, tenha uma orientação calcada em resultados científicos sobre que ações e medidas devem ser tomadas para melhorar o desempenho de seus formandos em exames padronizados como o Exame Nacional de Cursos (ENC), também conhecido como Provão. Com base em uma extensa pesquisa de modelos de desempenho escolar, foi desenvolvido um modelo conceitual estimável pela técnica dos Modelos Lineares Hierárquicos. A seguir, o modelo estatístico foi ajustado utilizando-se os dados de desempenho escolar dos formandos do curso de Administração de Empresas que realizaram o de 2003. Com base nos resultados obtidos, procurou-se sugerir aos gestores escolares ações. Dessa forma, procurou-se preencher dois objetivos no início deste trabalho: (1) identificar variáveis que ajudem a explicar o desempenho de formandos nos cursos de graduação em Administração de Empresas em exames nacionais como o Provão e o ENADE e (2) oferecer insumos aos gestores de IES de Administração de Empresas sobre como seria possível gerenciar aquelas variáveis que estejam dentro do controle da instituição. Três variáveis, em especial, tiveram um efeito acentuado sobre o desempenho escolar no Provão: fluência na língua inglesa, freqüência de uso de computadores e avaliação que os respondentes fazem das competências a que foram expostos durante o curso superior. Porém, duas dificuldades de medição associadas a esses resultados devem ser consideradas. Em primeiro lugar, a fluência em inglês e o uso de computadores incorporam, em seu efeito, o efeito de variáveis latentes não incorporadas neste estudo. Dessa forma, a origem do efeito dessas duas variáveis não pode ser totalmente esclarecida e o gestor deve tomar diversas ações a fim de cobrir diversas possibilidades distintas. Em segundo lugar, está o fato de que a avaliação que se faz das competências é baseada na percepção de cada aluno e não em medidas intrínsecas de competências desenvolvidas ao longo do curso. Portanto, parte-se da premissa de que os alunos, em média, avaliam, corretamente, as competências que seus cursos os ajudaram a desenvolver. Nas limitações a este estudo, destacaram-se a unidimensionalidade do construto de eficácia escolar e o fato de que a variável utilizada considera o desempenho bruto dos alunos, não sendo uma medida de valor agregado. Além disso, mencionou-se, como limitação, a impossibilidade de se precisar a origem dos efeitos da fluência em inglês e do uso de computadores. Finalmente, as oportunidades de pesquisas futuras tratam de quatro áreas de pesquisas possíveis: (1) estudos comparativos com os resultados de cursos superiores em outras áreas; (2) estudos longitudinais; (3) ampliação do construto eficácia escolar e (4) construção de escalas e indicadores. Cada uma dessas áreas de pesquisa auxiliariam na superação das limitações encontradas no desenvolvimento deste trabalho.
Resumo:
O objetivo deste trabalho é analisar o crescimento dos ativos dos fundos de pensão em relação ao PIB, identificando quais variáveis atuaram de forma mais relevante para o crescimento observado desde o início da década de noventa até o ano de 2006. A relação dessas variáveis com o crescimento dos ativos em relação ao PIB será demonstrada empiricamente através da estimação das elasticidades utilizando modelos regressivos de séries temporais. A idéia principal de se utilizar esta modelagem é o fato dela ser facilmente interpretada, podendo suportar mais claramente a elaboração de políticas que alavanquem o crescimento da cobertura dos fundos de pensão no mercado de trabalho brasileiro. Este trabalho difere dos demais em três aspectos. O primeiro se refere à periodicidade dos dados analisados, sendo a deste trabalho um pouco mais longa que a dos demais. O segundo aspecto concentra-se na interpolação dos dados inexistentes das séries, cujo objetivo é aumentar o poder explicativo das séries com um maior número de observações. Por fim, o terceiro aspecto é o conjunto de variáveis escolhidas, uma vez que engloba tanto aquelas que atuam pelo lado da demanda quando da oferta de fundos de pensão.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
The increase in ultraviolet radiation (UV) at surface, the high incidence of non-melanoma skin cancer (NMSC) in coast of Northeast of Brazil (NEB) and reduction of total ozone were the motivation for the present study. The overall objective was to identify and understand the variability of UV or Index Ultraviolet Radiation (UV Index) in the capitals of the east coast of the NEB and adjust stochastic models to time series of UV index aiming make predictions (interpolations) and forecasts / projections (extrapolations) followed by trend analysis. The methodology consisted of applying multivariate analysis (principal component analysis and cluster analysis), Predictive Mean Matching method for filling gaps in the data, autoregressive distributed lag (ADL) and Mann-Kendal. The modeling via the ADL consisted of parameter estimation, diagnostics, residuals analysis and evaluation of the quality of the predictions and forecasts via mean squared error and Pearson correlation coefficient. The research results indicated that the annual variability of UV in the capital of Rio Grande do Norte (Natal) has a feature in the months of September and October that consisting of a stabilization / reduction of UV index because of the greater annual concentration total ozone. The increased amount of aerosol during this period contributes in lesser intensity for this event. The increased amount of aerosol during this period contributes in lesser intensity for this event. The application of cluster analysis on the east coast of the NEB showed that this event also occurs in the capitals of Paraiba (João Pessoa) and Pernambuco (Recife). Extreme events of UV in NEB were analyzed from the city of Natal and were associated with absence of cloud cover and levels below the annual average of total ozone and did not occurring in the entire region because of the uneven spatial distribution of these variables. The ADL (4, 1) model, adjusted with data of the UV index and total ozone to period 2001-2012 made a the projection / extrapolation for the next 30 years (2013-2043) indicating in end of that period an increase to the UV index of one unit (approximately), case total ozone maintain the downward trend observed in study period
Resumo:
The portfolio theory is a field of study devoted to investigate the decision-making by investors of resources. The purpose of this process is to reduce risk through diversification and thus guarantee a return. Nevertheless, the classical Mean-Variance has been criticized regarding its parameters and it is observed that the use of variance and covariance has sensitivity to the market and parameter estimation. In order to reduce the estimation errors, the Bayesian models have more flexibility in modeling, capable of insert quantitative and qualitative parameters about the behavior of the market as a way of reducing errors. Observing this, the present study aimed to formulate a new matrix model using Bayesian inference as a way to replace the covariance in the MV model, called MCB - Covariance Bayesian model. To evaluate the model, some hypotheses were analyzed using the method ex post facto and sensitivity analysis. The benchmarks used as reference were: (1) the classical Mean Variance, (2) the Bovespa index's market, and (3) in addition 94 investment funds. The returns earned during the period May 2002 to December 2009 demonstrated the superiority of MCB in relation to the classical model MV and the Bovespa Index, but taking a little more diversifiable risk that the MV. The robust analysis of the model, considering the time horizon, found returns near the Bovespa index, taking less risk than the market. Finally, in relation to the index of Mao, the model showed satisfactory, return and risk, especially in longer maturities. Some considerations were made, as well as suggestions for further work
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
The purpose of the study was to compare hemiparetic gait overground and on the treadmill. Seventeen chronic stroke patients were included in the study. They walked overground and on a treadmill level at the same speed. The Qualisys Medical AB motion analysis system was used to quantify the joint kinematic of the paretic lower limb and the spatio-temporal parameters on the two conditions: overground walking and treadmill walking on three samples of 5-minutes. During the first sample, the subjects walked on the treadmill with greater cadence, shorter stride length, shorter step time on the lower paretic limb, greater range of motion in the hip and knee, greater knee flexion at the initial contact, more extension of the knee and lower dorsiflexion of the ankle at the stance phase. It is important to emphasize that the maximal knee flexion and ankle dorsiflexion just occurred later on the treadmill. Comparisons between each walking sample on the treadmill hadn t revealed any changes on the gait parameters over time. Nonetheless, when analyzing the third walking sample on the treadmill and overground, some variables showed equivalence as such as the total range of motion of the hip, the knee angle at the initial contact and its maximal extension at the stance phase. In summary, walking on a treadmill, even thought having some influence on the familiarization process, haven t demonstrated a complete change in its characteristics of hemiparetic chronic patients
Resumo:
Background: Down syndrome (DS) is a genetic alteration characterized by being a nonprogressive congenital encephalopathy. Children with DS have hypotonia and developmental delays that interfere in the movement`s acquisition for these children. Objective: Analyze the effects of treadmill inclination on angle and spatiotemporal gait characteristics of these individuals. Methodology: We studied 23 subjects of both sexes, with ages ranged between 05 and 11 years, they presented ability to walk on level 5 classified according to the Functional Ambulation Category (FAC). Initially held a subjective evaluation of balance through a questionnaire (Berg Balance Scale-BBS) then the kinematic gait analysis was realized on a treadmill first, without inclination and then, with inclination of 10%, using the motion system analysis Qualisys System. Data analysis was done using BioStat 5.0 attributing significance level of 5%. Normality of data was verified using D'Agostino test and later was applied paired t-test to compare data in two experimental conditions. Results: There was a statistically significant difference in the spatiotemporal variables: reduction in the cadence (from 108.92 ± 39.07 to 99.11 ± 27.51, p <0.04), increase in cycle time (from 1.24 ± 0.27 to 1.36 ± 0.34, p = 0.03 ) and increase in time to take stock (from 0.77 ± 0.15 to 0.82 ± 0.18, p <0.001). Angular variables that showed statistically significant increasing were: the hip in the initial contact (12.23 ± 4.63 to 18.49 ± 5.17, p <0.0001) and max. flexion in balance (12.96±4:32 to 19.50 ± 4.51, p <0.0001 ), knee in the initial contact (15.59 to ± 6.71 to 21.63 ± 6.48, p <0.0001), the ankle in the initial contact (-2.79 ± 9.8 to 2.25 ± 8.79, p <0.0001), max dorsiflexion in stance (4.41 ± 10.07 to 7.13 ± 11.58, p <0.0009), maximum plantar flexion in the pre-assessment of the ankle joint (increase of -6.33 ± 8.77 to -2.69 ± 8.62, p <0.0004).Conclusions: The inclination acts in a positive way for angular and spatiotemporal features gait of children with Down syndrome, demonstrating possible benefit of using this surface in the gait rehabilitation of children with Down Syndrome
Resumo:
BACKGROUND: Treadmill training with partial body weight support (BWS) has shown many benefits for patients after a stroke. But their findings are not well known when combined with biofeedback. OBJETIVE: The purpose of this study was to evaluate the immediate effects of biofeedback, visual and auditory, combined with treadmill training with BWS on on walking functions of hemiplegic subjects. METHODS: We conducted a clinical trial, randomized controlled trial with 30 subjects in the chronic stage of stroke, underwent treadmill training with BWS (control), combined with visual biofeedback, given by the monitor of the treadmill through the symbolic appearance of feet as the subject gave the step; or auditory biofeedback, using a metronome with a frequency of 115% of the cadence of the individual. The subjects were evaluated by kinematics, and the data obtained by the Motion Analysis System Qualisys. To assess differences between groups and within each group after training was applied to ANOVA 3 x 2 repeated measures. RESULTS: There were no statistical differences between groups in any variable spatio-temporal and angular motion, but within each group there was an increase in walking speed and stride length after the training. The group of visual biofeedback increased the stance period and reduced the swing period and reason of symmetry, and the group auditory biofeedback reduced the double stance period. The range of motion of the knee and ankle and the plantar flexion increased in the visual biofeedback group. CONCLUSION: There are no differences between the immediate effects of gait training on a treadmill with BWS performed with and without visual or auditory biofeedback. However, the visual biofeedback can promote changes in a larger number of variables spatiotemporal and angular gait
Resumo:
Introduction: The intrinsic gait disorders in individuals with Parkinson's disease (PD) are one of the most disabling motor symptoms. Among the therapeutic approaches used in attempts to improve the motor function, especially the gait pattern of individuals, stands out the treadmill gait training associated with the addition of load. However, there are few findings that elucidate the benefits arising from such practice. Objective: To assess the effects of adding load on the treadmill gait training in individuals with PD. Material and Methods: A controlled, randomized and blinded clinical trial, was performed with a sample of 27 individuals (18 men and 9 women) with PD, randomly assigned to three experimental conditions, namely: treadmill gait training (n=9), treadmill gait training associated with addition of 5% load (n=9) and treadmill gait training associated with addition of 10% load (n=9). All volunteers were assessed, during phase on of Parkinson's medication, regarding to demographic, clinical and anthropometric (identification form) data, level of disability (Hoehn and Yahr Modified Scale), cognitive function (Mini Mental State Examination), clinical functional - in those areas activity of daily living and motor examination (Unified Parkinson's Disease Rating Scale - UPDRS) and gait cinematic analysis was performed through Qualisys Motion Capture System®. The intervention protocol consisted of gait training in a period of 4 consecutive weeks, with three weekly sessions, lasting 30 minutes each. The post-intervention assessment occurred the next day after the last training session, which was performed cinematic analysis of gait and the UPDRS. Data analysis was performed using the software Statistical Package for Social Sciences® (SPSS) 17.0. Results: The age of volunteers ranged from 41 to 75 years old (62,26 ± 9,07) and the time of clinical diagnosis of PD between 2 to 9 years (4,56 ± 2,42). There was a reduction regarding the score from motor exam domain (p=0,005), only when training with the addition of a 5% load. As for the space-time variables there was no significant difference between groups (p>0,120); however, the training with addition of 5% load presented the following changes: increase in stride length (p=0,028), in step length (p=0,006), in time balance of the most affected member (p=0,006) and reduction in support time of the referred member (p=0,007). Regarding angular variables significant differences between groups submitted to treadmill gait training without addition load and with 5% of load were observed in angle of the ankle at initial contact (p=0,019), in plantar flexion at toe-off (p=0,003) and in the maximum dorsiflexion in swing (p=0,005). While within groups, there was a reduction in amplitude of motion of the ankle (p=0,048), the only workout on the treadmill. Conclusion: The treadmill gait training with addition of 5% load proved to be a better experimental condition than the others because it provided greater gains in a number of variables (space-time and angular gait) and in the motion function, becoming a therapy capable of effectively improving the progress of individuals with PD
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior