907 resultados para Statistical model
Resumo:
This paper considers a class of dynamic Spatial Point Processes (PP) that evolves over time in a Markovian fashion. This Markov in time PP is hidden and observed indirectly through another PP via thinning, displacement and noise. This statistical model is important for Multi object Tracking applications and we present an approximate likelihood based method for estimating the model parameters. The work is supported by an extensive numerical study.
Resumo:
44 p.
Resumo:
In view of recent interest in the Cl37 (ʋ solar’e-)Ar37 reaction cross section, information on some aspects of mass 37 nuclei has been obtained using the K39 (d, ∝) Ar37 and Cl35 (He3, p) Ar37 reactions. Ar37 levels have been found at 0, 1.41, 1.62, 2.22, 2.50, 2.80, 3.17, 3.27, 3.53, 3.61, 3.71, (3.75), (3.90), 3.94, 4.02, (4.21), 4.28, 4.32, 4.40, 4.45, 4.58, 4.63, 4.74, 4.89, 4.98, 5.05, 5.10, 5.13, 5.21, 5.35, 5.41, 5.44, 5.54, 5.58, 5.67, 5.77, and 5.85 MeV (the underlined values correspond to previously tabulated levels). The nuclear temperature calculated from the Ar37 level density is 1.4 MeV. Angular distributions of the lowest six levels with the K39 (d, ∝) Ar37 reaction at Ed = 10 MeV indicate a dominant direct interaction mechanism and the inapplicability of the 2I + 1 rule of the statistical model. Comparison of the spectra obtained with the K39 (d, ∝) Ar37 and Cl35 (He3, p) Ar37 reactions leads to the suggestion that the 5.13-MeV level is the T = 3/2 Cl37 ground state analog. The ground state Q-value of the Ca40 (p, ∝) K37 reaction has been measured: -5179 ± 9 keV. This value implies a K37 mass excess of -24804 ± 10 keV. Description of a NMR magnetometer and a sixteen-detector array used in conjunction with a 61-cm double-focusing magnetic spectrometer are included in appendices.
Resumo:
This paper presents a method to generate new melodies, based on conserving the semiotic structure of a template piece. A pattern discovery algorithm is applied to a template piece to extract significant segments: those that are repeated and those that are transposed in the piece. Two strategies are combined to describe the semiotic coherence structure of the template piece: inter-segment coherence and intra-segment coherence. Once the structure is described it is used as a template for new musical content that is generated using a statistical model created from a corpus of bertso melodies and iteratively improved using a stochastic optimization method. Results show that the method presented here effectively describes a coherence structure of a piece by discovering repetition and transposition relations between segments, and also by representing the relations among notes within the segments. For bertso generation the method correctly conserves all intra and inter-segment coherence of the template, and the optimization method produces coherent generated melodies.
Resumo:
Esta é uma tese centrada nas estratégias empregadas pelos eleitores para o processamento das informações sobre a política, no contexto da campanha presidencial brasileira de 2006. Propusemos, neste trabalho, um modelo estatístico para o processamento da informação sobre a política, construído a partir da contribuição de estudos realizados nos campos de conhecimento das ciências sociais, da economia, da psicologia cognitiva e da comunicação, e, sobretudo, a partir das evidências extraídas de nosso desenho de pesquisa. Este combinou métodos qualitativo, quantitativo e a análise das estratégias retóricas empregadas por candidatos e partidos políticos no Horário Gratuito de Propaganda Eleitoral (HGPE), elemento dinâmico de nosso estudo, por sintetizar os fluxos de informação no ambiente das campanhas políticas. Esse conjunto de abordagens metodológicas, foi empregado para o estudo de caso do eleitor belo-horizontino, inserido no complexo ambiente informacional das campanhas presidenciais. Com informações incompletas, o eleitor precisou escolher em quem acreditar, lidando com a incerteza dos resultados do pleito e com a incerteza em relação ao comportamento futuro dos atores, cioso de que as retóricas da campanha estavam orientadas para a persuasão. O nosso trabalho procurou mapear as estratégias empregadas pelos eleitores na seleção de temas do debate para a atenção e para o processamento das novas informações sobre a política, adquiridas em interações múltiplas ao longo da campanha. Essa complexa tarefa foi destinada à escolha de por quem ser persuadido. Procuramos responder, neste trabalho, a partir das evidências empíricas, várias preocupações deste campo de conhecimento, entre elas: 1) Em meio a tantos temas abordados na disputa entre partidos e candidatos, quais deles e por que o indivíduo escolhe para prestar atenção e acreditar? 2) Que variáveis intermedeiam e qual o seu peso nesse processo de interação com as novas informações para explicar a tomada de decisão? 3) As prioridades da agenda política do eleitor se alteram ao longo da campanha? 4) Os eleitores ampliam o repertório mais geral de informação sobre a política? 5) As percepções sobre avaliação de governo e em relação aos temas prioritários da agenda do eleitor se alteram ao longo da campanha?
Resumo:
Esta tese se insere no conjunto de pesquisas que procura entender como funcionam as eleições no Brasil. Especificamente, o objetivo é investigar a propaganda negativa durante as eleições presidenciais. Para tal foram desenvolvidos cinco capítulos. O primeiro situa o leitor no debate normativo sobre o papel da propaganda negativa para a democracia eleitoral. Nele, é debatida a importância dos ataques em uma série de circunstâncias, como mobilização política, ambiente informacional e decisão do voto. O segundo capítulo constitui ampla análise do conteúdo da propaganda negativa exibida no âmbito do Horário Gratuito de Propaganda Eleitoral durante as eleições presidenciais de 1989, 1994, 1998, 2002, 2006 e 2010, primeiro e segundo turnos. A metodologia seguiu as orientações formuladas por Figueiredo et all. (1998), mas adaptadas para as especificidades da propaganda negativa. Neste objetivo, tendências interessantes foram descobertas, a mais interessante, sem dúvida, é o baixo índice de ataques ocorrido entre os candidatos. O terceiro busca investigar o uso estratégico das inserções durante as campanhas presidenciais. Debato o caráter regulamentado do modelo brasileiro de propaganda. Ainda assim, aponto estratégias divergentes no uso estratégico das inserções negativas, sendo o horário noturno o lócus predominante dos ataques. O quarto capítulo procura criar um modelo de campanha negativa com base na teoria dos jogos. No modelo, procuro responder às seguintes questões: quem ataca quem, quando e por quê? Argumento que a propaganda negativa é o último recurso utilizado pelos candidatos na conquista por votos. Ela tem como propósito central alterar a tendência do adversário. Por essa razão, é utilizada principalmente por candidatos em situações de desvantagem nos índices de intenção de voto. O quinto e último capítulo desenvolve modelo estatístico para medir o impacto da propaganda negativa nos índices de intenção de voto.
Resumo:
A obesidade é uma condição de saúde que representa risco para uma série de mudanças fisiológicas e sociais ao indivíduo. O aumento de sua prevalência tanto no mundo quanto na população brasileira é considerado como um dos maiores problemas de saúde pública. A obesidade é associada com múltiplos fatores, como biológicos, individuais, ambientais e sociais, e a importância dos fatores sociais vêm sendo largamente discutida. O apoio social, que possui como uma de suas definições, a percepção de recursos disponibilizados por outros indivíduos no auxílio ao enfrentamento de situações adversas é um dos fatores sociais associados com obesidade e outros desfechos de saúde. Este constructo é um fator amplamente documentado que vem se mostrando ligado a vários desfechos de saúde nos últimos trinta anos, no entanto, existe uma lacuna sobre sua relação com o índice de massa corporal. Dessa forma, o presente estudo tem como objetivo estudar avaliar a associação entre as dimensões de apoio social e o IMC em indivíduos residentes no município de Duque de Caxias. A variável desfecho foi o IMC e as variáveis independentes, as quatro dimensões do apoio social (afetiva, material, emocional/informação e de interação social positiva). O estudo foi composto por uma amostra de 1465 indivíduos, entre 20 e 59 anos de idade, oriundos de uma pesquisa transversal de base populacional, chamada Grupo de Pesquisas sobre Segurança Alimentar e Nutricional em Duque de Caxias SANDUC. O IMC foi calculado a partir das aferições de peso e altura realizadas por entrevistadores treinados. O instrumento utilizado para avaliar o apoio social foi elaborado para o Medical Outcomes Study (MOS), tendo sido previamente adaptado para o português e validado para a população brasileira. O modelo estatístico utilizado foi a regressão linear múltipla e as análises foram realizadas através do programa SAS versão 9.3, levando em conta o fator de ponderação e o desenho de amostra complexa. Pouco mais da metade dos indivíduos eram do sexo feminino (54,94%) e a prevalência de obesidade em torno de 27,1% entre as mulheres (IC 95%: 22.4 31.8) e 16,0% (IC 95%: 12.4 19.7) entre os homens. Com relação ao apoio social, a média dos escores das dimensões situou-se entre 84 e 90 pontos, para as mulheres e para os homens, respectivamente. Entre os homens não houve associação estatisticamente significativa entre as dimensões do apoio social e o IMC (apoio afetivo: β= -0.81 e p=0.16; apoio material: β= 0.20 e p=0.72; apoio emocional/informação: β= -0.29 e p=0.61; apoio de interação social positiva: β= -0.23 e p=0.72). Porém, entre as mulheres, tanto o apoio afetivo quanto o apoio de interação social positiva mostraram associação negativa com o IMC (apoio afetivo: β= -1.02 e p=0.04; apoio de interação social positiva: β= -1.18 e p=0.01). O presente estudo sugere que, entre as mulheres, ocorre associação inversa entre o apoio social, especificamente o apoio afetivo e o de interação social positiva, e o índice de massa corporal.
Resumo:
This is the assessment and exploitation of eel (Anguilla anguilla. L) stocks in the River Thames and its catchment performed by the Polytechnic of Central London and The Thames Water Authority Research Project between April 1985 and April 1986. The report makes an examination of the pre-pollution history of the Thames eel fishing industry to permit an assessment of the recovery of the eel stock following the cleaning up of the Tideway. Archive material shows that the 19th Century stock was larger and more widely distributed than it is today, and the natural recruitment of elvers to the system is now much smaller. Sampling of commercial catches and trapping studies, including comparisons of different mesh sizes, have been undertaken in order to develop a statistical model of the Inner Estuary eel stock and its fishery. Local migrations and activity throughout the year are studied. Electro—fishing methods and eel traps are compared using mark-recapture techniques in order to develop an accurate means of assessing relative abundance and distribution. Work so far has concentrated mainly on the Rivers Darent and Roding but a preliminary distribution map for the whole catchment has been prepared. An experimental trapping site was established on the River Darent to investigate natural recruitment and up—river migration of elvers and juvenile eels. 1790 small eels were taken in 1985 providing information on the scale, timings and factors affecting the migration.
Equação de referência do Teste do Degrau medida em distância para indivíduos saudáveis e sedentários
Resumo:
O teste de caminhada em seis minutos (TC6M) avalia a capacidade respiratória durante o exercício. Recentemente, o teste do degrau em seis minutos (TD6M) está sendo estudado como uma proposta para essa mesma avaliação. Diante do exposto, o desenvolvimento de uma equação de referência se torna importante. O objetivo desse estudo foi desenvolver uma equação de referência padrão para o Teste do Degrau em Seis minutos. Esse estudo foi do tipo transversal, em que foram selecionados 452 indivíduos. Após a aplicação dos critérios de inclusão/exclusão, foram selecionados 326 sujeitos saudáveis e sedentários com idade entre 20 e 80 anos. Para serem considerados saudáveis, os participantes não podiam ter história de doenças (exceto hipertensão arterial sistêmica ou diabetes mellitus em tratamento) e foram submetidos à radiografia de tórax, espirometria e eletrocardiograma, que deveriam ser normais. O nível de sedentarismo foi avaliado através do International Physical Activity Questionnaire (IPAQ). Foram coletados os seguintes dados demográficos: idade, peso e altura. Todos os indivíduos realizaram TD6M na sua própria cadência (autocadenciado) em um degrau de 16,5 cm de altura, 65 de largura e 30 cm de comprimento. O número de subidas e descidas foi contado por um pedômetro digital. Foram mensuradas a pressão arterial, a frequência cardíaca e a saturação de oxigênio, antes e depois do TD6M. A análise estatística foi realizada pelo software STATA 12.0, e as equações foram desenvolvidas pelo modelo estatístico de regressão linear múltipla. Como resultado, observou-se que os participantes apresentaram exames normais, sendo 135 homens e 191 mulheres. O IPAQ demonstrou 157 ativos, 114 irregularmente ativos e 40 inativos, sendo que 14 indivíduos não responderam. A análise da distância alcançada em relação à idade e à diferença da frequência cardíaca tanto para homens quanto para mulheres mostrou significância estatística, demonstrando a sua importância para o desenvolvimento das equações para cada gênero. Para mulheres: Distância (m) = 88,83 - [(FC final- FC inicial)* 0,23] (Idade *0,37); para homens: Distância (m)= 110,20 - [(FC final- FC inicial)*0,18] (Idade * 0,59). O estudo concluiu que as equações de referência desenvolvidas nesse estudo foram realizadas em uma população de indivíduos saudáveis e sedentários e pode ser usada como padrão de referência para o TD6M.
Resumo:
Numerous integrated time series have been assembled that suggest global temperature has been increasing steadily over the last century. ... However, superimposed on the long-term warming trends of these series are decadal-scale fluctuations, periods of slightly increasing and even decreasing temperature followed by rapid increases in temperature. ... In this pilot study, data for 1931-1990 from eight [western North America] coastal stations are examined to test the utility of a state-space statistical model (developed by Dr. Roy Mendelssohn, PFEG) in separating and describing seasonal patterns and long-term trends.
Resumo:
研究了新疆阜康地区森林植被资源与环境的特征和其30年来的变化,利用Arcinfo强大的空间分析功能,对资源、DEM模型、景观指数、环境价值和新疆降水量的地统计学规律进行较全面的分析。本文分为五个部分: 1、新疆阜康地区森林资源与环境空间数据库的建立森林资源与环境空间数据库的建立是它们空问分析的基础。利用多期的遥感图象和该区的地形图,建立森林分类图形和属性库(包括森林和环境自变量集)一体化的GIS空间数据库。为了提高TM遥感图象的分类精度,利用ERDAS图象处理软件,对它进行包括主成分、降噪、去条带和自然色彩变换等增强处理,采用监督分类和人工判读相结合的方法进行分类,采用R2V、ERDAS、Arcview、Arcinfo等软件的集成,使得小班面层与某些线层的无缝联接。成功地形成一套适于西部GIS的森林资源与环境空间数据库的技术路径。此外,对新疆阜康北部地区森林资源动态进行初步分析。 2、新疆阜康地区数字高程模型(DEM)及其粗差检测分析为了提高生态建模的精度,模拟和提取该区的地面特征至关重要。在已建立的森林资源与环境空间数据库的支持下,利用Arcinfo和ERDAS,建立了新疆阜康地区的1:5万数字高程模型(DEM)。通过提取地形的海拔、坡度、坡向特征因子,分析森林植被的垂直分布。通过对DEM的粗差检测分析,分析阜康地区的数字高程模型精度。 3、新疆阜康地区景观格局变化分析在1977年、1987年、1999年森林资源与环境空间数据库的支持下,利用景观分析软件编制三个时段的新疆阜康地区植被景观类型图,并分析了近30年来新疆阜康地区景观动态与景观格局变化。结果表明:①在此期间整个研究区的斑块数减少,斑块平均面积扩大,景观中面积在不同景观要素类型之间的分配更加不均衡,景观面积向少数几种类型聚集。说明了在这期间阜康地区的景观类型有向单一化方向发展的趋势;②农耕地分布呈破碎化的趋势,斑块平均面积变小,斑块间离散程度也更高:这些变化说明人为的经济活动在阜康地区的加剧,③天然林面积减少较多,水域的面积却呈现上升的趋势,冰川及永久积雪的面积呈下降趋势, 4、新疆阜康地区森林生态效益的初步分析从广义森林生态效益定义出发,针对12种森林生态效益因变量不完全独立、且各自的自变量集不完全相同,引入具有多对多特征且整体上相容的似乎不相关广义线性模型。通过构造12种森林生态效益的“有效面积系数”和“市场逼近系数”,在森林资源与环境空间数据库的支持下,对新疆阜康地区两期的森林生态效益进行科学的计量。结果表明:新疆阜康地区的森林生态效益货币量1987年是90673.8万元,1999年是84134.4万元,总体上呈下降趋势。 5、利用新疆气象站资料研究年降雨量的空间分布规律利用ArcGIS地统计学模块,在2000年新疆气候信息空间数据库和新疆DEM模型的支持下,做出了新疆地区的年降水量空间分布图。根据新疆气候资料建立趋势而分析模型、模拟了新疆降水量空间分布的趋势值。采用3种算法(距离权重法、普通Kriging法、协同Kriging方法)计算并比较分析了研究区多年的平均降水量的时空变化。利用模拟产生的精度最优的栅格降水空间数据库,建立的多年平均降水资源信息系统,可快速计算研究区内任一地域单元中降水的总量及其空间变化,可以生成高精度的气候要素空间分布图。
Resumo:
In spite of over two decades of intense research, illumination and pose invariance remain prohibitively challenging aspects of face recognition for most practical applications. The objective of this work is to recognize faces using video sequences both for training and recognition input, in a realistic, unconstrained setup in which lighting, pose and user motion pattern have a wide variability and face images are of low resolution. In particular there are three areas of novelty: (i) we show how a photometric model of image formation can be combined with a statistical model of generic face appearance variation, learnt offline, to generalize in the presence of extreme illumination changes; (ii) we use the smoothness of geodesically local appearance manifold structure and a robust same-identity likelihood to achieve invariance to unseen head poses; and (iii) we introduce an accurate video sequence "reillumination" algorithm to achieve robustness to face motion patterns in video. We describe a fully automatic recognition system based on the proposed method and an extensive evaluation on 171 individuals and over 1300 video sequences with extreme illumination, pose and head motion variation. On this challenging data set our system consistently demonstrated a nearly perfect recognition rate (over 99.7%), significantly outperforming state-of-the-art commercial software and methods from the literature. © Springer-Verlag Berlin Heidelberg 2006.
Resumo:
In our studies, 88 human mRNA samples were collected from the Integrated Sequence-Structure database and then the dynamic process in co-transcriptional mRNA folding was simulated using the RNAstructure version 4.1 program. Through statistical analyses of the frequencies of occurrence of hairpins, a group of special folding structures-the 'common hairpins'-were identified. These 'common hairpins' have lower energies and occur in all the subsequent folding units that formed in the dynamic folding process. By applying the formulas (1)-(4) of the 'common hairpins' statistical model, 163 'common hairpins' were found, to make up about 7% of the total of 2286 hairpins. Classified studies further show that the 'common hairpins' that were studied may oscillate in the dynamic folding process. However, the hairpin loops of the 'common hairpins' and stems proximal to those 'common hairpins' loops maintain topologically stable structures, while other loops and stems distal to the 'common hairpins' loops are shown to be alterable structures. Strikingly, further studies indicate that the stable structures of these 'common hairpins' may have unbeknown effects on controlling the formation of protein structures in the translation process (unpublished results). (c) 2005 Elsevier B.V. All rights reserved.
Resumo:
Natural sounds are structured on many time-scales. A typical segment of speech, for example, contains features that span four orders of magnitude: Sentences ($\sim1$s); phonemes ($\sim10$−$1$ s); glottal pulses ($\sim 10$−$2$s); and formants ($\sim 10$−$3$s). The auditory system uses information from each of these time-scales to solve complicated tasks such as auditory scene analysis [1]. One route toward understanding how auditory processing accomplishes this analysis is to build neuroscience-inspired algorithms which solve similar tasks and to compare the properties of these algorithms with properties of auditory processing. There is however a discord: Current machine-audition algorithms largely concentrate on the shorter time-scale structures in sounds, and the longer structures are ignored. The reason for this is two-fold. Firstly, it is a difficult technical problem to construct an algorithm that utilises both sorts of information. Secondly, it is computationally demanding to simultaneously process data both at high resolution (to extract short temporal information) and for long duration (to extract long temporal information). The contribution of this work is to develop a new statistical model for natural sounds that captures structure across a wide range of time-scales, and to provide efficient learning and inference algorithms. We demonstrate the success of this approach on a missing data task.
Resumo:
We consider the inverse reinforcement learning problem, that is, the problem of learning from, and then predicting or mimicking a controller based on state/action data. We propose a statistical model for such data, derived from the structure of a Markov decision process. Adopting a Bayesian approach to inference, we show how latent variables of the model can be estimated, and how predictions about actions can be made, in a unified framework. A new Markov chain Monte Carlo (MCMC) sampler is devised for simulation from the posterior distribution. This step includes a parameter expansion step, which is shown to be essential for good convergence properties of the MCMC sampler. As an illustration, the method is applied to learning a human controller.