876 resultados para Modeling Rapport Using Hidden Markov Models


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The effect of thermal treatment on phenolic compounds and type 2 diabetes functionality linked to alpha-glucosidase and alpha-amylase inhibition and hypertension relevant angiotensin I-converting enzyme (ACE) inhibition were investigated in selected bean (Phaseolus vulgaris L,) cultivars from Peru and Brazil using in vitro models. Thermal processing by autoclaving decreased the total phenolic content in all cultivars, whereas the 1,1-diphenyl-2-picrylhydrazyl radical scavenging activity-linked antioxidant activity increased among Peruvian cultivars, alpha-Amylase and alpha-glucosidase inhibitory activities were reduced significantly after heat treatment (73-94% and 8-52%, respectively), whereas ACE inhibitory activity was enhanced (9-15%). Specific phenolic acids such as chlorogenic and caffeic acid increased moderately following thermal treatment (2-16% and 5-35%, respectively). No correlation was found between phenolic contents and functionality associated to antidiabetes and antihypertension potential, indicating that non phenolic compounds may be involved. Thermally processed bean cultivars are interesting sources of phenolic acids linked to high antioxidant activity and show potential for hypertension prevention.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

It is recognized that vascular dispersion in the liver is a determinant of high first-pass extraction of solutes by that organ. Such dispersion is also required for translation of in-vitro microsomal activity into in-vivo predictions of hepatic extraction for any solute. We therefore investigated the relative dispersion of albumin transit times (CV2) in the livers of adult and weanling rats and in elasmobranch livers. The mean and normalized variance of the hepatic transit time distribution of albumin was estimated using parametric non-linear regression (with a correction for catheter influence) after an impulse (bolus) input of labelled albumin into a single-pass liver perfusion. The mean +/- s.e. of CV2 for albumin determined in each of the liver groups were 0.85 +/- 0.20 (n = 12), 1.48 +/- 0.33 (n = 7) and 0.90 +/- 0.18 (n = 4) for the livers of adult and weanling rats and elasmobranch livers, respectively. These CV2 are comparable with that reported previously for the dog and suggest that the CV2 Of the liver is of a similar order of magnitude irrespective of the age and morphological development of the species. It might, therefore, be justified, in the absence of other information, to predict the hepatic clearances and availabilities of highly extracted solutes by scaling within and between species livers using hepatic elimination models such as the dispersion model with a CV2 of approximately unity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Observations of accelerating seismic activity prior to large earthquakes in natural fault systems have raised hopes for intermediate-term eartquake forecasting. If this phenomena does exist, then what causes it to occur? Recent theoretical work suggests that the accelerating seismic release sequence is a symptom of increasing long-wavelength stress correlation in the fault region. A more traditional explanation, based on Reid's elastic rebound theory, argues that an accelerating sequence of seismic energy release could be a consequence of increasing stress in a fault system whose stress moment release is dominated by large events. Both of these theories are examined using two discrete models of seismicity: a Burridge-Knopoff block-slider model and an elastic continuum based model. Both models display an accelerating release of seismic energy prior to large simulated earthquakes. In both models there is a correlation between the rate of seismic energy release with the total root-mean-squared stress and the level of long-wavelength stress correlation. Furthermore, both models exhibit a systematic increase in the number of large events at high stress and high long-wavelength stress correlation levels. These results suggest that either explanation is plausible for the accelerating moment release in the models examined. A statistical model based on the Burridge-Knopoff block-slider is constructed which indicates that stress alone is sufficient to produce accelerating release of seismic energy with time prior to a large earthquake.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The three-dimensional structures of leucine-rich repeat (LRR) -containing proteins from five different families were previously predicted based on the crystal structure of the ribonuclease inhibitor. using an approach that combined homology-based modeling, structure-based sequence alignment of LRRs, and several rational assumptions. The structural models have been produced based on very limited sequence similarity, which, in general. cannot yield trustworthy predictions. Recently, the protein structures from three of these five families have been determined. In this report we estimate the quality of the modeling approach by comparing the models with the experimentally determined structures. The comparison suggests that the general architecture, curvature, interior/exterior orientations of side chains. and backbone conformation of the LRR structures can be predicted correctly. On the other hand. the analysis revealed that, in some cases. it is difficult to predict correctly the twist of the overall super-helical structure. Taking into consideration the conclusions from these comparisons, we identified a new family of bacterial LRR proteins and present its structural model. The reliability of the LRR protein modeling suggests that it would be informative to apply similar modeling approaches to other classes of solenoid proteins.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Preliminary version

Relevância:

100.00% 100.00%

Publicador:

Resumo:

25th Annual Conference of the European Cetacean Society, Cadiz, Spain 21-23 March 2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

IEEE International Symposium on Circuits and Systems, pp. 724 – 727, Seattle, EUA

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uma nova tecnologia, os EDLC, também denominados por supercondensadores, tem-se tornado numa importante e aliciante área de interesse. Estes regem-se pelos mesmos princípios fundamentais dos condensadores clássicos, no entanto possibilitam receber capacidades superiores, devido a uma maior área de superfície e a um dielétrico menos espesso. Esta particularidade permite obter uma maior densidade energética, comparativamente com os condensadores clássicos e uma maior densidade de potência, comparativamente com as baterias. Consequentemente a utilização de supercondensadores tem aumentado, representando já uma alternativa fiável, segura e amiga do ambiente, em detrimento das baterias comuns. Assim, este projeto tem como principais objetivos, identificar os diferentes tipos de supercondensadores, apresentar as vantagens de cada tipo e explorar a sua resposta, quer no domínio das frequências quer no domínio dos tempos, e por fim modelá-los recorrendo a componentes elétricos clássicos, nomeadamente resistências e condensadores. A modelação foi realizada recorrendo ao MALTAB, através da função de minimização fminunc e foram construídos quatro modelos equivalentes, com o objetivo de modelar a resposta dos vários EDLC analisados. Por escassez de tempo o principal foco de análise recaiu sobre o EDLC de 0,022 F.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação para Obtenção de Grau de Mestre em Engenharia Química e Bioquímica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

INTRODUCTION: Forecasting dengue cases in a population by using time-series models can provide useful information that can be used to facilitate the planning of public health interventions. The objective of this article was to develop a forecasting model for dengue incidence in Campinas, southeast Brazil, considering the Box-Jenkins modeling approach. METHODS: The forecasting model for dengue incidence was performed with R software using the seasonal autoregressive integrated moving average (SARIMA) model. We fitted a model based on the reported monthly incidence of dengue from 1998 to 2008, and we validated the model using the data collected between January and December of 2009. RESULTS: SARIMA (2,1,2) (1,1,1)12 was the model with the best fit for data. This model indicated that the number of dengue cases in a given month can be estimated by the number of dengue cases occurring one, two and twelve months prior. The predicted values for 2009 are relatively close to the observed values. CONCLUSIONS: The results of this article indicate that SARIMA models are useful tools for monitoring dengue incidence. We also observe that the SARIMA model is capable of representing with relative precision the number of cases in a next year.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hand gestures are a powerful way for human communication, with lots of potential applications in the area of human computer interaction. Vision-based hand gesture recognition techniques have many proven advantages compared with traditional devices, giving users a simpler and more natural way to communicate with electronic devices. This work proposes a generic system architecture based in computer vision and machine learning, able to be used with any interface for human-computer interaction. The proposed solution is mainly composed of three modules: a pre-processing and hand segmentation module, a static gesture interface module and a dynamic gesture interface module. The experiments showed that the core of visionbased interaction systems could be the same for all applications and thus facilitate the implementation. For hand posture recognition, a SVM (Support Vector Machine) model was trained and used, able to achieve a final accuracy of 99.4%. For dynamic gestures, an HMM (Hidden Markov Model) model was trained for each gesture that the system could recognize with a final average accuracy of 93.7%. The proposed solution as the advantage of being generic enough with the trained models able to work in real-time, allowing its application in a wide range of human-machine applications. To validate the proposed framework two applications were implemented. The first one is a real-time system able to interpret the Portuguese Sign Language. The second one is an online system able to help a robotic soccer game referee judge a game in real time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectiu d’aquest projecte que consisteix a elaborar un algoritme d’optimització que permeti, mitjançant un ajust de dades per mínims quadrats, la extracció dels paràmetres del circuit equivalent que composen el model teòric d’un ressonador FBAR, a partir de les mesures dels paràmetres S. Per a dur a terme aquest treball, es desenvolupa en primer lloc tota la teoria necessària de ressonadors FBAR. Començant pel funcionament i l’estructura, i mostrant especial interès en el modelat d’aquests ressonadors mitjançant els models de Mason, Butterworth Van-Dyke i BVD Modificat. En segon terme, s’estudia la teoria sobre optimització i programació No-Lineal. Un cop s’ha exposat la teoria, es procedeix a la descripció de l’algoritme implementat. Aquest algoritme utilitza una estratègia de múltiples passos que agilitzen l'extracció dels paràmetres del ressonador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJECTIVE: To investigate the evolution of delirium of nursing home (NH) residents and their possible predictors. DESIGN: Post-hoc analysis of a prospective cohort assessment. SETTING: Ninety NHs in Switzerland. PARTICIPANTS: Included 14,771 NH residents. MEASUREMENTS: The Resident Assessment Instrument Minimum Data Set and the Nursing Home Confusion Assessment Method were used to determine follow-up of subsyndromal or full delirium in NH residents using discrete Markov chain modeling to describe long-term trajectories and multiple logistic regression analyses to determine predictors of the trajectories. RESULTS: We identified four major types of delirium time courses in NH. Increasing severity of cognitive impairment and of depressive symptoms at the initial assessment predicted the different delirium time courses. CONCLUSION: More pronounced cognitive impairment and depressive symptoms at the initial assessment are associated with different subsequent evolutions of delirium. The presence and evolution of delirium in the first year after NH admission predicted the subsequent course of delirium until death.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article aims to present the conceptual and methodological framework in which models techniques for species and ecosystems distribution are developed. An historical review of concepts behind these techniques is made as well as the presentation of the major methodological steps involved in these tests. A discussion on how these approaches are useful for the development of new questions in the field of biogeography and biological conservation is generated. Finally, an application of distribution modeling techniques, using the specie Beilschmiedia miersii (belloto Del Norte) as a study case, is presented. This conceptual and methodological review as well as the example applied, seeks to clarify the usefulness and potential of distribution models techniques, with the objective to go forward in biogeography research and thus, farther progress in understanding spatial and temporal patterns of organism's distribution