983 resultados para WEIGHTED POISSON DISTRIBUTION AND CONWAY-MAXWELL POISSON DISTRIBUTION


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: Approximately two percent of Finns have sequels after traumatic brain injury (TBI), and many TBI patients are young or middle-aged. The high rate of unemployment after TBI has major economic consequences for society, and traumatic brain injury often has remarkable personal consequences, as well. Structural imaging is often needed to support the clinical TBI diagnosis. Accurate early diagnosis is essential for successful rehabilition and, thus, may also influence the patient’s outcome. Traumatic axonal injury and cortical contusions constitute the majority of traumatic brain lesions. Several studies have shown magnetic resonance imaging (MRI) to be superior to computed tomography (CT) in the detection of these lesions. However, traumatic brain injury often leads to persistent symptoms even in cases with few or no findings in conventional MRI. Aims and methods: The aim of this prospective study was to clarify the role of conventional MRI in the imaging of traumatic brain injury, and to investigate how to improve the radiologic diagnostics of TBI by using more modern diffusion-weighted imaging (DWI) and diffusion tensor imaging (DTI) techniques. We estimated, in a longitudinal study, the visibility of the contusions and other intraparenchymal lesions in conventional MRI at one week and one year after TBI. We used DWI-based measurements to look for changes in the diffusivity of the normal-appearing brain in a case-control study. DTI-based tractography was used in a case-control study to evaluate changes in the volume, diffusivity, and anisotropy of the long association tracts in symptomatic TBI patients with no visible signs of intracranial or intraparenchymal abnormalities on routine MRI. We further studied the reproducibility of different tools to identify and measure white-matter tracts by using a DTI sequence suitable for clinical protocols. Results: Both the number and extent of visible traumatic lesions on conventional MRI diminished significantly with time. Slightly increased diffusion in the normal-appearing brain was a common finding at one week after TBI, but it was not significantly associated with the injury severity. Fractional anisotropy values, that represent the integrity of the white-matter tracts, were significantly diminished in several tracts in TBI patients compared to the control subjects. Compared to the cross-sectional ROI method, the tract-based analyses had better reproducibility to identify and measure white-matter tracts of interest by means of DTI tractography. Conclusions: As conventional MRI is still applied in clinical practice, it should be carried out soon after the injury, at least in symptomatic patients with negative CT scan. DWI-related brain diffusivity measurements may be used to improve the documenting of TBI. DTI tractography can be used to improve radiologic diagnostics in a symptomatic TBI sub-population with no findings on conventional MRI. Reproducibility of different tools to quantify fibre tracts vary considerably, which should be taken into consideration in the clinical DTI applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Suomen hallintotuomioistuinten mittaristotyöryhmä on laatinut oikeusasioiden hallintaa parantavan käsittelyn viivästymisestä varoittavan hälytysjärjestelmän sekä luokitellut asiat työmäärään perustuen. Luokille on laadittu työmäärää kuvaavat painokertoimet. Tämän diplomityön tavoitteena on tutkia asiahallintajärjestelmään tehtyjen uudistusten mahdollistamia suorituskyvynmittauksen ja tavoiteasetannan kehittämismahdollisuuksia asiavirtauksen näkökulmasta. Tavoitteeseen pääsemiseksi selvitetään työmääräpainotuksen vaikutuksia hallinto-oikeuksien suorituskyvyn tunnuslukuihin sekä analysoidaan hallinto-oikeuksien suorituskykyä työmääräpainotuksella vuosina 2009-2012. Raportti sisältää tutkimuksen aihetta käsittelevän teoriakatsauksen ja kohdeorganisaatiota tutkivan empiirisen osuuden. Empiirinen osuus perustuu vahvasti kvantitatiiviseen tutkimukseen. Tutkimuksen tuloksena havaittiin, että työmääräpainotus kaventaa hallintooikeuksien välisiä suorituskykyeroja, mutta huomattavia eroja esiintyy myös työmääräpainotuksilla tarkasteltuna. Hallinto-oikeuksien suorituskyvyissä esiintyy eroja sekä oikeuksien välillä että oikeuksien sisällä eri vuosina. Analysoimalla nykyisiä suorituskyvyn mittauksen ja tavoiteasetannan käytäntöjä, voidaan esittää neljä kehittämisen painopistettä: 1) tavoiteasetannan tekeminen pidemmälle tähtäimelle, 2) mittauksen ja seurannan painopiste toteutuneesta ennakointiin, 3) suorituskyvyn tunnusluvut vastaamaan työmääräpainotusta ja 4) tavoitetasojen yhdenmukaistaminen. Näiden havaittujen kehittämispainopisteiden ja suorituskykyanalyysien pohjalta luotiin vaihtoehtoinen tapa mitata suorituskykyä ja asettaa tavoitteita. Kehittämisehdotusta havainnollistettiin erilaisten skenaarioiden avulla. Työ tarjoaa hyödyllistä tietoa hallinto-oikeuksien suorituskyvystä ja siitä millaisia mahdollisuuksia asianhallinnan uudistukset tuovat hallinto-oikeuksien suorituskyvyn kehittämiseen ja seurantaan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A novel approach to multiclass tumor classification using Artificial Neural Networks (ANNs) was introduced in a recent paper cite{Khan2001}. The method successfully classified and diagnosed small, round blue cell tumors (SRBCTs) of childhood into four distinct categories, neuroblastoma (NB), rhabdomyosarcoma (RMS), non-Hodgkin lymphoma (NHL) and the Ewing family of tumors (EWS), using cDNA gene expression profiles of samples that included both tumor biopsy material and cell lines. We report that using an approach similar to the one reported by Yeang et al cite{Yeang2001}, i.e. multiclass classification by combining outputs of binary classifiers, we achieved equal accuracy with much fewer features. We report the performances of 3 binary classifiers (k-nearest neighbors (kNN), weighted-voting (WV), and support vector machines (SVM)) with 3 feature selection techniques (Golub's Signal to Noise (SN) ratios cite{Golub99}, Fisher scores (FSc) and Mukherjee's SVM feature selection (SVMFS))cite{Sayan98}.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Several pixel-based people counting methods have been developed over the years. Among these the product of scale-weighted pixel sums and a linear correlation coefficient is a popular people counting approach. However most approaches have paid little attention to resolving the true background and instead take all foreground pixels into account. With large crowds moving at varying speeds and with the presence of other moving objects such as vehicles this approach is prone to problems. In this paper we present a method which concentrates on determining the true-foreground, i.e. human-image pixels only. To do this we have proposed, implemented and comparatively evaluated a human detection layer to make people counting more robust in the presence of noise and lack of empty background sequences. We show the effect of combining human detection with a pixel-map based algorithm to i) count only human-classified pixels and ii) prevent foreground pixels belonging to humans from being absorbed into the background model. We evaluate the performance of this approach on the PETS 2009 dataset using various configurations of the proposed methods. Our evaluation demonstrates that the basic benchmark method we implemented can achieve an accuracy of up to 87% on sequence ¿S1.L1 13-57 View 001¿ and our proposed approach can achieve up to 82% on sequence ¿S1.L3 14-33 View 001¿ where the crowd stops and the benchmark accuracy falls to 64%.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Revisão da Literatura: O Transtorno de Ansiedade Generalizada (TAG) é caracterizado por preocupação excessiva, persistente e incontrolável sobre diversos aspectos da vida do paciente. Tem prevalência entre 1,6% e 5,1% e índice de comorbidades de até 90,4%. As principais comorbidades são depressão maior (64%) e distimia (37%). Os antidepressivos podem ser eficazes no tratamento do TAG. A Medicina Baseada em Evidências (MBE) busca reunir a melhor evidência disponível com experiência clínica e conhecimentos de fisiopatologia. A melhor maneira disponível de síntese das evidências é a revisão sistemática e a meta-análise. Objetivos: Investigar a eficácia e tolerabilidade dos antidepressivos no tratamento do TAG através de uma revisão sistemática da literatura e meta-análise. Sumário do artigo científico: A revisão sistemática incluiu ensaios clínicos randomizados e controlados e excluiu estudos não-randomizados, estudos com pacientes com TAG e outro transtorno de eixo I. Os dados foram extraídos por dois revisores independentes e risco relativo, diferença da média ponderada e número necessário para tratamento (NNT) foram calculados. Antidepressivos (imipramina, paroxetina e venlafaxina) foram superiores ao placebo. O NNT calculado foi de 5,5. A evidência disponível sugere que os antidepressivos são superiores ao placebo no tratamento do TAG e bem tolerados pelos pacientes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work proposes the design, the performance evaluation and a methodology for tuning the initial MFs parameters of output of a function based Takagi-Sugeno-Kang Fuzzy-PI controller to neutralize the pH in a stirred-tank reactor. The controller is designed to perform pH neutralization of industrial plants, mainly in units found in oil refineries where it is strongly required to mitigate uncertainties and nonlinearities. In addition, it adjusts the changes in pH regulating process, avoiding or reducing the need for retuning to maintain the desired performance. Based on the Hammerstein model, the system emulates a real plant that fits the changes in pH neutralization process of avoiding or reducing the need to retune. The controller performance is evaluated by overshoots, stabilization times, indices Integral of the Absolute Error (IAE) and Integral of the Absolute Value of the Error-weighted Time (ITAE), and using a metric developed by that takes into account both the error information and the control signal. The Fuzzy-PI controller is compared with PI and gain schedule PI controllers previously used in the testing plant, whose results can be found in the literature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As an auxiliary tool to combat hunger by decreasing the waste of food and contributing for improvement of life quality on the population, CEASA/RN has released from August/03 to August/05 the program MESA DA SOLIDARIEDADE. Despite of the positive results of this program, that has already distributed around 226 tons of food, there is still food being thrown in the trash as the deliver of the same food in its natural form would be a health risk to those who would consume it and only the correct processing of this food can make it edible. This work has as a goal the reuse of solid residues of vegetal origin generated by the CEASA/RN, through the Program MESA DA SOLIDARIEDADE and the characterization of the product obtained so it might be used as a mineral complement in the human diet. To the collecting of samples (from September until December /2004) it was developed a methodology having as a reference the daily needs of mineral salts for infants at the age of seven to ten. The sample was packed in plastic bags and transported in an ambient temperature to the laboratory where it was selected, weighted, disinfected, fractionated and dried to 70ºC in greenhouse. The dry sample was shredded and stored in bottles previously sterilized. The sample in nature was weighted in the same proportion of the dry sample and it was obtained a uniform mass in a domestic processor. The physical-chemical analyses were carried out in triplicate in the samples in nature and in the dry product, being analyzed: pH, humidity, acidity and soluble solids according to IAL (1985), mineral salts contents (Ca, K, Na, Mg, P and Fe) determined by spectrophotometry of Atomic Absorption, caloric power through a calorimetric bomb and presence of fecal traces and E. coli through the colilert method (APHA, 1995). During this period the dry food a base of vegetables presented on average 5,06% of humidity, 4,62 of pH, acidity of 2,73 mg of citric acid /100g of sample, 51,45ºBrix of soluble solids, 2.323,50mg of K/100g, 299,06mg of Ca/100g, 293mg of Na/100g, 154,66mg of Mg/100g, 269,62mg of P/100g, 6,38mg of Fe/100g, caloric power of 3,691Kcal/g (15,502KJ/g) and is free of contamination by fecal traces and E..coli. The dry food developed in this research presented satisfactory characteristics regarding to its conservation, possessing low calories, constituting itself a good source of potassium, magnesium, sodium and iron that can be utilized as a food complement of these minerals

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)