991 resultados para vector auto regression
Resumo:
When researchers introduce a new test they have to demonstrate that it is valid, using unbiased designs and suitable statistical procedures. In this article we use Monte Carlo analyses to highlight how incorrect statistical procedures (i.e., stepwise regression, extreme scores analyses) or ignoring regression assumptions (e.g., heteroscedasticity) contribute to wrong validity estimates. Beyond these demonstrations, and as an example, we re-examined the results reported by Warwick, Nettelbeck, and Ward (2010) concerning the validity of the Ability Emotional Intelligence Measure (AEIM). Warwick et al. used the wrong statistical procedures to conclude that the AEIM was incrementally valid beyond intelligence and personality traits in predicting various outcomes. In our re-analysis, we found that the reliability-corrected multiple correlation of their measures with personality and intelligence was up to .69. Using robust statistical procedures and appropriate controls, we also found that the AEIM did not predict incremental variance in GPA, stress, loneliness, or well-being, demonstrating the importance for testing validity instead of looking for it.
Resumo:
Logistic regression is included into the analysis techniques which are valid for observationalmethodology. However, its presence at the heart of thismethodology, and more specifically in physical activity and sports studies, is scarce. With a view to highlighting the possibilities this technique offers within the scope of observational methodology applied to physical activity and sports, an application of the logistic regression model is presented. The model is applied in the context of an observational design which aims to determine, from the analysis of use of the playing area, which football discipline (7 a side football, 9 a side football or 11 a side football) is best adapted to the child"s possibilities. A multiple logistic regression model can provide an effective prognosis regarding the probability of a move being successful (reaching the opposing goal area) depending on the sector in which the move commenced and the football discipline which is being played.
Resumo:
PURPOSE OF REVIEW: In this review, we will provide the scientific rationale for the use of poxvirus vectors in the field of HIV vaccines, the immunological profile of the vaccine-induced immune responses, an update on the current use of poxvirus vector-based vaccines in HIV vaccine clinical trials, and the development of new modified poxvirus vectors with improved immunological profile. RECENT FINDINGS: An Ad5-HIV vaccine was tested in a phase IIb clinical trial (known as the Step trial). Vaccinations in the Step trial were discontinued because the vaccine did not show any effect on acquisition of infection and on viral load. After the disappointing failure of the Step trial, the field of HIV vaccine has regained enthusiasm and vigour due to the promising protective effect observed in the phase III efficacy trial (known as RV-144) performed in Thailand which has tested a poxvirus-gp120 combination. SUMMARY: The RV-144 phase III has provided for the first time evidence that an HIV vaccine can prevent HIV infection. The results from the RV-144 trial are providing the scientific rationale for the future development of the HIV vaccine field and for designing future efficacy trials.
Resumo:
BACKGROUND: We assessed the impact of a multicomponent worksite health promotion program for0 reducing cardiovascular risk factors (CVRF) with short intervention, adjusting for regression towards the mean (RTM) affecting such nonexperimental study without control group. METHODS: A cohort of 4,198 workers (aged 42 +/- 10 years, range 16-76 years, 27% women) were analyzed at 3.7-year interval and stratified by each CVRF risk category (low/medium/high blood pressure [BP], total cholesterol [TC], body mass index [BMI], and smoking) with RTM and secular trend adjustments. Intervention consisted of 15 min CVRF screening and individualized counseling by health professionals to medium- and high-risk individuals, with eventual physician referral. RESULTS: High-risk groups participants improved diastolic BP (-3.4 mm Hg [95%CI: -5.1, -1.7]) in 190 hypertensive patients, TC (-0.58 mmol/l [-0.71, -0.44]) in 693 hypercholesterolemic patients, and smoking (-3.1 cig/day [-3.9, -2.3]) in 808 smokers, while systolic BP changes reflected RTM. Low-risk individuals without counseling deteriorated TC and BMI. Body weight increased uniformly in all risk groups (+0.35 kg/year). CONCLUSIONS: In real-world conditions, short intervention program participants in high-risk groups for diastolic BP, TC, and smoking improved their CVRF, whereas low-risk TC and BMI groups deteriorated. Future programs may include specific advises to low-risk groups to maintain a favorable CVRF profile.
Resumo:
For polynomial vector fields in R3, in general, it is very difficult to detect the existence of an open set of periodic orbits in their phase portraits. Here, we characterize a class of polynomial vector fields of arbitrary even degree having an open set of periodic orbits. The main two tools for proving this result are, first, the existence in the phase portrait of a symmetry with respect to a plane and, second, the existence of two symmetric heteroclinic loops.
Resumo:
Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.
Resumo:
1. The ecological niche is a fundamental biological concept. Modelling species' niches is central to numerous ecological applications, including predicting species invasions, identifying reservoirs for disease, nature reserve design and forecasting the effects of anthropogenic and natural climate change on species' ranges. 2. A computational analogue of Hutchinson's ecological niche concept (the multidimensional hyperspace of species' environmental requirements) is the support of the distribution of environments in which the species persist. Recently developed machine-learning algorithms can estimate the support of such high-dimensional distributions. We show how support vector machines can be used to map ecological niches using only observations of species presence to train distribution models for 106 species of woody plants and trees in a montane environment using up to nine environmental covariates. 3. We compared the accuracy of three methods that differ in their approaches to reducing model complexity. We tested models with independent observations of both species presence and species absence. We found that the simplest procedure, which uses all available variables and no pre-processing to reduce correlation, was best overall. Ecological niche models based on support vector machines are theoretically superior to models that rely on simulating pseudo-absence data and are comparable in empirical tests. 4. Synthesis and applications. Accurate species distribution models are crucial for effective environmental planning, management and conservation, and for unravelling the role of the environment in human health and welfare. Models based on distribution estimation rather than classification overcome theoretical and practical obstacles that pervade species distribution modelling. In particular, ecological niche models based on machine-learning algorithms for estimating the support of a statistical distribution provide a promising new approach to identifying species' potential distributions and to project changes in these distributions as a result of climate change, land use and landscape alteration.
Resumo:
We investigate the relevance of morphological operators for the classification of land use in urban scenes using submetric panchromatic imagery. A support vector machine is used for the classification. Six types of filters have been employed: opening and closing, opening and closing by reconstruction, and opening and closing top hat. The type and scale of the filters are discussed, and a feature selection algorithm called recursive feature elimination is applied to decrease the dimensionality of the input data. The analysis performed on two QuickBird panchromatic images showed that simple opening and closing operators are the most relevant for classification at such a high spatial resolution. Moreover, mixed sets combining simple and reconstruction filters provided the best performance. Tests performed on both images, having areas characterized by different architectural styles, yielded similar results for both feature selection and classification accuracy, suggesting the generalization of the feature sets highlighted.
Resumo:
RESUME L'utilisation de la thérapie génique dans l'approche d'un traitement des maladies oculaires dégénératives, plus particulièrement de la rétinite pigmentaire, semble être très prometteuse (Acland et al. 2001). Parmi les vecteurs développés, les vecteurs lentiviraux (dérivé du virus humain HIV-1), permettent la transduction des photorécepteurs après injection sous-rétinienne chez la souris durant les premiers jours de vie. Cependant l'efficacité du transfert de gène est nettement plus limitée dans ce type cellulaire après injection chez l'adulte (Kostic et al. 2003). L'objet de notre étude est de déterminer si la présence d'une barrière physique produite au cours du développement, située entre les photorécepteurs et l'épithélium pigmentaire ainsi qu'entre les photorécepteurs eux-mêmes, est responsable de: la diminution de l'entrée en masse du virus dans les photorécepteurs, minimisant ainsi son efficacité chez la souris adulte. De précédentes recherches, chez le lapin, ont décrit la capacité d'enzymes spécifiques comme la Chondroïtinase ABC et la Neuraminidase X de modifier la structure de la matrice entourant les photorécepteurs (Inter Photoreceptor Matrix, IPM) par digestion de certains de ses constituants suite à leur injection dans l'espace sous-rétinien (Yao et al. 1990). Considérant l'IPM comme une barrière physique, capable de réduire l'efficacité de transduction des photorécepteurs chez la souris adulte, nous avons associé différentes enzymes simultanément à l'injection sous-rétinienne de vecteurs lentiviraux afin d'améliorer la transduction virale en fragilisant I'IPM, la rendant ainsi plus perméable à la diffusion du virus. L'injection sous-rétinienne de Neuraminidase X et de Chondroïtinase ABC chez la souris induit des modifications structurales de l'IPM qui se manifestent respectivement par la révélation ou la disparition de sites de liaison de la peanut agglutinin sur les photorécepteurs. L'injection simultanée de Neuraminidase X avec le vecteur viral contenant le transgène thérapeutique augmente significativement le nombre de photorécepteurs transduits (environ cinq fois). Nous avons en fait démontré que le traitement enzymatique augmente principalement la diffusion du lentivirus dans l'espace situé entre l'épithélium pigmentaire et les photorécepteurs. Le traitement à la Chondroïtinase ABC n'entraîne quant à elle qu'une légère amélioration non significative de la transduction. Cette étude montre qu'une meilleure connaissance de l'IPM ainsi que des substances capables de la modifier (enzymes, drogues etc.) pourrait aider à élaborer de nouvelles stratégies afin d'améliorer la distribution de vecteurs viraux dans la rétine adulte.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
We describe the case of a man with a history of complex partial seizures and severe language, cognitive and behavioural regression during early childhood (3.5 years), who underwent epilepsy surgery at the age of 25 years. His early epilepsy had clinical and electroencephalogram features of the syndromes of epilepsy with continuous spike waves during sleep and acquired epileptic aphasia (Landau-Kleffner syndrome), which we considered initially to be of idiopathic origin. Seizures recurred at 19 years and presurgical investigations at 25 years showed a lateral frontal epileptic focus with spread to Broca's area and the frontal orbital regions. Histopathology revealed a focal cortical dysplasia, not visible on magnetic resonance imaging. The prolonged but reversible early regression and the residual neuropsychological disorders during adulthood were probably the result of an active left frontal epilepsy, which interfered with language and behaviour during development. Our findings raise the question of the role of focal cortical dysplasia as an aetiology in the syndromes of epilepsy with continuous spike waves during sleep and acquired epileptic aphasia.