907 resultados para Aptitude Tests
Resumo:
Les commotions cérébrales d’origine sportive sont fréquentes chez les athlètes professionnels et semblent l’être tout autant chez les jeunes sportifs. Chez l’adulte, les symptômes se résorbent dans la majorité des cas assez rapidement (7-10 jours), mais la récupération peut s’avérer différente chez les jeunes. Plusieurs études utilisant les potentiels évoqués cognitifs ont découvert des anomalies cérébrales en l’absence de symptômes cliniques observables chez l'adulte. Toutefois, peu de données scientifiques sont disponibles sur les répercussions d’un tel impact sur le cerveau en développement. Le but de l’étude était de déterminer s’il existe une relation entre l’âge de survenue au moment de la commotion et la gravité des déficits. Cette étude transversale a évalué le fonctionnement cognitif de sportifs par des tests neuropsychologiques ainsi que les mécanismes neuronaux de l’orientation de l’attention (P3a) et de mise à jour de l’information en mémoire de travail (P3b) à l’aide de potentiels évoqués cognitifs. Les athlètes étaient répartis selon trois groupes d’âge [9-12 ans (n=32); 13-16 ans (n=34); adultes (n=30)], la moitié ayant subi une commotion dans la dernière année. Les comparaisons entre les groupes ont été effectuées par une série d’ANOVAs. Comparativement au groupe contrôle, les adolescents commotionnés présentaient des déficits de mémoire de travail. Les athlètes commotionnés démontraient une réduction de l’amplitude de la P3b comparativement aux non-commotionnés. Les résultats illustrent la présence de déficits neurophysiologiques persistants et ce, au moins six mois suivant l’impact. Les enfants semblent aussi sensibles que les adultes aux effets délétères d’une commotion cérébrale et les conséquences s’avèrent plus sévères chez l’adolescent.
Resumo:
Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.
Resumo:
L’objectif de ce mémoire vise à exposer les méthodes d’évaluation propres aux tests génétiques. Le mémoire se penche également sur le recours grandissant, par des instances locales, aux services de génétique dispensés par des laboratoires internationaux. Le premier article propose une recension des modèles d'évaluation propres aux tests génétiques et une analyse de leur situation sur le parcours translationnel. L'article expose les origines de ces modèles, leurs attributs et particularités distinctives et spécifie le public cible auquel ils sont destinés. L'analyse comparative des modèles d'évaluation permet de mettre en relief leurs apports et limites respectives. Les critères évaluatifs de chaque modèles sont situés le long du parcours translationnel permettant de mettre en évidence les types d'évaluations nécessaires à chacune des phases de progression des tests génétiques le long du continuum menant à leur utilisation. Le second article adopte une tangente pragmatique et se penche sur l'utilisation effective des tests génétiques dans un centre hospitalier universitaire pédiatrique. Plus spécifiquement, l'article dresse un portrait exhaustif de l'ensemble des tests génétiques moléculaires réalisés à l’extérieur du Québec par le CHU Sainte-Justine en 2009 étant donné l’augmentation des tests disponibles internationalement comparativement à ceux offerts à l’interne. Vu la globalisation des envois d'échantillons vers des laboratoires localisés à l'étranger, l'objectif est de décrire l’état de la situation actuelle et d’identifier des cibles potentielles pour l’amélioration des processus et le développement de tests localement. L'évaluation des tests génétiques est abordée sous une double perspective: les considérations normatives liées à l'évaluation des tests génétiques tel que préconisé par les différents modèles d'évaluation ainsi que d'un point de vue pratique dans le contexte particulier d'un centre hospitalier universitaire.
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
L’insuffisance rénale chronique (IRC) est un problème majeur fréquemment rencontré chez les greffés cardiaques. Les inhibiteurs de la calcineurine, pierre angulaire de l’immunosuppression en transplantation d’organes solides, sont considérés comme une des principales causes de dysfonction rénale postgreffe. Plusieurs autres éléments tels que les caractéristiques démographiques, cliniques et génétiques du receveur contribuent également au phénomène, mais il demeure plutôt difficile de déterminer quels sont les patients les plus à risque de développer une IRC après la transplantation. Ainsi, la découverte de nouveaux marqueurs génétiques de dysfonction rénale pourrait un jour mener à l’individualisation de la thérapie immunosuppressive selon le profil génétique de chaque patient. Or, on ne connaît pas les opinions des greffés à l’égard des tests pharmacogénomiques et l’on ne sait pas si celles-ci diffèrent des opinions exprimées par les individus en bonne santé. Cette thèse de doctorat a donc pour objectifs : 1- De décrire l’évolution de la fonction rénale à très long terme après la transplantation et d’identifier les marqueurs démographiques et phénotypiques associés à l’IRC postgreffe cardiaque; 2- D’identifier les marqueurs génétiques associés à la néphrotoxicité induite par les inhibiteurs de la calcineurine; 3- D’évaluer et de comparer les attitudes des patients et des individus en bonne santé par rapport à l’intégration clinique potentielle des marqueurs pharmacogénomiques. Trois projets ont été réalisés pour répondre à ces questions. Le premier repose sur une analyse rétrospective de l’évolution de la fonction rénale chez les patients greffés au sein de notre établissement entre 1983 et 2008. Nous y avons découvert que le déclin de la fonction rénale se poursuit jusqu’à 20 ans après la transplantation cardiaque et que les facteurs de risque d’IRC incluent entre autres l’âge avancé, le sexe féminin, la dysfonction rénale prégreffe, l’hypertension, l’hyperglycémie et l’utilisation de la prednisone. Le deuxième projet est une étude pharmacogénomique s’intéressant aux déterminants génétiques de la néphrotoxicité induite par les inhibiteurs de la calcineurine. Elle nous a permis d’illustrer pour la première fois qu’un polymorphisme génétique lié à PRKCB (gène codant pour la protéine kinase C-β) est associé avec la fonction rénale des patients greffés cardiaques, alors que cela n’est probablement pas le cas pour les polymorphismes de TGFB1 (gène codant pour le transforming growth factor-β1). La troisième section de cette thèse rapporte les résultats d’un questionnaire dont le but était de comparer les attitudes envers les tests pharmacogénomiques parmi un groupe de personnes en bonne santé, de patients greffés cardiaques et de patients souffrant d’insuffisance cardiaque. Cette étude a démontré que, bien que l’enthousiasme pour la pharmacogénomique soit partagé par tous ces individus, les craintes liées à la confidentialité et aux répercussions potentielles sur l’emploi et les assurances sont plus prononcées chez les personnes en bonne santé. En résumé, les travaux issus de cette thèse ont révélé que l’identification précoce des patients greffés cardiaques les plus susceptibles de présenter une détérioration de la fonction rénale ainsi que l’adoption d’une approche thérapeutique individualisée reposant notamment sur les applications cliniques de la pharmacogénomique pourraient éventuellement permettre de freiner cette complication postgreffe.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
Full Text / Article complet
Resumo:
Hintergrund und Ziel: Ausgehend von einem Forschungsdefizit im Bereich von Performance-Tests, das von der Arbeitsgruppe um Bührlen et al. (2002) gekennzeichnet wurde, war es das Ziel der Arbeit einen Performance-Tests of lower limb activities (Polla) zu validieren. Methode: In einer Längsschnittstudie wurden die Ergebnisse einer sechswöchigen physiotherapeutischen Behandlung an einem 19-75jährigem orthopädisch-traumatologisch orientierten Patientenkollektiv (n=81) mit dem Polla und dem SF-36 Fragebogen erfasst. Ergebnisse: Die Ergebnisse machen eine gute Absicherung der Teststatistik deutlich. Bei ausgezeichneter Intrarater- (n=29) sowie guter Interrater-Reliabilität (n=32) weist die Konsistenzanalyse eine zufrieden stellende Zuverlässigkeit auf. Die Kriteriumsvalidität macht moderate Zusammenhänge zwischen dem Polla und den Dimensionen Schmerz, Körperliche Rollenfunktion und Körperliche Funktionsfähigkeit des SF-36 deutlich. Über die Standardized Response Mean zeigen die Instrumente eine große Änderungssensitivität, die nur für den Polla auch zum Follow-up (n=26) gilt. Schlussfolgerung: Der Polla ist ein kostenloses Testverfahren mit hoher praktischer Relevanz, wobei aus zeitökonomischen Gründen eine modifizierte Form des Polla mit nur zehn Items und einem gemessenen Test zu empfehlen ist.
Resumo:
Im Rahmen von empirischen Untersuchungen zum Lehren und Lernen von Mathematik haben wir einen Test entwickelt ("Potentialtest"), der die "mathematische Leistungsfähigkeit" von 13/14jährigen Jugendlichen in England und Deutschland für Vergleichszwecke messen soll. Im vorliegenden Beitrag beschreiben wir die Entstehung des Tests sowie Resultate der Durchführung des Tests bei 1036 englischen und deutschen Lernenden. Die Resultate werden unter Berücksichtigung von - aus unseren früheren Fallstudien bekannten - Charakteristika des Mathematikunterrichts in beiden Ländern interpretiert.
Resumo:
In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.
Resumo:
Se analiza la medida en que las pruebas psicopedag??gicas Boehm y Peabody predicen las dificultades en el ??mbito lectoescritor que pueden presentarse en el alumnado de Primaria. Para ello se ha desarrollado un estudio de tipo correlacional en el que se han reunido datos de alumnos desde su ingreso en la Educaci??n Infantil hasta su escolarizaci??n en el segundo ciclo de Educaci??n Primaria. La informaci??n obtenida tiene por tanto, un car??cter diacr??nico. El informe est?? constituido por una breve alusi??n te??rica al problema que se trata para situarse en el lugar preciso donde se centra la investigaci??n, descripci??n de la metodolog??a de investigaci??n, resultados y conclusiones, la discusi??n de los resultados y las propuestas. Se recogen tambi??n la bibliograf??a usada y el estudio de an??lisis de los casos utilizados. Las conclusiones afirman que existe una correlaci??n estad??sticamente significativa entre los tests Peabody y Boehm. Las correlaciones m??s altas son las que implican, de una parte a los tests Peabody y Boehm y, de otra, a las notas escolares de segundo ciclo de Educaci??n Primaria en Matem??ticas y Lengua. Las notas escolares obtenidas por los alumnos del primer ciclo de Educaci??n Primaria en Lengua y Matem??ticas no tienen una correlaci??n estad??sticamente significativa con los tests Boehm y Peabody. En el primer ciclo de Educaci??n Primaria, s??lo el test Peaboy permite predecir las notas escolares en Lengua y Matem??ticas. Estimar y determinar el rendimiento de los alumnos en las citadas asignaturas tomando como punto de partida s??lo los datos aportados por el test Peabody resulta desaconsejable dado el escaso poder predictivo de dicho test. El test Boehm, por su parte, tiene a??n menos poder predictivo sobre las notas escolares y, en el presente estudio, aparece como un mal predictor.