657 resultados para Mesures anthropométriques
Resumo:
"De plus en plus, la recherche en génétique s'attarde à identifier les mutations de gènes qui prédisposent les porteurs de ces mutations à des maladies complexes. La recherche tente également d'établir un lien entre le développement de la maladie pour certains porteurs en fonction de leur contexte socio-économique et de leur interaction avec l'environnement. Compte tenu de ces nombreux facteurs d'analyse, l'interprétation des caractéristiques génétiques d'un individu et du risque qui en découle s'avère particulièrement complexe. Or, cette complexité croissante se produit alors même que l'accès aux données génétiques se banalise et qu'il est maintenant possible pour quiconque d'obtenir une analyse personnalisée de son génome via l'internet. La discrimination génétique n'est pas définie en droit canadien ; il est généralement acquis que, dans le contexte de l'assurance-vie, celle-ci est susceptible d'avoir des conséquences désastreuses. Cependant, nous ne croyons pas que l'information d'ordre génétique doive être l'objet d'une approche exceptionnelle causant accrocs au droit général des assurances. D'autant plus, les conséquences du risque de discrimination génétique semblent davantage relevées de la crainte que de l'exercice d'une discrimination réelle. Dans ce contexte, il s'avère nécessaire d'évaluer les mesures de protection contre la discrimination génétique dans le contexte de l'assurance-vie. Pour ce faire, nous abordons, d'une part, les normes d'application générale en matière de protection contre la discrimination; normes parmi lesquelles la Charte des droits et libertés de la personne offre une protection intéressante. D'autre part, nous nous intéressons aux normes visant la discrimination spécifiquement génétique, notamment le nouvel Genetic Information Nondiscrimination Act et l'affaire Audet c. Industrielle-Alliance. Enfin, nous proposons des mesures minimales qui sauraient s'avérer utile pour préserver un juste équilibre."
Resumo:
En dépit du nombre croissant d’études cliniques sur le canal artériel (CA), des failles méthodologiques entretiennent plusieurs incertitudes concernant l’efficacité et la sécurité des traitements chez les bébés nés prématurés. L’objectif de cette recherche était de comparer les concentrations de prostaglandine E2 (PGE2) et les mesures du flux mésentérique par échographie Doppler chez les enfants nés prématurément et ayant un canal artériel traité à l’ibuprofène par voie intraveineuse ou entérale, en utilisant la méthodologie randomisée contrôlée et à double insu. Dans notre étude pilote, 20 nouveau-nés prématurés de moins de 34 semaines ayant un CA symptomatique confirmé par échocardiographie, furent randomisés au traitement à l’ibuprofène par voie intraveineuse ou entérale. La voie d’administration fut maintenue à l’insu de l’équipe traitante, des cardiologues et des investigateurs. Des dosages des prostaglandines plasmatiques ont été mesurés avant le début du traitement ainsi que 3, 24 et 48 h après le début du traitement. Les mesures du flux mésentérique ont été effectuées avant le traitement à l’ibuprofène ainsi que 1 h et 3 h après le traitement. Nous avons démontré à partir de nos observations que les niveaux plasmatiques de prostaglandines E2 diminuent chez les patients ayant répondu au traitement à l’ibuprofène, indépendamment de la voie d’administration. Nous n’avons pas observé de changement dans l’évolution des dosages de PGE2 chez les patients qui n’ont pas répondu au traitement. Les paramètres mesurés par échographie Doppler au niveau de l’artère mésentérique supérieure n’étaient pas affectés par la voie d’administration du traitement à l’ibuprofène, intraveineuse ou entérale. La présente étude suggère ainsi que le traitement du CA par ibuprofène intraveineux ou entéral n’influe pas sur le flux sanguin mesuré par échographie Doppler. La baisse de la prostaglandine E2 coïncide avec la fermeture du CA, et son dosage pourrait jouer un rôle dans la gestion du traitement. Nous avons démontré la faisabilité d’une étude clinique randomisée à double insu dans le traitement du canal artériel; une méthodologie qui devrait désormait être employé dans la recherche clinique sur les traitements de la persistance du CA.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Problématique : La quantification de l’intégrité du tendon d’Achille (TA) représente un défi en réadaptation. L’adoption de mesures quantitatives du TA, extraites à partir d’une image ultrasonographique (QUS), pourrait remédier à cette lacune. Objectifs : 1) Évaluer la fiabilité test-retest et la précision de mesures QUS du TA; 2) Déterminer le meilleur protocole de collecte de mesures QUS à employer en pratique clinique. Méthodologie : Un total de 23 TAs présentant des symptômes d’une tendinopathie achilléenne et 63 TAs asymptomatiques ont été évalués. Pour chaque TA, 8 images ont été enregistrées (2 visites * 2 évaluatrices * 2 images). Différents types de mesures QUS ont été prises : géométriques (épaisseur, largeur, aire), dérivées d’un histogramme des niveaux de gris et dérivées d’une matrice de co-occurrence. Une étude de généralisabilité a quantifié la fiabilité et la précision de chaque mesure QUS et une étude de décision a fait ressortir les meilleurs protocoles de prise de mesures. Résultats : Les mesures géométriques ont démontré une excellente fiabilité et précision. Les mesures dérivées de l’histogramme des niveaux de gris ont démontré une fiabilité et précision médiocres. Les mesures dérivées d’une matrice de co-occurrence ont démontré une fiabilité modérée à excellente et une précision variable. En pratique clinique, il est recommandé de moyenner les résultats de trois images collectées par un évaluateur lors d’une visite. Conclusion : L’utilisation des mesures QUS géométriques permet de quantifier l’intégrité du TA (clinique et recherche). Davantage d’études sur les mesures QUS dérivées d’une matrice de co-occurrence s’avèrent nécessaires.
Resumo:
L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M.Sc.) option Administration des services infirmiers
Resumo:
Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.
Resumo:
Dans ce mémoire, je considère un modèle de sélection standard avec sélection non aléatoire. D’abord, je discute la validité et la ‘‘sharpness ’’ des bornes sur l’intervalle interquantile de la distribution de la variable aléatoire latente non censurée, dérivées par Blundell et al. (2007). Ensuite, je dérive les bornes ‘‘sharp ’’ sur l’intervalle interquantile lorsque la distribution observée domine stochastiquement au premier ordre celle non observée. Enfin, je discute la ‘‘sharpness’’ des bornes sur la variance de la distribution de la variable latente, dérivées par Stoye (2010). Je montre que les bornes sont valides mais pas nécessairement ‘‘sharp’’. Je propose donc des bornes inférieures ‘‘sharp’’ pour la variance et le coefficient de variation de ladite distribution.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Travail créatif / Creative Work