817 resultados para otite moyenne
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de maîtrise ès sciences (M.SC) en criminologie, option sécurité intérieure
Resumo:
Pour être performant au plus haut niveau, les athlètes doivent posséder une capacité perceptivo-cognitive supérieure à la moyenne. Cette faculté, reflétée sur le terrain par la vision et l’intelligence de jeu des sportifs, permet d’extraire l’information clé de la scène visuelle. La science du sport a depuis longtemps observé l’expertise perceptivo-cognitive au sein de l’environnement sportif propre aux athlètes. Récemment, des études ont rapporté que l’expertise pouvait également se refléter hors de ce contexte, lors d’activités du quotidien par exemple. De plus, les récentes théories entourant la capacité plastique du cerveau ont amené les chercheurs à développer des outils pour entraîner les capacités perceptivo-cognitives des athlètes afin de les rendre plus performants sur le terrain. Ces méthodes sont la plupart du temps contextuelles à la discipline visée. Cependant, un nouvel outil d’entraînement perceptivo-cognitif, nommé 3-Dimensional Multiple Object Tracking (3D-MOT) et dénué de contexte sportif, a récemment vu le jour et a fait l’objet de nos recherches. Un de nos objectifs visait à mettre en évidence l’expertise perceptivo-cognitive spécifique et non-spécifique chez des athlètes lors d’une même étude. Nous avons évalué la perception du mouvement biologique chez des joueurs de soccer et des non-athlètes dans une salle de réalité virtuelle. Les sportifs étaient systématiquement plus performants en termes d’efficacité et de temps de réaction que les novices pour discriminer la direction du mouvement biologique lors d’un exercice spécifique de soccer (tir) mais également lors d’une action issue du quotidien (marche). Ces résultats signifient que les athlètes possèdent une meilleure capacité à percevoir les mouvements biologiques humains effectués par les autres. La pratique du soccer semble donc conférer un avantage fondamental qui va au-delà des fonctions spécifiques à la pratique d’un sport. Ces découvertes sont à mettre en parallèle avec la performance exceptionnelle des athlètes dans le traitement de scènes visuelles dynamiques et également dénuées de contexte sportif. Des joueurs de soccer ont surpassé des novices dans le test de 3D-MOT qui consiste à suivre des cibles en mouvement et stimule les capacités perceptivo-cognitives. Leur vitesse de suivi visuel ainsi que leur faculté d’apprentissage étaient supérieures. Ces résultats confirmaient des données obtenues précédemment chez des sportifs. Le 3D-MOT est un test de poursuite attentionnelle qui stimule le traitement actif de l’information visuelle dynamique. En particulier, l’attention sélective, dynamique et soutenue ainsi que la mémoire de travail. Cet outil peut être utilisé pour entraîner les fonctions perceptivo-cognitives des athlètes. Des joueurs de soccer entraînés au 3D-MOT durant 30 sessions ont montré une amélioration de la prise de décision dans les passes de 15% sur le terrain comparés à des joueurs de groupes contrôles. Ces données démontrent pour la première fois un transfert perceptivo-cognitif du laboratoire au terrain suivant un entraînement perceptivo-cognitif non-contextuel au sport de l’athlète ciblé. Nos recherches aident à comprendre l’expertise des athlètes par l’approche spécifique et non-spécifique et présentent également les outils d’entraînements perceptivo-cognitifs, en particulier le 3D-MOT, pour améliorer la performance dans le sport de haut-niveau.
Resumo:
Les patients diabétiques de type 1 (DT1) ont avantage à avoir un bon contrôle glycémique pour réduire les effets négatifs à court et long terme d’un mauvais contrôle glycémique sur leur santé. Pour contrôler leur glycémie, ils doivent prendre de l’insuline, mais il est aussi recommandé qu’ils aient de bonnes habitudes de vie comme une nutrition appropriée et une pratique adéquate d’activité physique. Par contre, les patients DT1 ne suivent généralement pas les recommandations en activité physique et une partie du problème vient de leurs barrières personnelles à un style de vie actif, telle la peur des hypoglycémies. L’utilisation de la pompe comme traitement à l’insuline aide à mieux contrôler la glycémie, plus précisément l’hémoglobine glyquée, que les injections d’insuline, et le dispositif est de plus en plus prescrit chez les enfants et adolescents. Par contre, son impact sur la pratique des activités sédentaire et physique n’est pas encore bien connu. L’objectif de la présente étude est donc de révéler le profil d’activité physique complet, incluant les barrières à l’exercice et les habitudes de vie des parents, des enfants et adolescents DT1, selon leur type de traitement à l’insuline (pompe ou injections). L’étude a été conduite à la clinique d’endocrinologie du Centre hospitalier universitaire de Sainte-Justine (Montréal, Canada). Un questionnaire auto-administré a été complété par 188 patients DT1 âgés de 6 à 17 ans et un de leurs parents. Soixante pourcent des patients étaient des utilisateurs de la pompe à insuline. Il n’y avait pas de différence significative pour aucune des composantes du profil d’activité physique, des habitudes sédentaires et des barrières à l’exercice entre les patients DT1 utilisant les injections et ceux utilisant la pompe. La peur de faire des hypoglycémies était la barrière à l’activité physique principale pour les deux groupes de traitement. Les adolescents dont les parents pratiquaient une plus grande variété d’activités physiques faisaient plus d’activité physique d’intensité moyenne à élevée et passaient moins de temps devant les écrans. En conclusion, le type de traitement n’était pas associé à un style de vie plus sain chez les patients pédiatriques DT1, mais un profil d’activité physique parental varié était le facteur principal d’intérêt pour des habitudes de vie plus saines chez les adolescents DT1.
Resumo:
La circulation extracorporelle (CEC) est une technique utilisée en chirurgie cardiaque effectuée des milliers de fois chaque jour à travers le monde. L’instabilité hémodynamique associée au sevrage de la CEC difficile constitue la principale cause de mortalité en chirurgie cardiaque et l’hypertension pulmonaire (HP) a été identifiée comme un des facteurs de risque les plus importants. Récemment, une hypothèse a été émise suggérant que l'administration prophylactique (avant la CEC) de la milrinone par inhalation puisse avoir un effet préventif et faciliter le sevrage de la CEC chez les patients atteints d’HP. Toutefois, cette indication et voie d'administration pour la milrinone n'ont pas encore été approuvées par les organismes réglementaires. Jusqu'à présent, la recherche clinique sur la milrinone inhalée s’est principalement concentrée sur l’efficacité hémodynamique et l'innocuité chez les patients cardiaques, bien qu’aucun biomarqueur n’ait encore été établi. La dose la plus appropriée pour l’administration par nébulisation n'a pas été déterminée, de même que la caractérisation des profils pharmacocinétiques (PK) et pharmacodynamiques (PD) suite à l'inhalation. L'objectif de notre recherche consistait à caractériser la relation exposition-réponse de la milrinone inhalée administrée chez les patients subissant une chirurgie cardiaque sous CEC. Une méthode analytique par chromatographie liquide à haute performance couplée à un détecteur ultraviolet (HPLC-UV) a été optimisée et validée pour le dosage de la milrinone plasmatique suite à l’inhalation et s’est avérée sensible et précise. La limite de quantification (LLOQ) était de 1.25 ng/ml avec des valeurs de précision intra- et inter-dosage moyennes (CV%) <8%. Des patients souffrant d’HP pour lesquels une chirurgie cardiaque sous CEC était prévue ont d’abord été recrutés pour une étude pilote (n=12) et, par la suite, pour une étude à plus grande échelle (n=28) où la milrinone (5 mg) était administrée par inhalation pré-CEC. Dans l'étude pilote, nous avons comparé l'exposition systémique de la milrinone peu après son administration avec un nébuliseur pneumatique ou un nébuliseur à tamis vibrant. L’efficacité des nébuliseurs en termes de dose émise et dose inhalée a également été déterminée in vitro. Dans l'étude à plus grande échelle conduite en utilisant exclusivement le nébuliseur à tamis vibrant, la dose inhalée in vivo a été estimée et le profil pharmacocinétique de la milrinone inhalée a été pleinement caractérisé aux niveaux plasmatique et urinaire. Le ratio de la pression artérielle moyenne sur la pression artérielle pulmonaire moyenne (PAm/PAPm) a été choisi comme biomarqueur PD. La relation exposition-réponse de la milrinone a été caractérisée pendant la période d'inhalation en étudiant la relation entre l'aire sous la courbe de l’effet (ASCE) et l’aire sous la courbe des concentrations plasmatiques (ASC) de chacun des patients. Enfin, le ratio PAm/PAPm a été exploré comme un prédicteur potentiel de sortie de CEC difficile dans un modèle de régression logistique. Les expériences in vitro ont démontré que les doses émises étaient similaires pour les nébuliseurs pneumatique (64%) et à tamis vibrant (68%). Cependant, la dose inhalée était 2-3 fois supérieure (46% vs 17%) avec le nébuliseur à tamis vibrant, et ce, en accord avec les concentrations plasmatiques. Chez les patients, en raison des variations au niveau des facteurs liés au circuit et au ventilateur causant une plus grande dose expirée, la dose inhalée a été estimée inférieure (30%) et cela a été confirmé après récupération de la dose de milrinone dans l'urine 24 h (26%). Les concentrations plasmatiques maximales (Cmax: 41-189 ng/ml) et l'ampleur de la réponse maximale ΔRmax-R0 (0-65%) ont été observées à la fin de l'inhalation (10-30 min). Les données obtenues suite aux analyses PK sont en accord avec les données publiées pour la milrinone intraveineuse. Après la période d'inhalation, les ASCE individuelles étaient directement reliées aux ASC (P=0.045). Enfin, notre biomarqueur PD ainsi que la durée de CEC ont été identifiés comme des prédicteurs significatifs de la sortie de CEC difficile. La comparaison des ASC et ASCE correspondantes a fourni des données préliminaires supportant une preuve de concept pour l'utilisation du ratio PAm/PAPm comme biomarqueur PD prometteur et justifie de futures études PK/PD. Nous avons pu démontrer que la variation du ratio PAm/PAPm en réponse à la milrinone inhalée contribue à la prévention de la sortie de CEC difficile.
Resumo:
Objectif : Examiner la relation entre l’accès aux ressources alimentaires et le degré de l’insécurité alimentaire du ménage parmi les nouveaux utilisateurs des organismes communautaires d’intervention en sécurité alimentaire de Montréal. Méthode : Étude observationnelle transversale. Elle consiste en une analyse secondaire de données (n=785) qui proviennent du premier temps de mesure de l’enquête sur les effets des interventions en sécurité alimentaire à Montréal menée entre 2011 et 2012. La variable dépendante a été l’insécurité alimentaire. Les variables indépendantes ont été le mode de transport utilisé pour transporter les aliments, l’emplacement de l’épicerie la plus fréquentée par le participant, la distance entre l’organisme communautaire fréquenté par le participant et son domicile, la proximité de l’épicerie la plus fréquentée, la satisfaction quant à l’acceptabilité et le caractère abordable des aliments dans l’épicerie la plus fréquentée, et les difficultés d’accès aux aliments. Des régressions logistiques furent effectuées afin d’évaluer la relation entre les variables indépendantes et le degré de l’insécurité alimentaire, en utilisant l’insécurité sévère comme catégorie de référence. Résultats : Nos données suggèrent que la sévérité de l’insécurité alimentaire est associée à la difficulté d’accès aux aliments à cause de la cherté des aliments (pour la sécurité alimentaire, OR=0.13; CI : 0.07-0.25 et pour l’insécurité alimentaire modérée, OR=0.42; CI : 0.28-0.63), au fait de faire l’épicerie à l’extérieur du quartier ou de faire rarement l’épicerie (pour l’insécurité alimentaire modérée, OR=0.50, CI : 0.30-0.84), au fait d’avoir accès au transport collectif (pour l’insécurité alimentaire modérée, OR=1.73; CI : 1.09-2.73), au fait de résider à une distance moyenne (soit entre 1000 et 2000 mètres) d’un organisme communautaire en sécurité alimentaire (pour l’insécurité alimentaire modérée, OR=1.83; CI : 1.14-2.92), et à la difficulté d’accès aux aliments à cause de contraintes de transport (pour la sécurité alimentaire, OR=0.18, CI : 0.06-0.52). Conclusion : L’accès aux ressources alimentaires est associé au degré de l’insécurité alimentaire des nouveaux ménages participant aux interventions en sécurité alimentaire à Montréal.
Resumo:
Objectif. Les jeunes crossover sont définis comme des adolescents qui sont à la fois victimes de maltraitance et délinquants juvéniles. L'objectif de ce mémoire est d’examiner les relations entre les paramètres de la maltraitance (ex., récurrence, sous-types et variété) et les paramètres de la délinquance juvénile (ex., précocité, volume, variété, gravité moyenne et présence de sous-types) vécus par les jeunes crossover. Méthodes. La source des données est constituée de rapports officiels pour tous les adolescents et adolescentes québécois qui ont plaidé coupables ou ont été reconnus coupables d'un crime entre le 1e janvier 2005 et le 31 décembre 2010. D'abord, un portrait des jeunes crossover québécois est dressé à l’aide de statistiques descriptives. Ensuite, des analyses multivariées sont utilisées pour déterminer si les paramètres de la maltraitance prédisent les différentes dimensions de la délinquance et pour examiner les différences selon le sexe. Résultats. La délinquance des jeunes crossover est plus importante que celle des délinquants non-maltraités. Les expériences différentielles de la maltraitance sont liées à des paramètres hétérogènes de la délinquance juvénile. La récurrence de la maltraitance est un prédicteur important des paramètres de la délinquance ultérieure. De plus, la maltraitance est particulièrement influente sur la délinquance des garçons. Implications. Les interventions au sein des systèmes de la protection de la jeunesse et de la justice juvénile doivent être adaptées afin d'identifier les jeunes à risque de délinquance grave, de cibler les dimensions spécifiques de la maltraitance et d’entraver leurs liens à la délinquance ultérieure. L'intervention doit être privilégiée pour les victimes de multiples incidents de maltraitance et pour les garçons victimes de maltraitance.
Resumo:
Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.
Resumo:
La présente étude a pour but de vérifier si le QI et le sentiment de compétence interagissent lorsque l’élève doit performer à l’école et si, en l’occurrence, cette interaction est à son tour modérée par l’âge et le sexe des participants. Afin de vérifier ces hypothèses, les variables suivantes ont été étudiées chez 928 élèves de souche francocanadienne fréquentant des écoles montréalaises de niveau secondaire : la moyenne en mathématiques, le QI, le sentiment de compétence en mathématiques, l’âge, le sexe et le statut socioéconomique. Tel que prévu, le QI et le sentiment de compétence en mathématiques corrèlent de façon positive et significative avec la moyenne en mathématiques de l’élève. Les analyses montrent également une interaction significative entre le QI et le sentiment de compétence. Une fois décomposée, cette interaction indique que chez les élèves qui ont un sentiment de compétence élevé, la valeur prédictive du QI est plus élevée, alors que la relation entre le QI et la performance ne change pas de façon significative chez les élèves qui présentent un faible sentiment de compétence. Enfin, ni l’âge ni le sexe de l’élève n’influencent l’interaction entre le QI et le rendement scolaire, pas plus qu’ils ne sont corrélés avec le rendement scolaire. Les implications cliniques de cette recherche sont discutées.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de maîtrise ès sciences (M.SC) en criminologie, option sécurité intérieure
Resumo:
Although the use of deep-sea imagery considerably increased during the last decades, reports on nekton falls to the deep seafloor are very scarce. Whereas there are a few reports describing the finding of whale carcasses in the deep north-eastern and south-eastern Pacific, descriptions of invertebrate or vertebrate food-falls at centimetre to metre scale are extremely rare. After 4 years of extensive work at a deep-sea long-term station in northern polar regions (AWI-"Hausgarten"), including large-scale visual observations with various camera systems covering some 10 000 m2 of seafloor at water depths between 1250 and 5600 m, this paper describes the first observation of a fish carcass at about 1280 m water depth, west off Svålbard. The fish skeleton had a total length of 36 cm and an approximated biomass of 0.5 kg wet weight. On the basis of in situ experiments, we estimated a very short residence time of this particular carcass of about 7 h at the bottom. The fast response of the motile deep-sea scavenger community to such events and the rapid utilisation of this kind of organic carbon supply might partly explain the extreme rarity of such an observation.
Resumo:
Las zonas de montaña cuentan con especificidades geográficas y socioeconómicas. En ellas, a partir del patrimonio territorial natural y cultural, se ha producido un considerable impulso del turismo rural, que ha centrado el interés en la valoración de la singularidad y variedad de los paisajes. En este caso se presta atención a las sierras meridionales de la provincia de Albacete. El trabajo se apoya en una metodología que combina el uso de encuestas de preferencias de turistas y técnicas cartográficas a partir de algunas variables del sistema turístico en el medio rural. El trabajo se inserta dentro de los paradigmas del desarrollo local y el desarrollo sostenible, aplicado a los espacios rurales y a las zonas de montaña media del sureste de Castilla-La Mancha. La hipótesis se centra en la consideración del paisaje como elemento medular del turismo rural.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
L’utilisation de méthodes d’investigation cérébrale avancées a permis de mettre en évidence la présence d’altérations à court et à long terme à la suite d’une commotion cérébrale. Plus spécifiquement, des altérations affectant l’intégrité de la matière blanche et le métabolisme cellulaire ont récemment été révélées par l’utilisation de l’imagerie du tenseur de diffusion (DTI) et la spectroscopie par résonance magnétique (SRM), respectivement. Ces atteintes cérébrales ont été observées chez des athlètes masculins quelques jours après la blessure à la tête et demeuraient détectables lorsque les athlètes étaient à nouveau évalués six mois post-commotion. En revanche, aucune étude n’a évalué les effets neurométaboliques et microstructuraux dans la phase aigüe et chronique d’une commotion cérébrale chez les athlètes féminines, malgré le fait qu’elles présentent une susceptibilité accrue de subir ce type de blessure, ainsi qu’un nombre plus élevé de symptômes post-commotionnels et un temps de réhabilitation plus long. Ainsi, les études composant le présent ouvrage visent globalement à établir le profil d’atteintes microstructurales et neurométaboliques chez des athlètes féminines par l’utilisation du DTI et de la SRM. La première étude visait à évaluer les changements neurométaboliques au sein du corps calleux chez des joueurs et joueuses de hockey au cours d’une saison universitaire. Les athlètes ayant subi une commotion cérébrale pendant la saison ont été évalués 72 heures, 2 semaines et 2 mois après la blessure à la tête en plus des évaluations pré et post-saison. Les résultats démontrent une absence de différences entre les athlètes ayant subi une commotion cérébrale et les athlètes qui n’en ont pas subie. De plus, aucune différence entre les données pré et post-saison a été observée chez les athlètes masculins alors qu’une diminution du taux de N-acetyl aspartate (NAA) n’a été mise en évidence chez les athlètes féminines, suggérant ainsi un impact des coups d’intensité sous-clinique à la tête. La deuxième étude, qui utilisait le DTI et la SRM, a révélé des atteintes chez des athlètes féminines commotionnées asymptomatiques en moyenne 18 mois post-commotion. Plus spécifiquement, la SRM a révélé une diminution du taux de myo-inositol (mI) au sein de l’hippocampe et du cortex moteur primaire (M1) alors que le DTI a mis en évidence une augmentation de la diffusivité moyenne (DM) dans plusieurs faisceaux de matière blanche. De iii plus, une approche par région d’intérêt a mis en évidence une diminution de la fraction d’anisotropie (FA) dans la partie du corps calleux projetant vers l’aire motrice primaire. Le troisième article évaluait des athlètes ayant subi une commotion cérébrale dans les jours suivant la blessure à la tête (7-10 jours) ainsi que six mois post-commotion avec la SRM. Dans la phase aigüe, des altérations neuropsychologiques combinées à un nombre significativement plus élevé de symptômes post-commotionnels et dépressifs ont été trouvés chez les athlètes féminines commotionnées, qui se résorbaient en phase chronique. En revanche, aucune différence sur le plan neurométabolique n’a été mise en évidence entre les deux groupes dans la phase aigüe. Dans la phase chronique, les athlètes commotionnées démontraient des altérations neurométaboliques au sein du cortex préfrontal dorsolatéral (CPDL) et M1, marquées par une augmentation du taux de glutamate/glutamine (Glx). De plus, une diminution du taux de NAA entre les deux temps de mesure était présente chez les athlètes contrôles. Finalement, le quatrième article documentait les atteintes microstructurales au sein de la voie corticospinale et du corps calleux six mois suivant une commotion cérébrale. Les analyses n’ont démontré aucune différence au sein de la voie corticospinale alors que des différences ont été relevées par segmentation du corps calleux selon les projections des fibres calleuses. En effet, les athlètes commotionnées présentaient une diminution de la DM et de la diffusivité radiale (DR) au sein de la région projetant vers le cortex préfrontal, un volume moindre des fibres de matière blanche dans la région projetant vers l’aire prémotrice et l’aire motrice supplémentaire, ainsi qu’une diminution de la diffusivité axiale (DA) dans la région projetant vers l’aire pariétale et temporale. En somme, les études incluses dans le présent ouvrage ont permis d’approfondir les connaissances sur les effets métaboliques et microstructuraux des commotions cérébrales et démontrent des effets délétères persistants chez des athlètes féminines. Ces données vont de pair avec la littérature scientifique qui suggère que les commotions cérébrales n’entraînent pas seulement des symptômes temporaires.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).