988 resultados para Adénovirus de troisième génération
Resumo:
Thèse dirigée sous la direction conjointe de Lise Lamarche et Jean Trudel.
Resumo:
Le fardeau vasculaire (présence de maladies vasculaires et/ou cérébrovasculaires) est associé à une augmentation des troubles cognitifs chez les personnes âgées, ainsi qu’à un plus haut risque de démence vasculaire (DV) et de démence de type Alzheimer (DTA). Un nombre restreint de travaux a porté sur l’impact du fardeau vasculaire sur la cognition des personnes avec trouble cognitif léger (TCL). Pourtant, les personnes avec TCL représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence. Cette thèse comprend trois articles de revue qui visent à exposer les connaissances entourant la santé vasculaire et la cognition des personnes âgées et trois articles empiriques (Chapitres 5, 6, 7). La première étude empirique traite de l’impact du fardeau vasculaire sur la cognition des personnes TCL et a comme objectif de spécifier quelles fonctions cognitives sont affectées par le fardeau vasculaire et dans quelle mesure le fardeau vasculaire influence l’hétérogénéité des TCL (Chapitre 5). Dans le cadre de la deuxième étude, nous avons examiné l’intégrité des processus stratégiques et non stratégiques de mémorisation des TCL avec et sans fardeau vasculaire, afin d’évaluer si ces processus diffèrent quantitativement et qualitativement entre ces deux groupes (Chapitre 6). Enfin, dans la troisième étude nous avons évalué les capacités d’association (binding) ainsi que la résistance à l’interférence des personnes TCL, les liens entre ces processus mnésiques et différents marqueurs cérébraux en plus des facteurs permettant de prédire l’évolution vers une démence (Chapitre 7). Les résultats présentés dans cette thèse appuient l’hypothèse selon laquelle le fardeau vasculaire influence le profil cognitif des TCL. Dans un premier temps, nous avons montré que le fardeau vasculaire est associé à une atteinte exécutive plus importante chez les TCL (Chapitre 5). De plus, nos résultats suggèrent que le fardeau vasculaire influence la classification clinique de ces derniers, puisque ceux dont le fardeau est élevé répondent davantage aux critères de TCL amnestique domaine multiple (trouble de mémoire plus au moins un autre déficit cognitif) tandis que ceux sans fardeau répondent davantage aux critères de TCL amnestique domaine unique (trouble isolé de la mémoire). Dans un deuxième temps, nous avons montré des différences dans la nature des processus mnésiques atteints chez les TCL avec et sans fardeau vasculaire (Chapitre 6). Alors que les premiers présentent une atteinte prédominante des processus stratégiques de mémorisation, les seconds présentent une atteinte des processus stratégiques et non stratégiques de mémorisation. Lorsque seuls les résultats des TCL ayant évolué vers une démence sont analysés, le patron d’atteinte est similaire puisque les TCL vasculaires sont quantitativement moins touchés que les TCL non-vasculaires au niveau des processus non-stratégiques de mémorisation. Enfin, tant les TCL qui progressent vers une démence que les TCL qui restent stables après un suivi de trois ans éprouvent tous des difficultés de mémoire associative et sont sensibles à l’interférence proactive (Chapitre 7). De plus, le fardeau vasculaire est associé à la sensibilité à l’interférence alors que le volume hippocampique est associé aux difficultés de mémoire associative. Enfin, nos résultats indiquent que les TCL qui éprouvent des difficultés de mémoire associative sont plus à risque d’évoluer vers une démence que les TCL ne présentant pas ces mêmes difficultés. De façon globale, les résultats de cette thèse révèlent que le fardeau vasculaire joue un rôle important dans l’hétérogénéité des TCL.
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
Cette thèse a été réalisée en cotutelle entre l'Université de Montréal et l'École des Hautes Études en Sciences Sociales de Paris, sous la direction de Michel Duchesneau (UdeM) et Esteban Buch (EHESS). La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
La hausse démographique de la population des aînés dans le dernier tiers du XX siècle et leur désir d’une retraite productive où ils puissent réinventer une nouvelle étape de leur vie, ont produit un changement dans les salles de classes des institutions formelles et informelles au Québec. Les aînés d’aujourd’hui retournent aux salles de classes mais pas pour la même raison que lorsqu’ils étaient adolescents ou étudiants à l’université, là où l’éducation était connectée aux objectifs professionnels et à la promotion sociale, mais plutôt avec le désir d’intégration continue et de la croissance personnelle. Ce désir est traduit par un apprentissage tout au long de la vie. En effet, l’éducation du Troisième âge devient importante, ainsi que la gérontagogie (branche de la gérontologie) qui étudie le processus d’apprentissage des aînés. Le rôle des Universités du troisième âge (UTA) demeure important mais aussi celui des institutions diverses comme par exemple les « Elder Hostels » et les Centres Communautaires. Dans ce contexte-ci, et basé sur nôtre expérience d’animateur d’ateliers d’espagnol d’une Université (de la province) du Québec, nous présentons quelques méthodologies et stratégies appliquées aux cours d’espagnol langue étrangère (ELE). Ces méthodologies et stratégies sont résumées dans un journal du professeur qui nous aidera à observer le niveau d’efficacité de celles-ci dans les ateliers de conversation. Ainsi, nous avons la possibilité de créer notre propre approche méthodologique qui pourra venir en aide à d’autres professeurs d’espagnol.
Resumo:
Cette étude avait comme objectif d’évaluer la coagulation par l’utilisation de la thrombélastographie (TEG®) et de la génération de thrombine (GT) chez des beagles en santé recevant de la prednisone ainsi que chez des chiens atteints d’hyperadrénocorticisme (HAC). Dans un premier temps, six beagles adultes en santé ont été évalués dans une étude prospective longitudinale au courant de laquelle chaque individu recevait 1 mg/kg/jour de prednisone par la voie orale pendant 2 semaines. Après un arrêt de traitement d’une durée de 6 semaines, ils ont finalement reçu 4 mg/kg/jour de prednisone pour encore 2 semaines. Les tracés TEG® et les mesures de la GT ont été obtenus au temps 0, à la fin des 6 semaines d’interruption de traitement, ainsi qu’à la suite des 2 dosages de prednisone. Suite aux 2 traitements avec la prednisone, des résultats significatifs,lorsque comparés aux valeurs de base, ont été obtenus pour la cinétique du caillot (« clot kinetics » ou K), l’angle alpha (α) et l’amplitude maximale (« maximal amplitude » ou MA). La GT avait augmenté de manière significative mais seulement après la dose de 1 mg/kg/jour de prednisone. Dans un deuxième temps, 16 chiens atteints d’HAC ont été évalués avant l’initiation d’un traitement pour leur condition. Quinze chiens ont été évalués par TEG® et 15 par GT. Les données obtenues ont ensuite été comparées aux valeurs normales. L’analyse par TEG® a démontré que 12/15 chiens avaient au moins un paramètre suggérant un état d’hypercoagulabilité. L’analyse par GT a démontré que 4/15 chiens avaient des changements compatibles avec un état d’hypercoagulabilité. Un test t-pairé pour des valeurs de variance inégales a démontré que le groupe de chiens atteints d’HAC avait des tracés hypercoagulables et un potentiel endogène de thrombine (« endogenous thrombin potential » ou ETP) plus élevé, lorsque comparé à la population de référence.
Resumo:
L’objectif de ce mémoire est de montrer qu’il est nécessaire de complémenter les schèmes multiculturalistes existants de mesures destinées à promouvoir l’autonomie et l’égalité des individus vulnérables au sein des groupes culturels et religieux minoritaires. En effet, les politiques multiculturalistes sont justifiées, dans une société libérale, dans la mesure où elles permettent de compenser les inégalités imméritées liées à l’appartenance à une culture minoritaire. C’est de cette justification de l’aménagement de la diversité culturelle dont traite le premier chapitre de ce mémoire. Cependant, plusieurs féministes, dont les critiques sont exposées au deuxième chapitre, ont mis en lumière le fait que ces politiques peuvent, en pratique, contribuer à fragiliser encore la position des individus vulnérables au sein de ces minorités et donc à renforcer les inégalités au sein du groupe. Dans le troisième chapitre, à l’aide du concept de capabilités, compris comme définition opérationnelle et procédurale de l’autonomie relationnelle, un modèle pouvant servir de complément aux schèmes multiculturels existants est élaboré. Le fonctionnement concret que pourrait avoir ce modèle fait l’objet du quatrième chapitre. Le modèle des capabilités – qui sont ici conçues à la fois comme guide pour les politiques et comme critère pour trancher les cas particuliers – pourrait donc mener à un type d’aménagement de la diversité à la fois plus flexible, au niveau des pratiques qu’il serait possible d’accommoder, mais également plus exigeant, au niveau des mécanismes institutionnels à mettre en place.
Resumo:
Comme les études sur la couverture médiatique ont démontré qu’elle influence pratiquement toute personne qu’elle touche, des consommateurs aux jurés aux témoins, les deux études de cette thèse doctorale ont respectivement examiné l’opinion du public sur l’imposition de restrictions sur les médias dans les palais des justices et l’impact de la couverture médiatique sur la santé mentale des victimes de crime. Le gouvernement québécois a récemment introduit des restrictions sur les médias dans les palais de justice afin de minimiser l’influence des journalistes et des caméramans. Bien que l’affaire a atteint la Cour suprême du Canada, une étude préliminaire a trouvé que le public est largement favorable à ces restrictions (Sabourin, 2006). La première partie de cette thèse doctorale cherchait à approfondir ce sujet avec un échantillon plus représentatif de la population. Deux cent quarante-trois participants comprenant six groupes expérimentaux ont rempli des questionnaires mesurant leur opinion de ces restrictions. Les participants ont été divisé en deux conditions expérimentales où ils ont visionné soit des clips audiovisuels démontrant une atmosphère de débordement dans des palais de justice ou des clips plutôt calmes. Un troisième groupe n’a visionné aucun clip audiovisuel. De plus, il y avait deux versions du questionnaire ayant 20 items où les questions ont été présenté en sens inverse. L’étude a trouvé qu’une grande majorité des participants, soit presque 79 pourcent, ont supporté la restriction des médias dans les palais de justice. Il est intéressant de noter qu’un des groupes n’a pas supporté les restrictions – le groupe contrôle qui a lu les énoncés supportant l’absence des restrictions en premier. La deuxième composante de cette thèse doctorale a examiné l’impact des médias sur les victimes de crime. De nombreuses études expérimentales ont démontré que les victimes de crime sont particulièrement susceptibles à des problèmes de santé mentale. En effet, elles ont trois fois plus de chances de développer un trouble de stress post-traumatique (TSPT) que la population générale. Une étude a confirmé cette conclusion et a trouvé que les victimes de crimes qui avaient une impression plutôt négative de leur couverture médiatique avaient les taux les plus élévés de TSPT (Maercker & Mehr, 2006). Dans l’étude actuelle, vingt-trois victimes de crimes ont été interviewé en utilisant une technique narrative et ont complété deux questionnaires mésurant leur symptômes du TSPT et d’anxiété, respectivement. Une grande proportion des participantes avaient des symptômes de santé mentale et des scores élévés sur une échelle évaluant les symptômes du TSPT. La majorité des narratives des participants étaient négatives. Les thèmes les plus communs incluent dans ces narratives étaient l’autoculpabilisation et une méfiance des autres. La couverture médiatique ne semblaient pas être liée à des symptômes de santé mentale, quoique des facteurs individuels pourraient expliquer pourquoi certains participants ont été favorables envers leur couverture médiatique et d’autres ne l’été pas. Les résultats de ces deux études suggèrent que le public approuve la restriction des médias dans les palais de justice et que des facteurs individuels pourraient expliqués comment la couverture médiatique affecte les victimes de crime. Ces résultats ajoutent à la littérature qui questionne les pratiques actuelles qu’utilisent les médias.
Resumo:
Les commotions cérébrales ont longtemps été considérées comme une blessure ne comportant que peu ou pas de conséquences. Cependant, la mise à la retraite forcée de plusieurs athlètes de haut niveau, liée au fait d'avoir subi des commotions cérébrales multiples, a porté cette question au premier plan de la culture scientifique et sportive. Malgré la sensibilisation croissante du public et la compréhension scientifique accrue des commotions cérébrales, il reste encore beaucoup d’inconnus au sujet de ces blessures. En effet, il est difficile de comprendre comment cette atteinte peut avoir des effets si profonds malgré le fait qu’elle n’entraîne apparemment pas de conséquences physiques apparentes lorsque les techniques traditionnelles d’imagerie cérébrale sont utilisées. Les techniques de neuroimagerie fonctionnelle ont cependant contribué à répondre aux nombreuses questions entourant les conséquences des commotions cérébrales ainsi qu'à accroître la compréhension générale de la physiopathologie de commotions cérébrales. Bien que les techniques de base telles que l'imagerie structurelle comme les scans TC et IRM soient incapables de détecter des changements structurels dans la grande majorité des cas (Ellemberg, Henry, Macciocchi, Guskiewicz, & Broglio, 2009; Johnston, Ptito, Chankowsky, & Chen, 2001), d'autres techniques plus précises et plus sensibles ont été en mesure de détecter avec succès des changements dans le cerveau commotionné. Des études d’IRM fonctionelle ont entre autres établi une solide relation entre les altérations fonctionnelles et les symptômes post-commotionels (Chen, Johnston, Collie, McCrory, & Ptito, 2007; Chen et al., 2004; Chen, Johnston, Petrides, & Ptito, 2008; Fazio, Lovell, Pardini, & Collins, 2007). Les mesures électrophysiologiques telles que les potentiels évoqués cognitifs (ERP) (Gaetz, Goodman, & Weinberg, 2000; Gaetz & Weinberg, 2000; Theriault, De Beaumont, Gosselin, Filipinni, & Lassonde, 2009; Theriault, De Beaumont, Tremblay, Lassonde, & Jolicoeur, 2010) et la stimulation magnétique transcrânienne ou SMT (De Beaumont, Brisson, Lassonde, & Jolicoeur, 2007; De Beaumont, Lassonde, Leclerc, & Theoret, 2007; De Beaumont et al., 2009) ont systématiquement démontré des altérations fonctionnelles chez les athlètes commotionnés. Cependant, très peu de recherches ont tenté d'explorer davantage certaines conséquences spécifiques des commotions cérébrales, entre autres sur les plans structural et métabolique. La première étude de cette thèse a évalué les changements structurels chez les athlètes commotionnés à l’aide de l'imagerie en tenseur de diffusion (DTI) qui mesure la diffusion de l'eau dans la matière blanche, permettant ainsi de visualiser des altérations des fibres nerveuses. Nous avons comparé les athlètes commotionnés à des athlètes de contrôle non-commotionnés quelques jours après la commotion et de nouveau six mois plus tard. Nos résultats indiquent un patron constant de diffusion accrue le long des voies cortico-spinales et dans la partie du corps calleux reliant les régions motrices. De plus, ces changements étaient encore présents six mois après la commotion, ce qui suggère que les effets de la commotion cérébrale persistent bien après la phase aiguë. Les deuxième et troisième études ont employé la spectroscopie par résonance magnétique afin d'étudier les changements neurométaboliques qui se produisent dans le cerveau commotionné. La première de ces études a évalué les changements neurométaboliques, les aspects neuropsychologiques, et la symptomatologie dans la phase aiguë post-commotion. Bien que les tests neuropsychologiques aient été incapables de démontrer des différences entre les athlètes commotionnés et non-commotionnés, des altérations neurométaboliques ont été notées dans le cortex préfrontal dorsolatéral ainsi que dans le cortex moteur primaire, lesquelles se sont avérées corréler avec les symptômes rapportés. La deuxième de ces études a comparé les changements neurométaboliques immédiatement après une commotion cérébrale et de nouveau six mois après l’atteinte. Les résultats ont démontré des altérations dans le cortex préfrontal dorsolatéral et moteur primaire dans la phase aiguë post-traumatique, mais seules les altérations du cortex moteur primaire ont persisté six mois après la commotion. Ces résultats indiquent que les commotions cérébrales peuvent affecter les propriétés physiques du cerveau, spécialement au niveau moteur. Il importe donc de mener davantage de recherches afin de mieux caractériser les effets moteurs des commotions cérébrales sur le plan fonctionnel.
Resumo:
Le lien entre le spectre de la matrice de transfert de la formulation de spins du modèle de Potts critique et celui de la matrice de transfert double-ligne de la formulation de boucles est établi. La relation entre la trace des deux opérateurs est obtenue dans deux représentations de l'algèbre de Temperley-Lieb cyclique, dont la matrice de transfert de boucles est un élément. Le résultat est exprimé en termes des traces modifiées, qui correspondent à des traces effectuées dans le sous-espace de l'espace de représentation des N-liens se transformant selon la m ième représentation irréductible du groupe cyclique. Le mémoire comporte trois chapitres. Dans le premier chapitre, les résultats essentiels concernant les formulations de spins et de boucles du modèle de Potts sont rappelés. Dans le second chapitre, les propriétés de l'algèbre de Temperley-Lieb cyclique et de ses représentations sont étudiées. Enfin, le lien entre les deux traces est construit dans le troisième chapitre. Le résultat final s'apparente à celui obtenu par Richard et Jacobsen en 2007, mais une nouvelle représentation n'ayant pas été étudiée est aussi investiguée.
Resumo:
Cette thèse s'articule autour de trois essais portant sur des questions internationales en économie des ressources naturelles. Le premier essai examine la production et l'échange des ressources non-renouvelables dans un modèle spatial et souligne le rôle de la superficie des pays et du coût des transports dans la détermination du sens de l'échange. Le deuxième essai considère le tarif d'extraction de la rente de rareté liée aux ressources naturelles non-renouvelables avec le modèle spatial développé dans premier essai. Le cadre spatial (plus général) permet de représenter des pays qui sont à la fois importateurs et producteurs de la ressource, ce qui n'est pas possible dans les modèles traditionnels de commerce international où les pays sont traités comme des points (sans dimension). Le troisième essai aborde la question des droits de propriétés sur les zones maritimes et examine l'allocation d'une population de pêcheurs entre les activités productives et non-productives dans une communauté côtière. Le premier chapitre propose un modèle spatial de commerce international des ressources non-renouvelables. Le cadre spatial considère explicitement la différence de taille géographique (superficie) entre les pays et permet ainsi de tenir compte du fait que les gisements naturels et leurs utilisateurs soient dispersés dans l'espace, même à l'intérieur d'un pays. En utilisant un modèle spatial à la Hotelling, nous examinons l'évolution dans le temps du sens de l'échange entre deux pays (ou régions) qui diffèrent du point de vue de leur technologie de production, de leur superficie et de leur dotation en gisement d'une ressource naturelle non-renouvelable. Le chapitre met en évidence le rôle de la taille géographique dans la détermination du sens de l'échange, à côté des explications traditionnelles que sont l'avantage comparatif et les dotations des facteurs. Notre analyse est fondamentalement différente des autres contributions dans la littérature sur le commerce international des ressources naturelles parce qu'elle souligne l'importance de la taille géographique et du coût de transport par rapport à d'autres facteurs dans la détermination des flux de ressource à l'équilibre. Le coût unitaire de transport joue un rôle capital pour déterminer si la différence de superficie entre les pays influence le sens de l'échange à l'équilibre plus que les autres facteurs. Le chapitre discute aussi du caractère régional des échanges qui a été observé pour certaines ressources telles que le minerai de fer et la bauxite. Le chapitre deux aborde la question de la répartition de la rente de rareté liée aux ressources naturelles non-renouvelables entre les pays producteurs et les pays consommateurs. Cette question a été abordée dans la littérature sous une hypothèse quelque peu restrictive. En effet, dans la plupart des travaux portant sur ce sujet le pays importateur est automatiquement considéré comme dépourvu de gisement et donc non producteur de la ressource. Pourtant la réalité est qu'il existe des ressources pour lesquelles un pays est à la fois producteur et importateur. Le cadre d'analyse de ce second essai est le modèle spatial développé dans le premier essai, qui permet justement qu'un pays puisse être à la fois importateur et producteur de la ressource. Le pays importateur détermine alors simultanément le tarif optimal et le taux d'extraction de son propre stock. Nous montrons que le tarif optimal croît au taux d'intérêt et de ce fait, ne crée aucune distorsion sur le sentier d'extraction de la ressource. Le tarif optimal permet de récupérer toute la rente lorsque le pays exportateur ne consomme pas la ressource. Néanmoins, la possibilité pour le pays exportateur de consommer une partie de son stock limite la capacité du pays importateur à récupérer la rente chez le pays exportateur. La présence de gisements de la ressource dans le pays importateur réduit la rente du pays exportateur et de ce fait renforce la capacité du pays importateur à récupérer la rente chez le pays exportateur. Le tarif initial est une fonction décroissante du stock de ressource dans le pays importateur. Cet essai aborde également la question de la cohérence dynamique du tarif obtenu avec la stratégie en boucle ouverte. Le troisième chapitre examine un problème d'allocation de l'effort entre les activités productives (par exemple la pêche) et les activités non productives (par exemple la piraterie maritime) dans une population de pêcheurs. La répartition de la population entre les activités de pêche et la piraterie est déterminée de façon endogène comme une conséquence du choix d'occupation. Nous établissons l'existence d'une multiplicité d'équilibres et mettons en évidence la possibilité d'une trappe de piraterie, c'est-à-dire un équilibre stable où une partie de la population est engagée dans les actes de piraterie. Le modèle permet d'expliquer l'augmentation significative des attaques de piraterie dans le Golfe d'Aden au cours des dernières années. Le chapitre discute aussi des différents mécanismes pour combattre la piraterie et souligne le rôle crucial des droits de propriété.
Resumo:
Au Québec, la compétence professionnelle à intégrer les technologies de l’information et de la communication (TIC) est une compétence professionnelle à acquérir par les étudiants en enseignement. Cependant, son acquisition est problématique à plusieurs niveaux. Afin d’évaluer et mieux comprendre la compétence, cette thèse présente trois objectifs : 1) décrire le degré de maitrise des TIC et leurs usages dans les salles de classe 2) identifier les facteurs qui influencent l’intégration des TIC en fonction de la compétence professionnelle, et finalement 3) décrire le niveau d’atteinte des composantes de la compétence. Pour atteindre les objectifs de l’étude, une méthodologie mixte fut employée. Ce sont 2065 futurs enseignants du Québec provenant de neuf universités québécoises qui ont complété le questionnaire en plus de 34 participants à des groupes de discussion (n = 5). Cette thèse rédigée sous forme d’articles, répondra à chacun des objectifs visés. Dans le but de mieux comprendre l’utilisation actuelle des TIC par les futurs maitres, le premier article fournira un aperçu de la maitrise d’outils technologiques susceptibles d’être utilisés lors des stages. Le deuxième article visera à identifier les variables externes ainsi que les différentes composantes de la compétence qui ont une influence sur l’intégration des TIC lors des stages. Dans le troisième article, afin de comprendre où se situent les forces et les faiblesses des futurs maitres quant à la compétence professionnelle à intégrer les TIC, une description du niveau d’atteinte de chacune des composantes sera réalisée afin d’en dégager une appréciation globale. Les principaux résultats montrent que pour la moitié des répondants, seuls cinq outils sur 12 sont intégrés en stage et ce sont principalement les outils peu complexes qui sont bien maitrisés. Le logiciel de présentation Power Point, est le plus fréquemment utilisé. Les données considérées dans le premier article suggèrent aussi l’importance d’augmenter, de façon générale, la maitrise technique des futurs enseignants. Les résultats du second article ont permis de constater que la « prévision d’activités faisant appel aux TIC » est une variable prédictive majeure pour l’intégration des TIC. L’analyse des résultats suggèrent le besoin d’enseigner aux futurs maitres comment développer le réflexe d’inclure les TIC dans leurs plans de leçons. De plus, l’appropriation de la sixième composante de la compétence joue un rôle important sur la probabilité d’intégrer les TIC. Les résultats du troisième article indiquent que les composantes 2, 4, 5 et 6 de la compétence sont partiellement maitrisées. La mieux maitrisée est la première composante. Finalement, la troisième composante de la compétence s’est avérée être encore non atteinte et reste à être développer par les futurs enseignants. Cette thèse nous apprend que des efforts considérables restent encore à accomplir quant à la maitrise de la compétence professionnelle à intégrer les TIC. Ces efforts doivent être accomplis à la fois par les futurs enseignants ainsi que par les universités au niveau de la structure des cours de TIC en formation initiale des maitres.
Resumo:
Ce mémoire s’intéresse au système binaire massif CV Serpentis, composé d’une Wolf- Rayet riche en carbone et d’une étoile de la séquence principale, de type spectral O (WC8d + O8-9IV). D’abord, certains phénomènes affectant les étoiles massives sont mentionnés, de leur passage sur la séquence principale à leur mort (supernova). Au cours du premier cha- pitre, un rappel est fait concernant certaines bases de l’astrophysique stellaire observa- tionnelle (diagramme Hertzsprung-Russell, phases évolutives, etc...). Au chapitre suivant, un des aspects les plus importants de la vie des étoiles massives est abordé : la perte de masse sous forme de vents stellaires. Un historique de la découverte des vents ouvre le chapitre, suivi des fondements théoriques permettant d’expliquer ce phénomène. Ensuite, différents aspects propres aux vents stellaires sont présentés. Au troisième chapitre, un historique détaillé de CV Ser est présenté en guise d’introduc- tion à cet objet singulier. Ses principales caractéristiques connues y sont mentionnées. Finalement, le cœur de ce mémoire se retrouve au chapitre 4. Des courbes de lumière ultra précises du satellite MOST (2009 et 2010) montrent une variation apparente du taux de perte de masse de la WR de l’ordre de 62% sur une période orbitale de 29.701 jours. L’analyse des résidus permet de trouver une signature suggérant la présence de régions d’interaction en corotation (en anglais corotating interaction regions, ou CIR) dans le vent WR. Une nouvelle solution orbitale est présentée ainsi que les paramètres de la région de collision des vents et les types spectraux sont confirmés.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Ce mémoire décrit le développement d’une nouvelle méthodologie d’expansion de cycle irréversible à partir de N-alkyl-3,4-déhydroprolinols pour former des N-alkyl tétrahydropyridines 3-substituées en passant par un intermédiaire aziridinium bicyclique. Cette méthode permet l’introduction d’un vaste éventail de substituants à la position 3 et tolère bien la présence de groupements aux positions 2 et 6, donnant accès à des pipéridines mono-, di- ou trisubstituées avec un excellent diastéréocontrôle. De plus, il est démontré que l’information stéréogénique du 3,4-déhydroprolinol de départ est totalement transférée vers le produit tétrahydropyridine. Additionnellement, une méthodologie fut dévelopée pour la préparation des produits de départ 3,4-déhydroprolinols en forme énantiopure, avec ou sans substituants aux positions 2 et 5, avec un très bon stéréocontrôle. Le premier chapitre présente un résumé de la littérature sur le sujet, incluant un bref survol des méthodes existantes pour la synthèse de pipéridines 3-substituées, ainsi qu’une vue d’ensemble de la chimie des aziridiniums. L’hypothèse originale ainsi que le raisonnement pour l’entreprise de ce projet y sont également inclus. Le second chapitre traite de la synthèse des N-alkyl-3,4-déhydroprolinols utilisés comme produits de départ pour l’expansion de cycle vers les tétrahydropyridines 3-substituées, incluant deux routes synthétiques différentes pour leur formation. Le premier chemin synthétique utilise la L-trans-4-hydroxyproline comme produit de départ, tandis que le deuxième est basé sur une modification de la réaction de Petasis-Mannich suivie par une métathèse de fermeture de cycle, facilitant l’accès aux précurseurs pour l’expansion de cycle. Le troisième chapitre présente une preuve de concept de la viabilité du projet ainsi que l’optimisation des conditions réactionnelles pour l’expansion de cycle. De plus, il y est démontré que l’information stéréogénique des produits de départs est transférée vers les produits. iv Au quatrième chapitre, l’étendue des composés pouvant être synthétisés par cette méthodologie est présentée, ainsi qu’une hypothèse mécanistique expliquant les stéréochimies relatives observées. Une synthèse énantiosélective efficace et divergente de tétrahydropyridines 2,3-disubstituées est également documentée, où les deux substituants furent introduits à partir d’un intermédiaire commun en 3 étapes.