983 resultados para [JEL:C53] Mathématiques et méthodes quantitatives - Modélisation économétrique - Prévisions et autres applications de modèles
Resumo:
PROBLÉMATIQUE La violence collective, à travers les guerres civiles et autres conflits politiques violents, constitue un lourd fardeau pour la santé publique. Plus de la moitié des décès causés par l’ensemble des conflits dans le monde entier se trouvent en Afrique. L’une des conséquences est le déplacement massif des populations qui se réfugient vers l’extérieur du pays, mais aussi de plus en plus à l’intérieur des frontières nationales. Ceux qui ne traversent pas sont appelés déplacés internes. Leur état de santé est au moins aussi vulnérable que celui de réfugiés, mais est très peu documenté. De 1993 à 2005, le Burundi a plongé dans une crise politico-sociale sans précédent. En 2001, environ 10 % de la population vivaient dans des camps de déplacés. OBJECTIF Documenter l’état de santé des personnes déplacées par la guerre au Burundi et identifier ses déterminants. CADRE CONCEPTUEL Le cadre conceptuel est basé sur la modélisation de l’association entre les événements traumatiques, les facteurs de l’environnement post-traumatique et l’état de santé des déplacés internes burundais. MÉTHODE Une enquête transversale a été menée dans deux camps de déplacés au Burundi. Les données ont été obtenues de façon rétrospective sur l’exposition aux événements traumatiques et de manière transversale pour l’état de santé et les facteurs de l’environnement post-traumatique. Les participants ont été interrogés sur les événements traumatiques vécus personnellement ou par leurs proches selon une courte échelle élaborée à cet effet. De même, les facteurs de l’environnement post-traumatique ont été documentés. Pour la mesure de l’état de santé, un questionnaire comportant certains des 17 items du profil de santé de Duke a été utilisé. Deux traductions ont été réalisées et plusieurs items ont été adaptés. RÉSULTATS Les événements traumatiques vécus par les déplacés internes burundais sont négativement associés à l’état de santé physique, à l’état de santé sociale, à l’état de santé perçu et, positivement, avec l’incapacité. De même, plusieurs facteurs de l’environnement post-traumatique sont associés à l’état de santé. Par contre, certaines associations sont à interpréter selon leurs interactions avec les événements traumatiques. Celles-ci agissent parfois comme modificateurs d’effet, en amortissant ou en amplifiant le lien associatif initial entre certains événements traumatiques et l’état de santé des déplacés. CONCLUSION : Les résultats font ressortir un effet différentiel associé d’une part aux événements traumatiques vécus précédemment et d’autre part, en interaction avec ces derniers, à l’environnement post-traumatique. Notre thèse en arrive à la conclusion que les facteurs de l’environnement post-traumatique constituent des déterminants importants de l’état de santé des déplacés de guerre.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
Notre contexte pratique — nous enseignons à des élèves doués de cinquième année suivant le programme international — a grandement influencé la présente recherche. En effet, le Programme primaire international (Organisation du Baccalauréat International, 2007) propose un enseignement par thèmes transdisciplinaires, dont un s’intitulant Où nous nous situons dans l’espace et le temps. Aussi, nos élèves sont tenus de suivre le Programme de formation de l’école québécoise (MÉLS Ministère de l'Éducation du Loisir et du Sport, 2001) avec le développement, notamment, de la compétence Résoudre une situation-problème et l’introduction d’une nouveauté : les repères culturels. Après une revue de la littérature, l’histoire des mathématiques nous semble tout indiquée. Toutefois, il existe peu de ressources pédagogiques pour les enseignants du primaire. Nous proposons donc d’en créer, nous appuyant sur l’approche constructiviste, approche prônée par nos deux programmes d’études (OBI et MÉLS). Nous relevons donc les avantages à intégrer l’histoire des mathématiques pour les élèves (intérêt et motivation accrus, changement dans leur façon de percevoir les mathématiques et amélioration de leurs apprentissages et de leur compréhension des mathématiques). Nous soulignons également les difficultés à introduire une approche historique à l’enseignement des mathématiques et proposons diverses façons de le faire. Puis, les concepts mathématiques à l’étude, à savoir l’arithmétique, et la numération, sont définis et nous voyons leur importance dans le programme de mathématiques du primaire. Nous décrivons ensuite les six systèmes de numération retenus (sumérien, égyptien, babylonien, chinois, romain et maya) ainsi que notre système actuel : le système indo-arabe. Enfin, nous abordons les difficultés que certaines pratiques des enseignants ou des manuels scolaires posent aux élèves en numération. Nous situons ensuite notre étude au sein de la recherche en sciences de l’éducation en nous attardant à la recherche appliquée ou dite pédagogique et plus particulièrement aux apports des recherches menées par des praticiens (un rapprochement entre la recherche et la pratique, une amélioration de l’enseignement et/ou de l’apprentissage, une réflexion de l’intérieur sur la pratique enseignante et une meilleure connaissance du milieu). Aussi, nous exposons les risques de biais qu’il est possible de rencontrer dans une recherche pédagogique, et ce, pour mieux les éviter. Nous enchaînons avec une description de nos outils de collecte de données et rappelons les exigences de la rigueur scientifique. Ce n’est qu’ensuite que nous décrivons notre séquence d’enseignement/apprentissage en détaillant chacune des activités. Ces activités consistent notamment à découvrir comment différents systèmes de numération fonctionnent (à l’aide de feuilles de travail et de notations anciennes), puis comment ces mêmes peuples effectuaient leurs additions et leurs soustractions et finalement, comment ils effectuaient les multiplications et les divisions. Enfin, nous analysons nos données à partir de notre journal de bord quotidien bonifié par les enregistrements vidéo, les affiches des élèves, les réponses aux tests de compréhension et au questionnaire d’appréciation. Notre étude nous amène à conclure à la pertinence de cette séquence pour notre milieu : l’intérêt et la motivation suscités, la perception des mathématiques et les apprentissages réalisés. Nous revenons également sur le constructivisme et une dimension non prévue : le développement de la communication mathématique.
Resumo:
Les caractéristiques de l’enfant à la maternelle prédisent le succès des transitions à travers les premières années scolaires ainsi que la poursuite académique à l’âge de 22 ans. Les habiletés en mathématiques et langagières à la maternelle sont étroitement liées au rendement scolaire. Cependant, il est également important de tenir compte du rôle de l’autocontrôle et de la maîtrise de soi dans la réussite académique. Spécifiquement, la capacité de suivre des instructions et travailler de manière autonome pourrait faciliter l’adaptation des enfants en milieu scolaire. La présente thèse examine la valeur potentielle de cibler l’engagement scolaire à la maternelle, sous forme d’orientation vers la tâche, pour améliorer l’ajustement académique des enfants au cours du primaire. Une première étude, a examiné si l’engagement scolaire à la maternelle est associé à un meilleur niveau de réussite scolaire et d’ajustement psychosocial à la quatrième année du primaire. Les résultats suggèrent que les habitudes de travail dès l’entrée à l’école représentent des prédicteurs robustes du rendement académique quatre ans plus tard. Un plus haut niveau d’engagement prédit également moins de comportements externalisés et de victimisation par les pairs en quatrième année. Ces résultats sont demeurés significatifs suite au contrôle statistique des habilités en mathématique, langagières et socio-émotionnelles des enfants ainsi que de facteurs de risques familiaux. Une deuxième étude a examiné l’origine de l’engagement scolaire au primaire. Cette étude a permis d’observer que le niveau de contrôle cognitif des enfants d’âge préscolaire représente un prédicteur significatif de l’engagement scolaire à la maternelle. Ces résultats suggèrent l’existence d’une continuité développementale du contrôle cognitif de la petite enfance à la maternelle, et que celle-ci pourrait servir de base pour le développement de bonnes habitudes de travail au primaire. Finalement dans une troisième étude, des analyses centrées sur la personne ont été effectués. Trois sous-groupes d’enfants ont été identifiés dans notre échantillon. Les résultats obtenus indiquent des trajectoires d’engagement bas, moyen et élevé respectivement, au primaire. Le faible contrôle cognitif et les facteurs de risques familiaux ont prédit l’appartenance à la trajectoire d’engagement faible. Dans l’ensemble, les résultats de ces trois études soulignent l’importance de tenir compte de l’engagement dans les évaluations de la maturité scolaire à la maternelle. Cette recherche pourrait également informer le développement de programmes d’interventions préscolaires visant à augmenter la préparation scolaire ainsi que la réduction des écarts au niveau de la réussite académique des enfants.
Resumo:
La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Contexte Autant dans une population schizophrène que non schizophrène, l‘abus de substance a pour conséquence la manifestation de symptômes psychiatriques et neurologiques. Dans les présentes études cas-témoins, nous avons examiné les différences initiales ainsi que les changements suite au traitement de 12 semaines à la quetiapine au niveau de la sévérité de la toxicomanie et des symptômes psychiatriques et neurologiques chez 3 groupes distincts. Ces 3 groupes sont: des patients schizophrènes avec une toxicomanie (double diagnostic: DD), des patients schizophrènes sans toxicomanie concomittante (SCZ) et finalement, des toxicomanes non schizophrènes (SUD). Parallèlement, afin de nous aider à interpréter nos résultats, nous avons mené deux revues systématiques: la première regardait l‘effet d‘antipsychotiques dans le traitement de troubles d‘abus/dépendance chez des personnes atteintes ou non de psychoses, la deuxième comparait l‘efficacité de la quetiapine et sa relation dose-réponse parmi différents désordres psychiatriques. Méthodes Pour nos études cas-témoins, l‘ensemble des symptômes psychiatriques et neurologiques ont été évalués via l‘Échelle du syndrome positif et négatif (PANSS), l‘Échelle de dépression de Calgary, l‘Échelle des symptômes extrapyramidaux (ESRS) ainsi qu‘avec l‘Échelle d‘akathisie de Barnes. Résultats À la suite du traitement de 12 semaines avec la quetiapine, les groupes SCZ et DD recevaient des doses de quetiapine significativement plus élevées (moyenne = 554 et 478 mg par jour, respectivement) par rapport au groupe SUD (moyenne = 150 mg par jour). Aussi, nous avons observé chez ces mêmes patients SUD une plus importante baisse du montant d‘argent dépensé par semaine en alcool et autres drogues, ainsi qu‘une nette amélioration de la sévérité de la toxicomanie comparativement aux patients DD. Par conséquent, à la fin de l‘essai de 12 semaines, il n‘y avait pas de différence significative dans l‘argent dépensé en alcool et drogues entre les deux groupes de toxicomanes iv or, les patients DD présentait, comme au point de départ, un score de toxicomanie plus sévère que les SUD. Étonnamment, aux points initial et final de l‘étude, le groupe DD souffrait de plus de symptômes parkinsoniens et de dépression que le groupe SCZ. Par ailleurs, nous avons trouvé qu‘initiallement, les patients SUD présentaient significativement plus d‘akathisie, mais qu‘en cours de traitement, cette akathisie reliée à l‘abus/dépendance de cannabis s‘est nettement améliorée en comparaison aux patients SCZ. Enfin, les patients SUD ont bénéficié d‘une plus grande diminution de leurs symptômes positifs que les 2 groupes atteints de schizophrénie. Conclusions Bref, l‘ensemble de nos résultats fait montre d‘une vulnérabilité accentuée par les effets négatifs de l‘alcool et autres drogues dans une population de patients schizophrènes. Également, ces résultats suggèrent que l‘abus de substance en combinaison avec les états de manque miment certains symptômes retrouvés en schizophrénie. De futures études seront nécessaires afin de déterminer le rôle spécifique qu‘a joué la quetiapine dans ces améliorations.
Resumo:
Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.
Resumo:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
Resumo:
L’actualité entourant les Jeux olympiques de Vancouver de 2010 a fait couler beaucoup d’encre. Les retombées économiques enviables que procure l’exclusivité de la commandite aux Jeux olympiques suscitent la convoitise chez de nombreux concurrents commerciaux. Face aux phénomènes grandissant de la contrefaçon de la marque olympique et du marketing insidieux, le Comité international olympique et les pays hôtes des Jeux ont apporté une couche supplémentaire de protection pour la marque olympique. Au Canada, la Loi sur les marques olympiques et paralympiques (LMOP) fut sanctionnée le 22 juin 2007 par la Gouverneure Générale. Les sections-clés de cette loi sont arrivées à échéance le 31 décembre 2010 alors que d’autres de ses aspects sont permanents. La première partie de cet article a pour but de présenter les enjeux reliés à la protection de la propriété intellectuelle lors des Jeux de Vancouver, de définir et déterminer les limites de la propriété olympique, ainsi que le rôle de chaque acteur dans le domaine olympique. Nous étudierons les actions qui furent prises par le Comité d’organisation des Jeux olympiques et paralympiques d’hiver de 2010 à Vancouver (COVAN) et par les autres paliers de comités olympiques pour s’assurer la propriété de l’image olympique au Canada et l’importance de la LMOP dans leurs actions. Dans la deuxième partie de l’article, il sera question de la mise en œuvre de la protection de la marque olympique. Au cours des Jeux, le COVAN a dû faire face à l’adoption ou l’utilisation de la marque olympique par des tiers non autorisés et à des associations commerciales non autorisées avec l’image olympique. D’autres infractions ont également pris place sur Internet. Le présent article se veut un bilan de la situation canadienne suite aux Jeux olympiques de Vancouver de 2010. La LMOP a-t-elle été invoquée devant les tribunaux canadiens ? La loi a-t-elle effectivement été le seul rempart entre la protection olympique et les entreprises ou individus qui souhaitaient profiter indûment de l’événement ? Et finalement, cette initiative a-t-elle été déterminante dans le combat contre le marketing insidieux et autres attaques contre l’image olympique?
Resumo:
La nanomédecine, soit l’application des nanotechnologies à des activités médicales (diagnostic, thérapie, suivi du patient, etc.) soulève l’espoir d’une médecine améliorée aux applications extraordinaires, par exemple dans le domaine de la médecine régénérative. La nanomédecine suscite néanmoins des questions éthiques quant à ses buts et ses applications. Dans cette présentation, nous proposons de faire le point sur les enjeux éthiques associés à la nanomédecine. Pour y arriver, nous examinerons la littérature consacrée à ce sujet mais, aussi, les applications concrètes de la nanomédecine.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.
Resumo:
La présente étude a pour objectif de vérifier si le Canada respecte les prescriptions internationales en matière de droits de l’homme et d’entreprises vis-à-vis de l’encadrement qu’il exerce sur les sociétés minières canadiennes évoluant à l’étranger. En 2011, le Conseil des droits de l’homme de l’ONU a adopté des «Principes directeurs» afin de mettre en oeuvre le cadre de référence « Protéger, Respecter, Réparer » du Représentant spécial chargé de la question des droits de l’homme et des sociétés transnationales et autres entreprises. Selon ce cadre de référence, les États ont des obligations de protection et de réparation alors que les entreprises ont seulement la responsabilité de respecter les droits humains. Après six années de travail, le Représentant spécial John Ruggie, a fait le choix de formuler dans ses «Principes directeurs» des directives non contraignantes à l’égard des États et des entreprises afin de les aider à remplir leurs obligations et responsabilités vis-à-vis des droits de l’homme. Selon, l’ONU, cet instrument de portée universelle est le plus élaboré en la matière, si bien qu’il est recommandé aux entreprises et plus particulièrement aux États de s’y conformer lors de l’élaboration de leurs politiques respectives en matière d'activité économique et de droits humains. Il convient donc de vérifier d’une part si l’encadrement exercé par l’appareil législatif et gouvernemental vis-à-vis des sociétés minières canadiennes évoluant à l’étranger est conforme au principe directeur «Protéger». D’autres part, il convient de vérifier si les recours judiciaires et extrajudiciaires disponibles au Canada remplissent les exigences du principe directeur «Réparer». Cette double analyse permettra de conclure que le Canada respecte dans les grandes lignes ces «Principes directeurs» mais qu’il pourrait faire bien plus notamment en terme d’accès à des réparations effectives pour les victimes étrangères de minières canadiennes.
Resumo:
Cette recherche vise à documenter l’expérience scolaire des élèves québécois d’origine chinoise à l’école secondaire de langue française et à examiner les dynamiques qui influencent la réussite scolaire de ces élèves. Elle s’intéresse plus précisément aux impacts des facteurs relatifs à l’école, à la famille immigrante, et à ceux de la communauté ethnique sur l’intégration de ces jeunes dans un contexte francophone. Les données ont été principalement recueillies à travers des entretiens semi-structurés approfondis auprès d’élèves d’origine chinoise et de différents acteurs du paradigme éducatif (parents, acteurs scolaires et intervenants communautaires). D’autres instruments, tels que l’analyse du contenu de documents et de médias, ont également été utilisés afin de fournir des informations contextuelles et d’enrichir les données d’entrevues. Les données ont été analysées selon un cadre théorique ouvert et inclusif où la réussite scolaire des élèves issus de l’immigration est mesurée en mettant l’accent sur l’influence de la maîtrise de la langue d’enseignement, du capital culturel et social de la famille et de la communauté immigrante, ainsi que des facteurs systémiques au niveau de l’école. Les résultats de cette étude dans trois écoles cibles montrent qu’en général les élèves d’origine chinoise connaissent une expérience positive, surtout en ce qui concerne leur performance scolaire en mathématiques et sciences. Cependant, les nouveaux arrivants ont tendance à éprouver des difficultés dans l’apprentissage du français et pour leur intégration sociale. En effet, le processus d’intégration socioscolaire des jeunes chinois est sous l’influence des différents milieux qu’ils fréquentent. À propos de l’influence des dynamiques scolaires, les résultats de la recherche indiquent qu’une relation maître-élève positive joue un rôle important dans la réussite éducative de ces élèves. Toutefois, l’insuffisance du soutien à l’apprentissage défavorise l’intégration linguistique et sociale des élèves nouvellement arrivés. Les données de cette étude soulignent notamment le rôle de la famille immigrante et de la communauté ethnique dans l’expérience scolaire de ces jeunes. D’une part, sous l’impact des dynamiques familiales, notamment ce qui à trait au projet migratoire, à la culture chinoise et à l’expérience pré- et post-migratoire, les parents immigrants chinois s’impliquent activement dans les études de leurs enfants, malgré des barrières linguistiques et culturelles. D’autre part, afin de surmonter les effets négatifs des faibles liens entretenus avec l’école de langue française, les parents chinois ont largement recours aux ressources au sein de la communauté ethnique, tels que les médias de langue chinoise, les organismes ethnospécifiques de services aux immigrants, l’école du samedi et les institutions religieuses ethniques. Ces institutions sociales ethniques contribuent à soutenir les valeurs culturelles, échanger des informations, établir des modèles pour les jeunes et à fournir des services appropriés en matière culturelle et linguistique.