543 resultados para Systèmes de Recommandation Hybrides
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.
Resumo:
Les politiques éducatives se multiplient à l’échelle des pays industrialisés mais celles-ci semblent rencontrer de graves problèmes d’atteinte de résultats concrets et satisfaisants. La mise en œuvre d’une politique, notamment les stratégies gouvernementales « hybrides » sélectionnées, c’est-à-dire des stratégies d’implantation de politiques qui misent à la fois sur des stratégies « top-down » et aussi « bottom-up », semble être un élément-clé à considérer pour leur efficience (Gather-Thurler, 2000; Van Zanten, 2004; Fullan, 2005, 2007). Or, les connaissances concernant ces stratégies de mise en œuvre sont partielles, encore peu développées et les raisons qui expliquent ces choix politiques se font rares; ce qui rend la production de politiques effectives et durables difficile (Fullan, 2000; Leithwood et Earl, 2000; Van Zanten, 2004). Le Québec a entrepris, en 1997, une réforme à grande échelle de son système d’éducation; réforme qui mise explicitement sur des stratégies gouvernementales « hybrides » pour sa réalisation. Cette étude s’attarde à cette réforme, plus spécifiquement à sa réforme du curriculum au primaire, afin de : 1) retracer les grands moments-clés de la mise en œuvre de la politique associés aux différentes dimensions du concept d’« hybridité »; 2) identifier et décrire les stratégies gouvernementales « hybrides » qui leur sont associées; 3) formuler des hypothèses explicatives provisoires et les valider; 4) élaborer un modèle explicatif et 5) expliciter l’incidence du modèle proposé sur les théories existantes. Cette étude de cas est effectuée par l’entremise de deux formes de cueillette de données complémentaires : une analyse documentaire et des entrevues semi-dirigées. Une analyse documentaire est réalisée à partir des documents formels de l’autorité publique (N=14) et d’une revue de presse, de 1995 à 2003 (N=648). Les entrevues (N=23) visent, pour leur part, à recueillir les propos des : 1) concepteurs et décideurs; 2) opérationnalisateurs; 3) concepteurs-opérationnalisateurs et 4) experts. La combinaison des données recueillies permet d’établir la comparaison entre le processus et la structure (Meny et Thoenig, 1989), le prescriptif et l’effectif, afin de comprendre la vraie dynamique qui a animé le processus de mise en œuvre de la politique étudiée. Ainsi, l’examen du processus de mise en œuvre de la réforme du curriculum québécois du primaire permet de retracer le modèle d’implantation de la politique curriculaire québécoise. Ce modèle d’implantation novateur fait état du fait que des stratégies hybrides non improvisées et exigeantes furent pensées et proposées par les autorités québécoises. Ce modèle d’implantation élaboré permettait de penser que la politique curriculaire québécoise allait, possiblement, permettre d’obtenir des résultats tangibles et durables dans les milieux scolaires. L’analyse de la structure de mise en œuvre révèle, pour sa part, que les stratégies d’implantation qui se sont déployées sur le terrain rejoignaient presqu’intégralement les stratégies « hybrides » initialement prévues. Le processus d’implantation a cependant connu une évolution différente de celle attendue. La mise en œuvre concrète qui s’est vécue sur le terrain fut difficile et hasardeuse, malgré l’approche « hybride » adoptée. Les éléments qui expliquent les difficultés d’implantation vécues sont présentés et analysés dans cette étude.
Resumo:
Les émotions jouent un rôle primordial dans les processus cognitifs et plus particulièrement dans les tâches d’apprentissage. D’ailleurs, plusieurs recherches neurologiques ont montré l’interrelation qui existe entre la cognition et les émotions. Elles ont aussi déterminé plusieurs formes d’intelligence humaine autre que l’intelligence rationnelle parmi lesquelles nous distinguons la forme ayant comme dimension émotionnelle, à savoir l’intelligence émotionnelle, vu son impact sur les processus d’apprentissage. L’intelligence émotionnelle est alors un facteur significatif de réussite scolaire et professionnelle. Sous la lumière de ces constatations présentées, les informaticiens à leur tour, vont alors tenter de consentir de plus en plus de place au facteur émotionnel dans les systèmes informatiques et plus particulièrement dans ceux dédiés à l’apprentissage. L’intégration de l’intelligence émotionnelle dans ces systèmes et plus précisément, dans les Systèmes Tutoriels Intelligents (STI), va leur permettre de gérer les émotions de l’apprenant et par la suite améliorer ses performances. Dans ce mémoire, notre objectif principal est d’élaborer une stratégie d’apprentissage visant à favoriser et accentuer la mémorisation chez les enfants. Pour atteindre cet objectif, nous avons développé un cours d’anglais en ligne ainsi qu’un tuteur virtuel utilisant des ressources multimédia tels que le ton de la voix, la musique, les images et les gestes afin de susciter des émotions chez l’apprenant. Nous avons conduit une expérience pour tester l’efficacité de quelques stratégies émotionnelles ainsi qu’évaluer l’impact des émotions suscitées sur la capacité de mémorisation des connaissances à acquérir par l’apprenant. Les résultats de cette étude expérimentale ont prouvé que l’induction implicite des émotions chez ce dernier a une influence significative sur ses performances. Ils ont également montré qu’il n’existe pas une stratégie efficace pour tous les apprenants à la fois, cependant l’efficacité d’une telle stratégie par rapport à une autre dépend essentiellement du profil comportemental de l’apprenant déterminé à partir de son tempérament.
Resumo:
Cette thèse présente une série d'études qui visent la compréhension de la structure électronique de complexes de métaux de transition en employant diverses méthodes de spectroscopie. L'information sur la structure électronique aide à comprendre et développer des nouveaux matériaux, des nouvelles voies de synthèses, ainsi que des nouveaux modèles théoriques. Habituellement, afin d'explorer la structure électronique d'un système qui comporte en son centre un métal de transition, l'information fournie par les spectres d'un seul composé n'est pas suffisante. On étudie une série de composés similaires, qui ont le même métal de transition à un degré d'oxydation donné, ainsi que des ligands qui forment des liaisons de différentes forces et caractéristiques avec le métal. Cependant, ces changements, bien qu'on les désire de faible impact, créent une grande perturbation de la structure électronique visée par les études. Afin d'étudier en profondeur une seule structure électronique, nous employons une stratégie d'analyse moins perturbante. Nous appliquons une pression hydrostatique sur les complexes de métaux de transition. Cette pression perturbe le système suffisamment pour nous livrer davantage d'informations sur la structure électronique, sans la « dénaturer ». Afin d'étudier précisément ces systèmes perturbés, la technique d'application de pression est conjuguée, dans la littérature, aux diverses techniques de spectroscopie d'absorption UV-visible, de luminescence, ainsi que de diffusion Raman. Pour extraire un maximum d'informations de ces expériences, on emploie des techniques de calculs de structure électronique ainsi que de dynamique des noyaux. Dans cette thèse, on tente de mettre en lumière la structure électronique de composés de molybdène(IV), de platine(II) et palladium(II) à l'aide de la technique de pression couplée aux spectroscopies de luminescence et de diffusion Raman. Dans le chapitre 3, on observe un déplacement de la bande de luminescence de +12 cm-1/kbar entre la pression ambiante et 25 kbar pour le complexe trans-[MoOCl(CN-t-Bu)4]BPh4, dont le centre métallique molybdène(IV)est de configuration électronique 4d2. Il s'agit de la première variation positive observée pour un complexe de type métal-oxo. À des pressions plus élevées, la tendance s'inverse. Le maximum d'énergie de la bande de luminescence se déplace de -8 cm-1/kbar. Ce changement de variation présage d'une compétition interne entre les ligands situés sur les différents axes de l'octaèdre. À l'aide de calculs basés sur la théorie de la fonctionnelle de la densité, on propose un mécanisme pour expliquer ce phénomène. Au cours du chapitre 4, on étudie des complexes de palladium(II) et de platine(II) qui ont les mêmes ligands. Un de ces ligands est le 1,4,7-trithiacyclononane (ttcn). On constate qu'à basse pression le ligand est bidentate. Par contre, lorsque la pression augmente, on constate, par exemple à l'aide du complexe [Pt(ttcn)Cl2], qu'une interaction anti-liante supplémentaire se produit entre le ligand ttcn et le métal, ce qui change la nature de l'orbitale HOMO. On observe un déplacement de la bande de luminescence de -19 cm-1/kbar. Tel que pour le complexe de molybdène(IV), le déplacement de la bande de luminescence dépend de la compétition entre les ligands situés sur les différents axes de l'octaèdre. L'interaction liante entre l'ion platine(II) et l'atome de soufre axial est l'effet le plus plausible qui peut induire un déplacement de la bande de luminescence vers les basses énergies. Ceci nous indique que cette interaction domine. Par contre, pour ce qui est du complexe palladium(II), la compétition est remportée par d'autres effets, car le déplacement de la bande de luminescence est de +6 cm-1/kbar. Encore une fois, des calculs, basés sur la théorie de la fonctionnelle de la densité, aident à explorer les causes de ces observations en suggérant des explications corroborées simultanément par les diverses expériences de spectroscopie. Lors du chapitre 5, une étude plus exacte de la structure électronique ainsi que de la dynamique des noyaux de complexes de métaux de transition est présentée. En effet, les complexes de palladium(II) et de platine(II), de type [M(X)4]2-, ont une structure simple, très symétrique. Le premier état excité de ces molécules subit la distorsion Jahn-Teller. On veut établir un protocole de travail pour les expérimentateurs afin d'analyser des spectres de molécules pour lesquelles l'approximation de Born-Oppenheimer n'est pas valide. On utilise la théorie de la fonctionnelle de la densité dépendante du temps ainsi que le modèle de Heidelberg afin de décrire des effets non adiabatique. On tente d'établir l'influence des effets non adiabatiques sur les spectres de ce type de complexe.
Resumo:
La présente thèse traite de la description de systèmes complexes, notamment des polymères et des cuprates, par la théorie de la fonctionnelle de la densité. En premier lieu, la théorie de la fonctionnelle de la densité ainsi que différentes fonctionnelles utilisées pour simuler les matériaux à l’étude sont présentées. Plus spécifiquement, les fonctionnelles LDA et GGA sont décrites et leurs limites sont exposées. De plus, le modèle de Hubbard ainsi que la fonctionnelle LDA+U qui en découle sont abordés dans ce chapitre afin de permettre la simulation des propriétés de matériaux à forte corrélation électronique. Par la suite, les résultats obtenus sur les polymères sont résumés par deux articles. Le premier traite de la variation de la bande interdite entre les polymères pontés et leurs homologues non pontés. Le second se penche sur l’étude de polymères à faible largeur de bande interdite. Dans ce dernier, il sera démontré qu’une fonctionnelle hybride, contenant de l’échange exact, est nécessaire afin de décrire les propriétés électroniques des systèmes à l’étude. Finalement, le dernier chapitre est consacré à l’étude des cuprates supraconducteurs. La LDA+U pouvant rendre compte de la forte localisation dans les orbitales 3d des atomes de cuivre, une étude de l’impact de cette fonctionnelle sur les propriétés électroniques est effectuée. Un dernier article investiguant différents ordres magnétiques dans le La2CuO4 dopé termine le dernier chapitre. On trouve aussi, en annexe, un complément d’information pour le second article et une description de la théorie de la supraconductivité de Bardeen, Cooper et Schrieffer.
Resumo:
Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.
Resumo:
Dans ce mémoire sont décrites deux méthodologies impliquant la synthèse de biaryles via l’arylation directe d’espèces aromatiques non activées, catalysée par différents éléments de transition. La première partie présente les résultats obtenus dans le cadre du développement d’une méthode simple d’arylation directe du benzène catalysée au palladium. Cette méthodologie a l’avantage de procéder sans l’ajout de ligand phosphine généralement utilisé dans les systèmes catalytiques avec le palladium et par conséquent cette réaction peut évoluer à l’air libre sans nul besoin d’une atmosphère inerte. Il est proposé que le mécanisme de formation de ces motifs biarylés pourrait passer par la mise en place d’un palladium d’espèce cationique. Ces composés pourraient éventuellement s’avérer intéressants dans la synthèse de produits pharmaceutiques comportant un motif biphényle de ce type. La deuxième partie est consacrée à une méthodologie très attrayante utilisée pour la synthèse des biphényles impliquant le fer comme catalyseur. Plusieurs catalyseurs à base de rhodium, palladium et ruthénium ont démontré leur grande efficacité dans les processus de couplage direct (insertion C-H). Cette méthodologie consiste en la première méthode efficace d’utilisation d’un catalyseur de fer dans les couplages directs sp2-sp2 avec les iodures d’aryles et iodures d’hétéroaryles. Les avantages du fer, impliquent sans contredit, des coûts moindres et des impacts environnementaux bénins. Les conditions réactionnelles sont douces, la réaction peut tolérer la présence de plusieurs groupements fonctionnels et cette dernière peut même se produire à température ambiante. La transformation s’effectue généralement avec de très bons rendements et des études mécanistiques ont démontré que le processus réactionnel était radicalaire.
Resumo:
Cette recherche aborde un sujet complexe, qui est en plein débat doctrinal en droit de l'arbitrage international: L'arbitrage commercial international et les garanties procédurales. Au fait, l'arbitrage commercial international revêt le mode traditionnel des règlements de litiges du commerce international et des relations économiques internationales. À cause de l'hybridité de sa nature (contractuelle et juridictionnelle), il est le plus souvent préféré par les parties aux tribunaux étatiques. Cette faveur vis-à-vis de ce mode de règlements de litiges internationaux s'explique par le développement de l'économie internationale, par la globalisation du marché, par la conclusion de nombreuses conventions internationales en la matière, par la création des centres d'arbitrage, enfin par la modernisation des lois et règlements nationaux. En revanche, il est constaté que l'arbitrage souffre d'un déficit de prévisibilité et de certitudes pour les acteurs du commerce international. Que l'on songe seulement à la multiplication des rattachements législatifs et des contrôles judiciaires: conflits de lois, conflits entre les règles de conflits, etc. Nous avons démontré que la solution aux difficultés de la méthode conflictualiste serait l'harmonisation de la procédure arbitrale internationale et que ce mode de règlement de différends débouche de plus en plus sur le rapprochement entre traditions juridiques différentes (Common Law et droit civil).Toutefois, ce mouvement de convergence est loin d'être achevé. Beaucoup d'autres pratiques arbitrales continuent de garder l'empreinte de la diversité des procédures étatiques et celle des grands systèmes juridiques mondiaux.
Resumo:
Vidéos et images des résultats disponible à : http://www.iro.umontreal.ca/labs/infographie/theses/fatnasss/
Resumo:
Dans un rapport publié au dernier trimestre 2009, le comité sur le gouvernement d’entreprise de l’American Bar Association présente les transformations qui affectent les entreprises américaines depuis quelques années et se montre favorable à une adaptation des principes de bonne gouvernance. A l’instar des prises de position à l’échelon international ou européen, l’American Bar Association propose une redéfinition des responsabilités du conseil d’administration et des actionnaires. Ainsi, si le conseil d’administration se voit renforcer dans son rôle d’organe élu devant inscrire son action dans une démarche de long-terme, les actionnaires sont encouragés à adopter un comportement proactif en donnant à leur droit de vote toute l’importance qu’il mérite. Ce document de l’ABA constitue une précieuse réflexion sur l’avenir du corporate governance, tant la transformation des pouvoirs économiques que constate l’American Bar Association ne se cantonne pas aux frontières états-uniennes.
Resumo:
Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.
Resumo:
Sommaire L’oxygène fait partie intégrante de l’environnement et ceci jusqu’au fonctionnement même des structures cellulaires qui composent le corps humain. Deux systèmes sont intimement liés à la distribution de l’oxygène, ce sont les systèmes cardiovasculaire et respiratoire. La transparence du système optique de l’œil peut être exploitée afin de mesurer de façon non invasive la concentration en oxyhémoglobine du sang qui alimente le système nerveux central. L’oxygénation capillaire de l’œil a été mesurée par spectro-réflectométrie dans deux régions de l’œil: d’une part les capillaires de la zone du nerf optique qui représentent principalement la circulation rétinienne; d’autre part, les capillaires du limbe cornéen. Cinq sujets volontaires, non fumeurs, sains, âgés de 20 à 45 ans et cinq sujets volontaires, fumeurs, sains, âgés de 20 à 40 ans ont participé à cette étude. Tous ces sujets ont été exposés à des conditions d’hyper et d’hypo oxygénation. Une séance d’expérimentations était composée d’un enregistrement continu de 360 secondes. Durant la première étape de 60 secondes, le sujet respirait de l’air ambiant. Durant une deuxième étape de 180 secondes, le sujet était exposé soit à une condition d’hyper (60% O2) soit, à une condition d’hypo oxygénation (15% O2), tandis que les 120 dernières secondes de la séance de mesure permettait d’exposer le sujet, une fois de plus à l’air ambiant. Le rythme cardiaque et les changements d’oxygénation artérielle au niveau du doigt étaient mesurés pendant ce temps vec le sphygmo-oxymètre. Les variations du taux d’oxyhémoglobine du sang au niveau capillaire de l’œil (nerf optique ou sclérotique) étaient toujours en corrélation directe avec les variations du taux d’oxyhémoglobine artériel. Toutefois, les capillaires du nerf optique offrent plus de précision pour les mesures d’oxygénation, relativement aux mesures d’oxygénation du sang contenu dans les capillaires de la sclérotique. La précision de la mesure de la concentration d’oxyhémoglobine obtenue dans cette étude par spectro-réflectométrie de l’œil, en fait un instrument utile au diagnostic d’une grande partie des pathologies pulmonaires ou oculaires.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
La traduction statistique vise l’automatisation de la traduction par le biais de modèles statistiques. Dans ce travail, nous relevons un des grands défis du domaine : la recherche (Brown et al., 1993). Les systèmes de traduction statistique de référence, tel Moses (Koehn et al., 2007), effectuent généralement la recherche en explorant l’espace des préfixes par programmation dynamique, une solution coûteuse sur le plan computationnel pour ce problème potentiellement NP-complet (Knight, 1999). Nous postulons qu’une approche par recherche locale (Langlais et al., 2007) peut mener à des solutions tout aussi intéressantes en un temps et un espace mémoire beaucoup moins importants (Russell et Norvig, 2010). De plus, ce type de recherche facilite l’incorporation de modèles globaux qui nécessitent des traductions complètes et permet d’effectuer des modifications sur ces dernières de manière non-continue, deux tâches ardues lors de l’exploration de l’espace des préfixes. Nos expériences nous révèlent que la recherche locale en traduction statistique est une approche viable, s’inscrivant dans l’état de l’art.