1000 resultados para Alignement tâche-technologie
Resumo:
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.
Resumo:
Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.
Resumo:
Si les bénéfices de la pratique physique sur l’apprentissage moteur ne sont plus à démontrer, de nombreuses études s’accordent sur le fait qu’il est également possible d’apprendre une nouvelle habileté en observant un modèle qui réalise la tâche à apprendre. De plus, plusieurs chercheurs ont montré que les mécanismes permettant l’acquisition d’une nouvelle habileté motrice par pratique physique et par observation sont semblables. Or, l’apprentissage se poursuit au-delà des séances de pratique par des « processus de consolidation » essentiels pour que les habiletés pratiquées soient retenues à long terme. À cet effet, Trempe, Sabourin, Rohbanfard et Proteau (2011), ont montré que la consolidation ne s'effectuait pas de la même façon selon que la pratique était faite physiquement ou par observation. Par conséquent, nous avons tenté de déterminer si pratiquer une tâche par pratique physique et l’autre par observation permet d'optimiser l'apprentissage concomitant de ces deux tâches bien qu’elles soient normalement interférentes. Nos résultats ont montré que la tâche A causait une interférence antérograde sur la tâche B peu importe le type de pratique effectué, ce qui suggère que les processus de consolidation prenant place suite à l’observation sont plutôt similaires à ceux qui prennent place suite à la pratique physique. Ainsi, il semble que la pratique mixte ne permet pas de réduire les interférences lors de l’apprentissage de deux tâches semblables.
Resumo:
Cette thèse s’intéresse aux problèmes de tournées de véhicules où l’on retrouve des contraintes de chargement ayant un impact sur les séquences de livraisons permises. Plus particulièrement, les items placés dans l’espace de chargement d’un véhicule doivent être directement accessibles lors de leur livraison sans qu’il soit nécessaire de déplacer d’autres items. Ces problèmes sont rencontrés dans plusieurs entreprises de transport qui livrent de gros objets (meubles, électroménagers). Le premier article de cette thèse porte sur une méthode exacte pour un problème de confection d’une seule tournée où un véhicule, dont l’aire de chargement est divisée en un certain nombre de piles, doit effectuer des cueillettes et des livraisons respectant une contrainte de type dernier entré, premier sorti. Lors d’une collecte, les items recueillis doivent nécessairement être déposés sur le dessus de l’une des piles. Par ailleurs, lors d’une livraison, les items doivent nécessairement se trouver sur le dessus de l’une des piles. Une méthode de séparation et évaluation avec plans sécants est proposée pour résoudre ce problème. Le second article présente une méthode de résolution exacte, également de type séparation et évaluation avec plans sécants, pour un problème de tournées de véhicules avec chargement d’items rectangulaires en deux dimensions. L’aire de chargement des véhicules correspond aussi à un espace rectangulaire avec une orientation, puisque les items doivent être chargés et déchargés par l’un des côtés. Une contrainte impose que les items d’un client soient directement accessibles au moment de leur livraison. Le dernier article aborde une problème de tournées de véhicules avec chargement d’items rectangulaires, mais où les dimensions de certains items ne sont pas connus avec certitude lors de la planification des tournées. Il est toutefois possible d’associer une distribution de probabilités discrète sur les dimensions possibles de ces items. Le problème est résolu de manière exacte avec la méthode L-Shape en nombres entiers.
Resumo:
La gazéification est aujourd'hui l'une des stratégies les plus prometteuses pour valoriser les déchets en énergie. Cette technologie thermo-chimique permet une réduction de 95 % de la masse des intrants et génère des cendres inertes ainsi que du gaz de synthèse (syngaz). Le syngaz est un combustible gazeux composé principalement de monoxyde de carbone (CO), d'hydrogène (H2) et de dioxyde de carbone (CO2). Le syngaz peut être utilisé pour produire de la chaleur et de l'électricité. Il est également la pierre angulaire d'un grand nombre de produits à haute valeur ajoutée, allant de l'éthanol à l'ammoniac et l'hydrogène pur. Les applications en aval de la production de syngaz sont dictées par son pouvoir calorifique, lui-même dépendant de la teneur du gaz en H2. L’augmentation du contenu du syngaz en H2 est rendu possible par la conversion catalytique à la vapeur d’eau, largement répandu dans le cadre du reformage du méthane pour la production d'hydrogène. Au cours de cette réaction, le CO est converti en H2 et CO2 selon : CO + H2O → CO2 + H2. Ce processus est possible grâce à des catalyseurs métalliques mis en contact avec le CO et de la vapeur. La conversion catalytique à la vapeur d’eau a jusqu'ici été réservé pour de grandes installations industrielles car elle nécessite un capital et des charges d’exploitations très importantes. Par conséquent, les installations de plus petite échelle et traitant des intrants de faible qualité (biomasse, déchets, boues ...), n'ont pas accès à cette technologie. Ainsi, la seule utilisation de leur syngaz à faible pouvoir calorifique, est limitée à la génération de chaleur ou, tout au plus, d'électricité. Afin de permettre à ces installations une gamme d’application plus vaste de leurs syngaz, une alternative économique à base de catalyseur biologique est proposée par l’utilisation de bactéries hyperthermophiles hydrogénogènes. L'objectif de cette thèse est d'utiliser Carboxydothermus hydrogenoformans, une bactérie thermophile carboxydotrophe hydrogénogène comme catalyseur biologique pour la conversion du monoxyde de carbone en hydrogène. Pour cela, l’impact d'un phénomène de biominéralisation sur la production d’H2 a été étudié. Ensuite, la faisabilité et les limites de l’utilisation de la souche dans un bioréacteur ont été évaluées. Tout d'abord, la caractérisation de la phase inorganique prédominante lorsque C. hydrogenoformans est inoculé dans le milieu DSMZ, a révélé une biominéralisation de phosphate de calcium (CaP) cristallin en deux phases. L’analyse par diffraction des rayons X et spectrométrie infrarouge à transformée de Fourier de ce matériau biphasique indique une signature caractéristique de la Mg-whitlockite, alors que les images obtenues par microscopie électronique à transmission ont montré l'existence de nanotiges cristallines s’apparentant à de l’hydroxyapatite. Dans les deux cas, le mode de biominéralisation semble être biologiquement induit plutôt que contrôlé. L'impact du précipité de CaP endogène sur le transfert de masse du CO et la production d’H2 a ensuite été étudié. Les résultats ont été comparés aux valeurs obtenues dans un milieu où aucune précipitation n'est observée. Dans le milieu DSMZ, le KLa apparent (0.22 ± 0.005 min-1) et le rendement de production d’H2 (89.11 ± 6.69 %) étaient plus élevés que ceux obtenus avec le milieu modifié (0.19 ± 0.015 min-1 et 82.60 ± 3.62% respectivement). La présence du précipité n'a eu aucune incidence sur l'activité microbienne. En somme, le précipité de CaP offre une nouvelle stratégie pour améliorer les performances de transfert de masse du CO en utilisant les propriétés hydrophobes de gaz. En second lieu, la conversion du CO en H2 par la souche Carboxydothermus hydrogenoformans fut étudiée et optimisée dans un réacteur gazosiphon de 35 L. Parmi toutes les conditions opérationnelles, le paramètre majeur fut le ratio du débit de recirculation du gaz sur le débit d'alimentation en CO (QR:Qin). Ce ratio impacte à la fois l'activité biologique et le taux de transfert de masse gaz-liquide. En effet, au dessus d’un ratio de 40, les performances de conversion du CO en H2 sont limitées par l’activité biologique alors qu’en dessous, elles sont limitées par le transfert de masse. Cela se concrétise par une efficacité de conversion maximale de 90.4 ± 0.3 % et une activité spécifique de 2.7 ± 0.4 molCO·g–1VSS·d–1. Malgré des résultats prometteurs, les performances du bioréacteur ont été limitées par une faible densité cellulaire, typique de la croissance planctonique de C. hydrogenoformans. Cette limite est le facteur le plus contraignant pour des taux de charge de CO plus élevés. Ces performances ont été comparées à celles obtenues dans un réacteur à fibres creuses (BRFC) inoculé par la souche. En dépit d’une densité cellulaire et d’une activité volumétrique plus élevées, les performances du BRFC à tout le moins cinétiquement limitées quand elles n’étaient pas impactées par le transfert de masse, l'encrassement et le vieillissement de la membrane. Afin de parer à la dégénérescence de C. hydrogenoformans en cas de pénurie de CO, la croissance de la bactérie sur pyruvate en tant que seule source de carbone a été également caractérisée. Fait intéressant, en présence simultanée de pyruvate et de CO, C. hydrogenoformans n’a amorcé la consommation de pyruvate qu’une fois le CO épuisé. Cela a été attribué à un mécanisme d'inhibition du métabolisme du pyruvate par le CO, faisant ainsi du pyruvate le candidat idéal pour un système in situ de secours.
Resumo:
Le 1,1'-bi-2-naphtol ou Binol, présentant une chiralité axiale, est un ligand très utilisé en catalyse asymétrique. Au cours des vingt dernières années, le Binol a servi de synthon à l’élaboration de très nombreux ligands permettant la catalyse asymétrique de tous types de réactions, allant de l’hydrogénation, à l’alkylation, en passant par diverses réactions péricycliques. Le grand intérêt pour ce ligand vient de sa versatilité et des nombreuses possibilités de fonctionnalisation qu’il offre, permettant d’altérer ses propriétés catalytiques à volonté, aussi bien en modifiant son caractère électronique, qu’en introduisant des facteurs stériques autour du site catalytique. Parallèlement aux développements de la catalyse par des dérivés de Binol, le domaine des liquides ioniques a connu un intérêt croissant ces dernières années. Les liquides ioniques, sels dont le point de fusion est inférieur à 100°C, cumulent de nombreuses qualités convoitées : faible pression de vapeur, stabilité thermique et chimique et fort pouvoir de solvatation. Dû à ces propriétés, les liquides ioniques ont principalement été étudiés dans l’optique de développer une gamme de solvants recyclables. Alors que les propriétés des liquides ioniques sont facilement modulables en fonction de l’anion et du cation choisi, le concept de liquide ionique à tâche spécifique va plus loin et propose d’introduire directement, sur le cation ou l’anion, un groupement conférant une propriété particulière. En suivant cette approche, plusieurs ligands ioniques ont été rapportés, par simple couplage d’un cation organique à un ligand déjà connu. Étonnamment, le Binol a fait l’objet de très peu de travaux pour l’élaboration de ligands ioniques. Dans cette thèse, nous proposons l’étude d’une famille de composés de type Binol-imidazolium dont les unités Binol et imidazolium sont séparées par un espaceur méthylène. Différents homologues ont été synthétisés en variant le nombre d’unités imidazolium et leur position sur le noyau Binol, la longueur de la chaîne alkyle portée par les unités imidazolium et la nature du contre-anion. Après une étude des propriétés thermiques de ces composés, l’utilisation des Binol-imidazoliums en tant que ligands dans une réaction asymétrique d’éthylation d’aldéhydes aromatique a été étudiée en milieu liquide ionique. La réaction a été conduite en solvant liquide ionique dans le but de recycler aussi bien le ligand Binol-imidazolium que le solvant, en fin de réaction. Cette étude nous a permis de démontrer que la sélectivité de ces ligands ioniques dépend grandement de leur structure. En effet, seuls les Binols fonctionnalisés en positions 6 et 6’ permettent une sélectivité de la réaction d’éthylation. Alors que les dérivés de Binol fonctionnalisés en positions 3 et 3’ ne permettent pas une catalyse énantiosélective, il a déjà été rapporté que ces composés avaient la capacité de complexer des anions. D’autre part, il a déjà été rapporté par notre groupe, que les composés comportant des unités imidazolium pouvaient permettre le transport d’anions à travers des bicouches lipidiques en fonction de leur amphiphilie. Ceci nous a amenés à la deuxième partie de cette thèse qui porte sur les propriétés ionophores des Binols fonctionnalisés en positions 3 et 3’ par des unités imidazoliums. Dans un premier temps, nous nous sommes intéressés à l’étude de la relation structure-activité et au mécanisme de transport de ces composés. Le transport d’anions étant un processus clé dans la biologie cellulaire, l’activité biologique des composés présentant une activité ionophore dans des systèmes modèles (liposomes) a été étudiée par la suite. L’activité antibactérienne des nos composés a été testée sur quatre souches de bactéries. Il s’est avéré que les composés Binol-imidazolium sont actifs uniquement sur les bactéries Gram positives. Finalement, la cytotoxicité des composés présentant une activité antibactérienne a été étudiée sur des cellules humaines.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.
Resumo:
Réalisé sous la co-direction de Linda Booij, Catherine Herba et Patricia Garel
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Le contrôle psychologique parental est un facteur de risque réputé pour les problèmes intériorisés des enfants (p. ex., Affrunti & Ginsburg, 2011; McLeod, Wood & Weisz, 2007). Selon la Théorie de l'auto-détermination, le contrôle psychologique mène aux problèmes intériorisés (Ryan, Deci, Grolnick, & La Guardia, 2006) car il brime le besoin fondamental d'autonomie. En effet, recevoir de la pression afin de penser, se comporter et se sentir d’une certaine façon (Ryan, 1982) semble favoriser une régulation trop rigide et surcontrôlée (Ryan et al., 2006). Suite aux travaux de Soenens et Vansteenkiste (2010), la distinction conceptuelle entre deux formes de contrôle psychologique, soit manifestes (p. ex., les menaces, forcer physiquement) et dissimulées (p. ex., la surprotection, le marchandage), ont été utilisées pour évaluer le style parental (Étude 1) et les pratiques disciplinaires (Étude 2). Le contrôle psychologique parental et le soutien de l'autonomie (Étude 2) ont été mesurés durant la petite enfance puisque (1) les problèmes intériorisés émergent tôt, (2) le développement du sentiment d'autonomie est central au cours de cette période, et (3) attire probablement plus de contrôle psychologique parental. Avec ses deux articles, la présente thèse vise à clarifier la façon dont le contrôle psychologique manifeste et dissimulé est lié au développement précoce de problèmes intériorisés. L'étude 1 est une étude populationnelle examinant l'impact relatif du style parental sur des trajectoires développementales d'anxiété (N = 2 120 enfants; de 2,5 à 8 ans) avec de nombreux facteurs de risque potentiels provenant de l'enfant, de la mère et de la famille, tous mesurés au cours de la petite enfance. Les résultats ont montré qu'en plus de la timidité des enfants, de la dépression maternelle et du dysfonctionnement familial, le contrôle psychologique manifeste (c.-à-d., coercitif) et dissimulé (c.-à-d., la surprotection) augmentent le risque, pour les enfants, de suivre une trajectoire d'anxiété élevée. Une interaction entre la dépression maternelle et le contrôle dissimulé a été trouvée, ce qui indique que la surprotection augmente l'anxiété des enfants seulement lorsque la dépression maternelle est élevée. Enfin, le contrôle dissimulé prédit également l'anxiété telle que rapportée par les enseignants de deuxième année. Le deuxième article est une étude observationnelle qui examine comment l'autorégulation (AR) des bambins est liée au développement précoce des symptômes intériorisés, tout en explorant comment les pratiques disciplinaires parentales (contrôle et soutien de l'autonomie) y sont associées. Les pratiques parentales ont été codifiées lors d'une requête de rangement à 2 ans (contexte "Do", N = 102), tandis que l'AR des bambins a été codifiée à la fois durant la tâche de rangement ("Do") et durant une tâche d'interdiction (ne pas toucher à des jouets attrayants; contexte «Don't » ), à 2 ans puis à 3 ans. Les symptômes d'anxiété / dépression des enfants ont été évalués par leurs parents à 4,5 ans. Les résultats ont révélé que l'AR aux interdictions à 3 ans diminue la probabilité des enfants à manifester des taux élevés de symptômes d'anxiété / dépression. Les analyses ont aussi révélé que le parentage soutenant l'autonomie était lié à l'AR des enfants aux requêtes, un an plus tard. En revanche, le contrôle psychologique manifeste et dissimulé ont eu des effets délétères sur l'AR. Enfin, seul le contrôle dissimulé a augmenté les probabilités de présenter des niveaux plus élevés de problèmes intériorisés et ce, au-delà de l’effet protecteur de l'AR des bambins. Des résultats mitigés sont issus de cette thèse concernant les effets respectifs des deux formes de contrôle sur les problèmes intériorisés, dépendamment de l'informateur (mère c. enseignant) et de la méthodologie (questionnaires c. données observationnelles). Toutefois, le contrôle psychologique dissimulé était lié à ce problème affectif dans les deux études. Enfin, le soutien à l'autonomie s’est révélé être un facteur de protection potentiel et mériterait d'être étudié davantage.
Resumo:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
Resumo:
Beaucoup de cégeps voient leurs programmes techniques menacés à cause de la baisse démographique et de l’exode des jeunes. Cette situation est directement reliée à l’offre de formation : 46,1 % ont dû quitter leur région, car le programme d’études choisi n’y était pas offert. C’est en Gaspésie-Îles-de-la-Madeleine que pourrait s’effectuer la plus importante chute de clientèle, soit une baisse de plus de 40 % par rapport à l’effectif observé à l’automne 2008 (Bezy, 2011). Ce constat amène aussi son lot de questions quant au développement professionnel des enseignants. Un projet novateur se réalise dans cette région et pourrait aider à changer la situation. En effet, le cégep de la Gaspésie et des Iles a instauré une initiative de téléenseignement dans deux programmes (techniques de comptabilité et de gestion, soins infirmiers). Cette recherche vise à décrire les défis et obstacles auxquels sont confrontés les enseignants en processus de changement, ainsi que les avantages et bénéfices perçus de la pratique du téléenseignement, les changements de pratiques pédagogiques particuliers à la vidéoconférence, selon les différents niveaux d’adoption de la technologie. Pour mesurer ces différents aspects de leur pratique, le modèle CBAM (Hall & Hord, 2006) a été utilisé ainsi que le modèle de développement professionnel de (Clarke & Hollingsworth, 2002). Les résultats ont été obtenus par questionnaires (SoC et TAM) et entrevues (LoU et autres questions sur les principaux thèmes de cette recherche), ils permettent de dresser un portrait détaillé du rôle de ces enseignants tout en répondant aux objectifs de recherche. Des profils individuels et de groupes sont présentés pour cerner les caractéristiques de leur développement professionnel dans le cadre de cette innovation. Les résultats montrent de grandes similitudes entre les cas de l’échantillon (6 enseignants) et il ressort que les thèmes les plus préoccupants pour ces enseignants sont la gestion de classe et les défis techniques et pédagogiques que le téléenseignement implique.
Resumo:
La scoliose idiopathique de l’adolescent est une déformation 3D du rachis. La littérature comporte une multitude d’études sur la prédiction de l’évolution et l’identification de facteurs de risque de progression. Pour l’instant les facteurs de risque établis sont l’amplitude de la déformation, la maturité squelettique et le type de courbure. Plusieurs autres champs ont été explorés comme les aspects génétiques, biochimiques, mécaniques, posturaux et topographiques, sans vraiment apporter beaucoup de précision à la prédiction de l’évolution. L’avancement de la technologie permet maintenant de générer des reconstructions 3D du rachis à l’aide des radiographies standard et d’obtenir des mesures de paramètres 3D. L’intégration de ces paramètres 3D dans un modèle prédictif représente une avenue encore inexplorée qui est tout à fait logique dans le contexte de cette déformation 3D du rachis. L’objectif général de cette thèse est de développer un modèle de prédiction de l’angle de Cobb à maturité squelettique à partir de l’information disponible au moment de la première visite, soit l’angle de Cobb initial, le type de courbure, l’âge osseux et des paramètres 3D du rachis. Dans une première étude, un indice d’âge osseux a été développé basé sur l’ossification de l’apophyse iliaque et sur le statut du cartilage triradié. Cet indice comporte 3 stades et le second stade, qui est défini par un cartilage triradié fermé avec maximum 1/3 d’ossification de l’apophyse iliaque, représente le moment pendant lequel la progression de la scoliose idiopathique de l’adolescent est la plus rapide. Une seconde étude rétrospective a permis de mettre en évidence le potentiel des paramètres 3D pour améliorer la prédiction de l’évolution. Il a été démontré qu’à la première visite il existe des différences pour 5 paramètres 3D du rachis entre un groupe de patients qui sera éventuellement opéré et un groupe qui ne progressera pas. Ces paramètres sont : la moyenne da la cunéiformisation 3D des disques apicaux, la rotation intervertébrale à la jonction inférieure de la courbure, la torsion, le ratio hauteur/largeur du corps vertébral de T6 et de la colonne complète. Les deux dernières études sont basées sur une cohorte prospective de 133 patients avec une scoliose idiopathique de l’adolescent suivi dès leur première visite à l’hôpital jusqu’à maturité squelettique. Une première étude a permis de mettre en évidence les différences morphologiques à la première visite entre les patients ayant progresser de plus ou moins de 6°. Des différences ont été mise en évidence pour la cyphose, l’angle de plan de déformation maximal, la rotation ntervertébrale l’apex, la torsion et plusieurs paramètres de «slenderness». Ensuite une seconde étude a permis de développer un modèle prédictif basé sur un modèle linéaire général en incluant l’indice d’âge osseux développé dans la première étude, le type de courbure, l’amplitude de l’angle de Cobb à la première visite, l’angle de déformation du plan maximale, la cunéiformisation 3D des disques T3-T4, T8-T9, T11-T12 et la somme des cunéiformisation 3D de tous les disques thoraciques et lombaires. Le coefficient de détermination multiple pour cette modélisation est de 0.715. Le modèle prédictif développé renforce l’importance de considérer la scoliose idiopathique dans les trois dimensions et il permettra d’optimiser la prédiction de l’évolution au moment de la première visite.
Resumo:
Le réalisme des objets en infographie exige de simuler adéquatement leur apparence sous divers éclairages et à différentes échelles. Une solution communément adoptée par les chercheurs consiste à mesurer avec l’aide d’appareils calibrés la réflectance d’un échantillon de surface réelle, pour ensuite l’encoder sous forme d’un modèle de réflectance (BRDF) ou d’une texture de réflectances (BTF). Malgré des avancées importantes, les données ainsi mises à la portée des artistes restent encore très peu utilisées. Cette réticence pourrait s’expliquer par deux raisons principales : (1) la quantité et la qualité de mesures disponibles et (2) la taille des données. Ce travail propose de s’attaquer à ces deux problèmes sous l’angle de la simulation. Nous conjecturons que le niveau de réalisme du rendu en infographie produit déjà des résultats satisfaisants avec les techniques actuelles. Ainsi, nous proposons de précalculer et encoder dans une BTF augmentée les effets d’éclairage sur une géométrie, qui sera par la suite appliquée sur les surfaces. Ce précalcul de rendu et textures étant déjà bien adopté par les artistes, il pourra mieux s’insérer dans leurs réalisations. Pour nous assurer que ce modèle répond aussi aux exigences des représentations multi-échelles, nous proposons aussi une adaptation des BTFs à un encodage de type MIP map.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.