39 resultados para Modélisation d’actions
em Université Laval Mémoires et thèses électroniques
Resumo:
Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.
Resumo:
Objectifs : Dans plusieurs pays la couverture vaccinale contre les virus du papillome humain (VPH) est associée aux déterminants sociaux des comportements sexuels et la participation au dépistage du cancer du col utérin. Ces vaccins protègent uniquement contre certains types de VPH, donc leur impact futur sur les VPH nonvaccinaux demeure incertain. L’hétérogénéité comportementale entre individus et biologique entre types de VPH affectera l’efficacité populationnelle de la vaccination contre les VPH. Les objectifs spécifiques de cette thèse étaient 1) de modéliser comment une couverture vaccinale inégale entre filles préadolescentes qui différeront selon leur activité sexuelle et leur participation au dépistage du cancer du col affectera l’efficacité populationnelle de la vaccination, 2) faire une synthèse et comparer les estimés d’efficacité croisée des vaccins contre les VPH dans des populations ADN-négatives aux VPH et 3) d’identifier, avec la modélisation, les devis d’étude épidémiologique qui réduisent les biais dans l’estimation des interactions biologiques entre types de VPH. Méthode : Nous avons utilisé des modèles de transmission dynamique et une revue systématique de la littérature pour répondre aux objectifs. 1) Nous avons modélisé une couverture vaccinale inégale entre filles qui différeront selon leur activité sexuelle et leur participation au dépistage, et examiné les changements postvaccination dans l’inégalité dans la prévalence des VPH et l’incidence des carcinomes malpighien (SCC) du col de l’utérus entre femmes ayant différents comportements. 2) Nous avons effectué une revue systématique et méta-analyse des efficacités croisées des vaccins contre les VPH estimées dans des populations ADNnégatives aux VPH. 3) Nous avons développé des modèles de transmission dynamique et d’interaction de deux types de VPH pour simuler les études épidémiologiques d’interactions entre les VPH. Résultats : Pour l’objectif 1), notre modèle de transmission prédit que l’efficacité populationnelle du vaccin dépendra de la distribution du vaccin dans la population. Après la vaccination, les inégalités absolues dans l’incidence de l’infection et des SCC entre groupes de femmes qui diffèrent selon leur activité sexuelle et leur participation au dépistage devraient diminuer. Inversement, les inégalités relatives pourraient augmenter si les femmes plus sexuellement actives et celles qui ne se font jamais dépister ont une couverture vaccinale moins élevée que les autres. Le taux d’incidence des SCC demeurera élevé chez les femmes qui ne sont jamais dépistées après la vaccination. L’efficacité croisée vaccinale et les interactions biologiques entre VPH ne sont pas encore assez bien caractérisées pour pouvoir prédire l’impact du vaccin sur les types de VPH nonvaccinaux. Pour l’objectif 2), notre méta-analyse des essais cliniques des vaccins suggère que le vaccin bivalent a une efficacité croisée significativement plus élevée que le quadrivalent contre les infections persistantes et lésions précancéreuses avec les VPH-31, 33 et 45. Les essais cliniques plus longs estiment une efficacité croisée plus faible. La modélisation des études épidémiologiques d’interactions pour l’objectif 3) montre que l’estimation des interactions biologiques entre types de VPH dans les études épidémiologiques est systématiquement biaisée par la corrélation entre le temps à risque d’infection avec un type de VPH et le temps à risque d’infection avec d’autres types de VPH. L’ajustement pour des marqueurs d’activité sexuelle ne réussit pas à contrôler ce biais. Une mesure valide des interactions biologiques entre types de VPH peut être obtenue uniquement avec des études épidémiologiques prospectives qui restreignent les analyses à des individus susceptibles ayant des partenaires sexuels infectés. Conclusion : L’hétérogénéité comportementale entre individus et l’hétérogénéité biologique entre VPH affecteront l’efficacité populationnelle du vaccin contre les VPH. Dans les contextes où les déterminants sociaux des comportements sexuels et la participation au dépistage sont aussi associés à la couverture vaccinale chez les préadolescentes, l’inégalité relative dans l’incidence des SCC risque d’augmenter. Ces comportements demeureront des facteurs de risque importants du cancer du col à l’avenir. L’effet à long terme du vaccin sur les types de VPH non-vaccinaux demeure incertain. Quoique nos résultats suggèrent que les vaccins offrent une efficacité croisée contre certains types de VPH, celle-ci pourrait diminuer après quelques années. Des interactions compétitives entre VPH pourraient exister malgré les associations observées entre les incidences des infections VPH, donc une augmentation post-vaccination de la prévalence des VPH non-vaccinaux demeure possible. Des devis d’analyse plus complexes sont nécessaires pour mesurer de façon valide les interactions biologiques entre les VPH dans les études épidémiologiques.
Resumo:
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson.
Resumo:
Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires.
Resumo:
Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.
Resumo:
La gestion intégrée de la ressource en eau implique de distinguer les parcours de l’eau qui sont accessibles aux sociétés de ceux qui ne le sont pas. Les cheminements de l’eau sont nombreux et fortement variables d’un lieu à l’autre. Il est possible de simplifier cette question en s’attardant plutôt aux deux destinations de l’eau. L’eau bleue forme les réserves et les flux dans l’hydrosystème : cours d’eau, nappes et écoulements souterrains. L’eau verte est le flux invisible de vapeur d’eau qui rejoint l’atmosphère. Elle inclut l’eau consommée par les plantes et l’eau dans les sols. Or, un grand nombre d’études ne portent que sur un seul type d’eau bleue, en ne s’intéressant généralement qu’au devenir des débits ou, plus rarement, à la recharge des nappes. Le portrait global est alors manquant. Dans un même temps, les changements climatiques viennent impacter ce cheminement de l’eau en faisant varier de manière distincte les différents composants de cycle hydrologique. L’étude réalisée ici utilise l’outil de modélisation SWAT afin de réaliser le suivi de toutes les composantes du cycle hydrologique et de quantifier l’impact des changements climatiques sur l’hydrosystème du bassin versant de la Garonne. Une première partie du travail a permis d’affiner la mise en place du modèle pour répondre au mieux à la problématique posée. Un soin particulier a été apporté à l’utilisation de données météorologiques sur grille (SAFRAN) ainsi qu’à la prise en compte de la neige sur les reliefs. Le calage des paramètres du modèle a été testé dans un contexte differential split sampling, en calant puis validant sur des années contrastées en terme climatique afin d’appréhender la robustesse de la simulation dans un contexte de changements climatiques. Cette étape a permis une amélioration substantielle des performances sur la période de calage (2000-2010) ainsi que la mise en évidence de la stabilité du modèle face aux changements climatiques. Par suite, des simulations sur une période d’un siècle (1960-2050) ont été produites puis analysées en deux phases : i) La période passée (1960-2000), basée sur les observations climatiques, a servi de période de validation à long terme du modèle sur la simulation des débits, avec de très bonnes performances. L’analyse des différents composants hydrologiques met en évidence un impact fort sur les flux et stocks d’eau verte, avec une diminution de la teneur en eau des sols et une augmentation importante de l’évapotranspiration. Les composantes de l’eau bleue sont principalement perturbées au niveau du stock de neige et des débits qui présentent tous les deux une baisse substantielle. ii) Des projections hydrologiques ont été réalisées (2010-2050) en sélectionnant une gamme de scénarios et de modèles climatiques issus d’une mise à l’échelle dynamique. L’analyse de simulation vient en bonne part confirmer les conclusions tirées de la période passée : un impact important sur l’eau verte, avec toujours une baisse de la teneur en eau des sols et une augmentation de l’évapotranspiration potentielle. Les simulations montrent que la teneur en eau des sols pendant la période estivale est telle qu’elle en vient à réduire les flux d’évapotranspiration réelle, mettant en évidence le possible déficit futur des stocks d’eau verte. En outre, si l’analyse des composantes de l’eau bleue montre toujours une diminution significative du stock de neige, les débits semblent cette fois en hausse pendant l’automne et l’hiver. Ces résultats sont un signe de l’«accélération» des composantes d’eau bleue de surface, probablement en relation avec l’augmentation des évènements extrêmes de précipitation. Ce travail a permis de réaliser une analyse des variations de la plupart des composantes du cycle hydrologique à l’échelle d’un bassin versant, confirmant l’importance de prendre en compte toutes ces composantes pour évaluer l’impact des changements climatiques et plus largement des changements environnementaux sur la ressource en eau.
Resumo:
D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.
Resumo:
Ce travail présente une modélisation rapide d’ordre élévé capable de modéliser une configuration rotorique en cage complète ou en grille, de reproduire les courants de barre et tenir compte des harmoniques d’espace. Le modèle utilise une approche combinée d’éléments finis avec les circuits-couplés. En effet, le calcul des inductances est réalisé avec les éléments finis, ce qui confère une précision avancée au modèle. Cette méthode offre un gain important en temps de calcul sur les éléments finis pour des simulations transitoires. Deux outils de simulation sont développés, un dans le domaine du temps pour des résolutions dynamiques et un autre dans le domaine des phaseurs dont une application sur des tests de réponse en fréquence à l’arrêt (SSFR) est également présentée. La méthode de construction du modèle est décrite en détail de même que la procédure de modélisation de la cage du rotor. Le modèle est validé par l’étude de machines synchrones: une machine de laboratoire de 5.4 KVA et un grand alternateur de 109 MVA dont les mesures expérimentales sont comparées aux résultats de simulation du modèle pour des essais tels que des tests à vide, des courts-circuits triphasés, biphasés et un test en charge.
Resumo:
Les déficits cognitifs sont présents chez les patients atteints de cancer. Les tests cognitifs tels que le Montreal Cognitive Assessment se sont révélés peu spécifiques, incapables de détecter des déficits légers et ne sont pas linéaires. Pour suppléer à ces limitations nous avons développé un questionnaire cognitif simple, bref et adapté aux dimensions cognitives atteintes chez les patients avec un cancer, le FaCE « The Fast Cognitif Evaluation », en utilisant la modélisation Rasch (MR). La MR est une méthode mathématique probabiliste qui détermine les conditions pour qu’un outil soit considéré une échelle de mesure et elle est indépendante de l’échantillon. Si les résultats s’ajustent au modèle, l’échelle de mesure est linéaire avec des intervalles égaux. Les réponses sont basées sur la capacité des sujets et la difficulté des items. La carte des items permet de sélectionner les items les plus adaptés pour l’évaluation de chaque aspect cognitif et d’en réduire le nombre au minimum. L’analyse de l’unidimensionnalité évalue si l’outil mesure une autre dimension que celle attendue. Les résultats d’analyses, conduites sur 165 patients, montrent que le FaCE distingue avec une excellente fiabilité et des niveaux suffisamment différents les compétences des patients (person-reliability-index=0.86; person-separation-index=2.51). La taille de la population et le nombre d’items sont suffisants pour que les items aient une hiérarchisation fiable et précise (item-reliability=0.99; item-séparation-index=8.75). La carte des items montre une bonne dispersion de ceux-ci et une linéarité du score sans effet plafond. Enfin, l’unidimensionnalité est respectée et le temps d’accomplissement moyen est d’environ 6 minutes. Par définition la MR permet d’assurer la linéarité et la continuité de l’échelle de mesure. Nous avons réussi à développer un questionnaire bref, simple, rapide et adapté aux déficits cognitifs des patients avec un cancer. Le FaCE pourrait, aussi, servir de mesure de référence pour les futures recherches dans le domaine.
Resumo:
L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
La question du pluralisme religieux est au Québec, l’objet de désaccords et de variations dans son mode de régulation et ses instruments d’action publique. La consultation publique sur le projet loi n° 94, Loi établissant les balises encadrant les demandes d’accommodement dans l’Administration gouvernementale et dans certains établissements, est au cœur de ceux-ci. En se basant sur l’analyse des séances d’auditions publiques en commission parlementaire qui ont eu lieu au Québec entre mai 2010 et janvier 2011 sur le projet de loi n° 94, cette thèse vise à interroger les enjeux liés à la publicisation des prises de positions et de l’échange d’arguments entre différents acteurs. À partir d’une méthodologie par théorisation enracinée et d’un cadre conceptuel qui se rattache à la communication publique, cette thèse cherche à mettre en évidence quelques-unes des propriétés des interactions verbales et non verbales qui composent et incarnent cette activité délibérative. Elle approche ces interactions du point de vue de leur publicisation en s’appuyant sur deux principes : la participation publique en tant qu’un instant de la construction du problème public et l’audition publique en commission parlementaire comme maillon d’un réseau dialogique qui participe à la publicisation du désaccord sur les accommodements raisonnables. Mettant l’accent sur l’usage du langage (verbal, non verbal et para verbal), l’objectif de cette thèse est de mieux comprendre comment des groupes minoritaires et majoritaires, engagés dans une arène publique où les points de vue par rapport aux accommodements raisonnables sont confrontés et mis en visibilité, gèrent leur situation de parole publique. La démarche de recherche a combiné deux stratégies d’analyse : la première stratégie d’inspiration conversationnelle, qui observe chaque séquence comme objet indépendant, a permis de saisir le déroulement des séances d’audition en respectant le caractère séquentiel des tours de parole La deuxième stratégie reviens sur les principaux résultats de l’analyse des séances d’auditions pour valider les résultats et parvenir à la saturation théorique pour élaborer une modélisation. L’exploitation des données selon cette approche qualitative a abouti au repérage de trois dynamiques. La première fait état des contraintes discursives. La seconde met en évidence le rôle des dimensions motivationnelles et socioculturelles dans la construction des positionnements et dans l’adoption d’un registre polémique. La troisième souligne la portée de la parole publique en termes d’actualisation des rapports de pouvoir et de confirmation de son caractère polémique. La modélisation proposée par cette thèse représente le registre polémique comme un élément constitutif de l’engagement argumentatif des acteurs sociaux mais qui est considérablement enchâssé dans d’autres éléments contextuels et motivationnels qui vont orienter sa portée. En tant qu’elle est exprimée dans un site dialogique, la parole publique en situation d’audition publique en commission parlementaire est en mesure de créer de nouvelles intrigues et d’une possibilité de coexister dans le dissensus. Le principal apport de cette thèse est qu’elle propose une articulation, concrète et originale entre une approche de la parole publique en tant que révélatrice d’autre chose que d’elle-même (nécessaire à tout éclaircissement des points de vue dans cette controverse) et une approche de la parole publique en tant que performance conduisant à la transformation du monde social. D’où, le titre de la thèse : la parole en action. Mots clefs : parole publique, discours, arène publique, pluralisme religieux, accommodements raisonnables, controverses, dissensus, théorisation enracinée
Resumo:
Ce travail évalue le comportement mécanique des matériaux cimentaires à différentes échelles de distance. Premièrement, les propriétés mécaniques du béton produit avec un bioplastifiant à base de microorganismes efficaces (EM) sont etudiées par nanoindentation statistique, et comparées aux propriétés mécaniques du béton produit avec un superplastifiant ordinaire (SP). Il est trouvé que l’ajout de bioplastifiant à base de produit EM améliore la résistance des C–S–H en augmentant la cohésion et la friction des nanograins solides. L’analyse statistique des résultats d’indentation suggère que le bioplastifiant à base de produit EM inhibe la précipitation des C–S–H avec une plus grande fraction volumique solide. Deuxièmement, un modèle multi-échelles à base micromécanique est dérivé pour le comportement poroélastique de la pâte de ciment au jeune age. L’approche proposée permet d’obtenir les propriétés poroélastiques requises pour la modélisation du comportoment mécanique partiellement saturé des pâtes de ciment viellissantes. Il est montré que ce modèle prédit le seuil de percolation et le module de Young non drainé de façon conforme aux données expérimentales. Un metamodèle stochastique est construit sur la base du chaos polynomial pour propager l’incertitude des paramètres du modèle à travers plusieurs échelles de distance. Une analyse de sensibilité est conduite par post-traitement du metamodèle pour des pâtes de ciment avec ratios d’eau sur ciment entre 0.35 et 0.70. Il est trouvé que l’incertitude sous-jacente des propriétés poroélastiques équivalentes est principalement due à l’énergie d’activation des aluminates de calcium au jeune age et, plus tard, au module élastique des silicates de calcium hydratés de basse densité.
Resumo:
L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
Resumo:
Les entreprises qui se servent des technologies de l’information et de la communication (TIC) pour innover mesurent des impacts très inégaux sur leurs performances. Cela dépend principalement de l’intensité, l’ampleur et la cohérence de l’innovation systémique auxquelles elles procèdent. En l’état de la connaissance, la littérature identifie le besoin de mieux comprendre cette notion d’alignement systémique. Cette thèse propose d’aborder cette question à l’aide de la notion d’innovation du modèle d’affaires. Une revue systématique de la littérature a été réalisée. D’un point de vue conceptuel, elle contribue à mieux définir le concept de modèle d’affaires, et a permis de réaliser une typologie des différents cadres de modélisation d’affaires. Le cadre conceptuel qui en est issu aborde le sujet de l’innovation du modèle d’affaires à trois niveaux : (1) stratégique à travers la proposition d’une matrice de positionnement de l’innovation de modèle d’affaires et l’identification de trajectoires d’innovation ; (2) configuration du modèle d’affaires à l’aide du cadre de modélisation tétraédrique de Caisse et Montreuil ; et (3) opérationnel-tactique par l’analyse des facteurs clés de succès et des chaines structurantes. Du fait du caractère émergeant de la littérature sur le sujet, la méthodologie choisie est une étude de cas comparés. Trois études de cas d’entreprises québécoises ont été réalisées. Elles oeuvrent dans des secteurs variés, et ont procédé à une innovation significative de leur modèle d’affaires en s’appuyant sur des TIC,. La recherche conclut à la pertinence de l’utilisation du concept de modèle d’affaires en ce qui concerne l’analyse de l’alignement systémique dans un contexte d’innovation appuyée sur les TIC. Neuf propositions de recherche sont énoncées et ouvrent la voie à de futures recherches