998 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
La réalisation de l’évaluation environnementale, en France, est encouragée par l’existence de règlements, lois, directives et normes Européennes (notamment la Directive 2001/42/CE du Parlement européen et du Conseil du 27 juin 2001 relative à l'évaluation des incidences de certains plans et programmes sur l'environnement et la Loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte). La compréhension du cadre Drivers – Pressures – State – Impacts – Responses permet de replacer les différentes méthodologies dans un cadre conceptuel plus large. Les méthodes d’analyse de flux de matières (Pressures) et d’analyse de cycle de vie (Impacts) sont les deux familles d’évaluation environnementale considérées dans ce travail. C’est plus précisément l’analyse de flux de matières selon Eurostat et l’analyse de cycle de vie territoriale qui ont été appliquées au territoire métropolitain d’Aix-Marseille-Provence. Un état de l’art relevant les études dans lesquelles sont réalisées des analyses de flux de matières a pu montrer que cette famille de méthodes informe sur le métabolisme des territoires à partir de différents types de flux. L’importance des flux indirects et des ressources minérales dans les métabolismes a ainsi été démontrée. Du côté des études analysant les cycles de vie sur les territoires, comme c’est le cas dans l’analyse de cycle de vie territoriale, la distinction faite entre les impacts et dommages, directs ou globaux, permet d’offrir des recommandations ciblées, améliorant la qualité de vie des citoyens. La mise en œuvre de ces deux méthodes sur le territoire métropolitain a mis en évidence l’importance dominante des flux indirects liés aux importations et exportations que génèrent les activités du territoire, elles-mêmes fortement influencées par la présence du port de Marseille-Fos. L’activité pétrochimique, qui caractérise elle aussi la métropole, est une grande consommatrice de combustibles fossiles, ce qui se reflète dans les volumes de flux calculés et leurs impacts associés. Les deux méthodologies s’avèrent complémentaires, chacune ayant ses forces et faiblesses respectives. Pour l’analyse de cycle de vie, la pensée cycle de vie et la prise en compte de la qualité de la matière, d’une part, et la facilité d’application et la marge d’erreur réduite de l’analyse de flux de matières, d’autre part, en plus de leurs résultats complémentaires, justifient un usage hybride pour la prise d’actions ciblées. En effet, la collecte commune des données rend intéressante leur exploitation et l’interprétation croisée de leurs résultats.
Resumo:
La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.
Resumo:
L’objectif de cet essai est de recommander des solutions alternatives aux méthodes de déglaçage présentement utilisées au Québec et au Canada. Actuellement, les routes hivernales sont maintenues sécuritaires grâce à l’épandage de sels de voirie et d’abrasifs. Le chlorure de sodium et le chlorure de calcium sont les plus utilisés sur les routes, en partie en raison de leurs faibles coûts. Or, les impacts négatifs d’une libération massive d’ions chlorure dans l’environnement sont nombreux. La perturbation de l’équilibre osmotique du sol menant à un dérèglement végétal, l’augmentation de la salinité de l’eau nuisant aux organismes aquatiques vertébrés et l’érosion accélérée du sol n’en sont que quelques-unes. En prime, les répercussions économiques reliées à la corrosion des véhicules et des structures routières, telles que les ponts et viaducs, causées par l’épandage de sels de voirie sont importantes. Ainsi, l’utilisation de méthodes alternatives peut limiter les impacts engendrés par les sels de voirie. Les recommandations sont divisées en deux catégories. D’une part, des recommandations sont formulées en lien avec l’épandage de produits de remplacements aux sels de voirie. L’exploitation du potentiel de l’extrait de betterave est suggérée. L’entretien hivernal des ponts et viaducs à l’aide de produits non corrosifs tels que les acétates est proposé, tout comme le traitement des piles d’abrasifs avec un produit comportant un pourcentage d’extrait de maïs. D’autre part, des recommandations concernant l’optimisation des méthodes employées et les visions environnementales à adopter en entretien hivernal sont formulées. Elles consistent à augmenter le nombre de villes québécoises participantes à la Stratégie québécoise pour une gestion environnementale des sels de voirie et de villes canadiennes éligibles au Code de pratique pour la gestion des sels de voirie, de miser en premier lieu sur l’amélioration des méthodes d’entretien hivernal dans les zones vulnérables prioritaires, de prendre en compte le cycle de vie des composés alternatifs et enfin d’effectuer une réduction à la source des émissions de sels de voirie dans l’environnement. Enfin, puisqu’aucune solution idéale n’existe, la solution réside en l’amélioration des méthodes actuelles et l’utilisation d’une combinaison d’alternatives, chacune jouant un rôle dans une situation qui lui est propre pour atténuer des impacts causés par l’épandage de sels de voirie.
Resumo:
La réussite scolaire est affaire de capacité, mais aussi de motivation. Viau (2009) définit la motivation comme: un état dynamique qui a ses origines dans les perceptions qu’une étudiante ou un étudiant a de lui-même et de son environnement et qui l’incite à choisir une activité, à s’y engager et à persévérer dans son accomplissement afin d’atteindre un but. La motivation, c’est ce moteur qui nous fait avancer pour atteindre un idéal. Tout enseignante ou enseignant doit favoriser la motivation des étudiantes et des étudiants et mettre en place des conditions nécessaires pour leur permettre de trouver eux-mêmes le sens qu’ils souhaitent donner à leur démarche. En effet, si les étudiantes et les étudiants choisissent leur programme d’étude et parfois certains cours, il en revient à l’enseignante et à l’enseignant de contribuer à susciter l’intérêt pour le cours, d’aider la clientèle étudiante à percevoir son utilité et surtout à se réaliser dans ses apprentissages. Si l’enseignante ou l’enseignant n’a pas le choix sur le contenu du cours, il a cependant le choix des méthodes pédagogiques à utiliser. Certaines méthodes pédagogiques vont susciter un dynamisme qui caractérise les interactions entre les étudiantes et les étudiants, et entre ces derniers et l’enseignante ou l’enseignant. Ce dynamisme contribue à motiver la clientèle étudiante. Dans cet essai, la chercheure s’est intéressée sur l’effet des stratégies d’enseignement sur les étudiantes et étudiants en Soins infirmiers. Le premier chapitre aborde l’APC et le vent de changement suscité par cette approche sur les méthodes pédagogiques, mais aussi sur le rôle des enseignantes et des enseignants. On y aborde en conséquence la problématique ainsi que les raisons qui ont motivé la chercheure à vouloir conduire cette étude. Le deuxième chapitre est le cadre de référence de cette étude. Les méthodes pédagogiques et la motivation scolaire sont au coeur de ce cadre conceptuel. On y retrouve entre autres la classification, la définition et la description de huit méthodes pédagogiques, soit les plus populaires selon Chamberland, Lavoie et Marquis (1995). Par la suite, la motivation scolaire est abordée en discutant entre autres des facteurs liés à la classe, des trois déterminants, les perceptions attributionnelles, la perception de sa compétence, la perception de l’importance de la tâche ainsi que deux indicateurs de la motivation scolaire: l’engagement cognitif et la participation. Barbeau (1994) a élaboré un modèle de la motivation qui regroupe cinq grandes variables de la motivation dans un ensemble dynamique. Ce modèle est présenté dans ce chapitre. Le troisième chapitre élabore la méthodologie utilisée pour la réalisation de cette étude. L’approche méthodologique de type qualitatif est présentée de même que le paradigme interprétatif. L’approche méthodologique, les participantes et les participants à la recherche, le déroulement de la recherche et les instruments de collecte de données sont expliqués. Cette étude a fait appel à trois outils de collectes de données soit un entretien semi-dirigé avec les enseignantes et les enseignants, l’observation en classe et le questionnaire passé aux étudiantes et aux étudiants. Le quatrième chapitre comprend l’interprétation des résultats obtenus. Les résultats sont présentés à partir des données recueillies par les différents instruments de collecte. Ces derniers font ressortir que les étudiantes et les étudiants semblent plus motivés si les méthodes pédagogiques utilisées sont plus actives. La conclusion de cette recherche présente pour sa part un résumé de l’étude, les retombées de la recherche et différentes avenues qui pourraient être développées.
Resumo:
Les stages en milieux hospitaliers offrent une opportunité aux personnes étudiantes dans le domaine de la santé d’exécuter différentes méthodes d’évaluation et des méthodes de soins. Le Programme de soins infirmiers offre plusieurs de ces stages. Pour chaque stage, les personnes étudiantes elles doivent faire une liste des méthodes d’évaluation et des méthodes de soins effectuées dans un cahier. Elles doivent aussi y faire leur autoévaluation sur, par exemples, le déroulement de la méthode de soins, sur la relation avec le patient, ses difficultés... Le Programme de soins infirmiers comprenant 11 différents stages sur les 3 ans, il devient difficile d’avoir un suivi des acquis antérieurs et une bonne évaluation de la compétence. La création d’un portfolio sur les techniques effectuées lors des stages, permettra le suivi et l’évaluation des apprentissages relatifs à la compétence « utiliser des méthodes d’évaluation et des méthodes de soins » (Gouvernement du Québec, 2004) et ce, sur toute la durée du programme, soit trois ans, plutôt que sur la base d’un seul stage. Pour ce faire, un questionnaire en ligne a été complété par 46 personnes étudiantes et enseignantes dans le Programme de soins infirmiers du Cégep de Thetford. Suite à l’analyse, des focus groupes ont eu lieu pour valider ou clarifier certaines informations. L’analyse du questionnaire a permis de voir que la majorité des personnes répondantes est ouverte à essayer un portfolio électronique. De plus, des données pouvant figurer dans le portfolio et une grille des méthodes de soins ont été soulignées pour s’assurer de débuter le développement de ce dernier selon les besoins des personnes participantes. Comme il s’agit d’un nouvel outil pédagogique, leur implication dans le projet dès le début du processus pourrait permettre une meilleure collaboration lors de l’implantation du portfolio. Contrairement à la version papier, le portfolio électronique a l’avantage d’être accessible plus facilement et peut être utilisé en ligne par plus d’une personne à la fois. Il devient plus facile pour les personnes étudiantes et les enseignantes de commenter l’évolution de leurs compétences au fur et à mesure plutôt qu’à la fin du stage seulement. L’objectif étant d’avoir tous les éléments en main avant de commencer à travailler sur le développement du portfolio. En ayant déjà les attentes des personnes potentiellement utilisatrices, nous espérons diminuer le nombre de modifications ou d’ajustements à postériori. Nous espérons aussi que les personnes pouvant utiliser le portfolio y adhérent plus facilement s’il répond à leur besoins dès le départ. L’utilisation d’un portfolio sur la durée du programme pour l’évaluation des compétences longitudinales serait grandement aidant pour la progression et la réussite des personnes étudiantes. Pour le moment, il s’agit de créer le portfolio pour une compétence seulement. Toutefois, toutes les compétences évaluées pourraient éventuellement se retrouver dans cet outil et pourrait permettre aux personnes étudiantes d’avoir, en tout temps, le curriculum de leur formation, facilitant leur réflexion personnel et permettant de développer un jugement critique face à leur propre cheminement.
Resumo:
Nous avons dirigé cet essai sur la conception et le développement d’un dispositif de formation en ligne, selon une approche par compétences au collégial, dans le cadre du cours crédité Éclairages et rendus 2 du programme Techniques d’animation 3D et synthèse d’images. Nous avons commencé en présentant le programme Techniques d’animation 3D et synthèse d’images du Cégep Limoilou, le cours Éclairages et rendus 2 et l’épreuve synthèse de programme (ESP) qui se rattache au programme. Nous avons également défini l’utilisation actuelle des technologies de l’information et de la communication (TIC) et des environnements numériques d’apprentissage (ENA) dans le programme et nous avons déterminé les modalités de cours au collégial. Ensuite, en l’absence de formation en ligne au Cégep Limoilou, nous avons exposé les raisons qui nous ont mené à concevoir et à développer un dispositif de formation en ligne pour le cours Éclairages et rendus 2. Nous avons identifié les problèmes, entre autres reliés aux politiques institutionnelles, à la convention collective et au manque de disponibilité des locaux. Ce manque de disponibilité des locaux limite le temps de pratique des étudiantes et étudiants, limite l’accessibilité aux logiciels et nuit à l’implantation de l’alternance travail-études (ATE) dans le programme Techniques d’animation 3D et synthèse d’images. La conception d’un dispositif de formation en ligne pour le cours Éclairages et rendus 2 permettrait de libérer des heures de laboratoire et faciliterait le processus d’adhésion à l’ATE. À partir de l’objectif général, nous avons construit le cadre de référence permettant de positionner les fondements de cet essai. Nous avons débuté en démystifiant la formation à distance et en définissant le concept d’ingénierie pédagogique, particulièrement le modèle ADDIE. Ensuite, nous avons clarifié la nature et les caractéristiques des ENA et défini l’approche par compétences. Nous avons terminé en définissant les objectifs spécifiques. L’approche méthodologique retenue dans le cadre de cet essai est une approche qualitative. Nous avons choisi une posture interprétative en accordant de l’importance à la compréhension et l’interprétation des résultats (Fortin, 2010). Cet essai est basé sur une recherche développement qui s’inscrit dans le pôle de l’innovation visant à développer du matériel technopédagogique. Les résultats démontrent que les étudiantes et les étudiants ont apprécié le dispositif d’apprentissage. L’ENA s’est avéré un outil familier pour les étudiantes et les étudiants, car ils utilisent quotidiennement l’ordinateur dans leurs fonctions de travail. L’expérimentation du dispositif a permis de recueillir des résultats qui ont été compilés, analysés et comparés dans le but d’améliorer le dispositif de formation en ligne. Nous avons corroboré les données à l’aide de deux méthodes de collecte de données, soit le journal du chercheur et le questionnaire à questions ouvertes et fermées. Pour les pistes futures, il serait intéressant de valider le dispositif de formation en ligne auprès d’un plus grand échantillon en ne se limitant pas uniquement à des étudiantes ou étudiants du programme de Techniques d’animation 3D et synthèse d’images. Il serait également intéressant de mettre en place un dispositif couvrant l’ensemble des 15 semaines de la session et de faire une mise à l’essai à plus d’une reprise. Enfin, une avenue intéressante serait de concevoir un dispositif plus universel et adapté à d’autres cours du programme et à d’autres programmes de formation collégiale et universitaire pouvant servir de guide plus général à la création d’une formation en ligne adaptée à une approche par compétences.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.
Resumo:
Les sulfilimines et les sulfoximines sont des motifs structuraux dont l’intérêt synthétique est grandissant, notamment du fait de leurs applications en chimie médicinale et en agrochimie. Les travaux rapportés dans cet ouvrage décrivent le développement de nouvelles méthodes de synthèse efficaces pour la production de ces unités atypiques. Ces méthodes sont basées sur la réactivité d’une source d’azote électrophile, vis-à-vis de thioéthers et de sulfoxydes. L’utilisation d’un complexe métallique introduit en quantité catalytique a permis de favoriser le processus réactionnel. En tirant bénéfice de l’expertise de notre groupe de recherche sur le développement de réactions d’amination stéréosélectives de liaisons C-H et d’aziridination de styrènes, nous avons d’abord étudié la réactivité des N-mésyloxycarbamates comme source d’azote électrophile. Après avoir optimisé sa synthèse sur grande échelle, ce réactif chiral a été utilisé dans des réactions d’amination de thioéthers et de sulfoxydes, catalysées par un dimère de rhodium (II) chiral. Un processus diastéréosélectif efficace a été mis au point, permettant de produire des sulfilimines et des sulfoximines chirales avec d’excellents rendements et sélectivités. Au cours de l’optimisation de cette méthode de synthèse, nous avons pu constater l’effet déterminant de certains additifs sur la réactivité et la sélectivité de la réaction. Une étude mécanistique a été entreprise afin de comprendre leur mode d’action. Il a été observé qu’une base de Lewis telle que le 4-diméthylaminopyridine (DMAP) pouvait se coordiner au dimère de rhodium(II) et modifier ses propriétés structurales et redox. Les résultats que nous avons obtenus suggèrent que l’espèce catalytique active est un dimère de rhodium de valence mixte Rh(II)/Rh(III). Nous avons également découvert que l’incorporation de sels de bispyridinium avait une influence cruciale sur la diastéréosélectivité de la réaction. D’autres expériences sur la nature du groupe partant du réactif N-sulfonyloxycarbamate nous ont permis de postuler qu’une espèce nitrénoïde de rhodium était l’intermédiaire clé du processus d’amination. De plus, l’exploitation des techniques de chimie en débit continu nous a permis de développer une méthode d’amination de thioéthers et de sulfoxydes très performante, en utilisant les azotures comme source d’azote électrophile. Basée sur la décompositon photochimique d’azotures en présence d’un complexe de fer (III) simple et commercialement disponible, nous avons été en mesure de produire des sulfilimines et des sulfoximines avec d’excellents rendements. Le temps de résidence du procédé d’amination a pu être sensiblement réduit par la conception d’un nouveau type de réacteur photochimique capillaire. Ces améliorations techniques ont permis de rendre la synthèse plus productive, ce qui constitue un élément important d’un point de vue industriel.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Resumo:
The pair contact process - PCP is a nonequilibrium stochastic model which, like the basic contact process - CP, exhibits a phase transition to an absorbing state. While the absorbing state CP corresponds to a unique configuration (empty lattice), the PCP process infinitely many. Numerical and theoretical studies, nevertheless, indicate that the PCP belongs to the same universality class as the CP (direct percolation class), but with anomalies in the critical spreading dynamics. An infinite number of absorbing configurations arise in the PCP because all process (creation and annihilation) require a nearest-neighbor pair of particles. The diffusive pair contact process - PCPD) was proposed by Grassberger in 1982. But the interest in the problem follows its rediscovery by the Langevin description. On the basis of numerical results and renormalization group arguments, Carlon, Henkel and Schollwöck (2001), suggested that certain critical exponents in the PCPD had values similar to those of the party-conserving - PC class. On the other hand, Hinrichsen (2001), reported simulation results inconsistent with the PC class, and proposed that the PCPD belongs to a new universality class. The controversy regarding the universality of the PCPD remains unresolved. In the PCPD, a nearest-neighbor pair of particles is necessary for the process of creation and annihilation, but the particles to diffuse individually. In this work we study the PCPD with diffusion of pair, in which isolated particles cannot move; a nearest-neighbor pair diffuses as a unit. Using quasistationary simulation, we determined with good precision the critical point and critical exponents for three values of the diffusive probability: D=0.5 and D=0.1. For D=0.5: PC=0.89007(3), β/v=0.252(9), z=1.573(1), =1.10(2), m=1.1758(24). For D=0.1: PC=0.9172(1), β/v=0.252(9), z=1.579(11), =1.11(4), m=1.173(4)
Resumo:
Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.
Resumo:
En raison du virage semi-autoritaire de l’État russe au début des années 2000, l’adaptation aux mesures contraignantes de l’État, qu’elle soit consciente ou inconsciente, constitue un aspect fondamental du quotidien des ONG de défense des droits de l’homme russes. Cependant, il s’agit d’une question jusqu’ici négligée dans la littérature scientifique. Ainsi, ce mémoire a pour objet d’examiner la démarche d’adaptation d’une ONG particulièrement active sur la scène russe, le Centre des droits de l’homme Memorial, entre 1999 et 2014. La recherche révèle que cette ONG emploie deux méthodes afin de s’adapter aux mesures étatiques et que celles-ci sont, en fait, des principes d’action adoptés par l’organisation au moment de sa création. Le premier principe d’action s’appuie sur la coopération et la solidarité développées par le Centre des droits de l’homme Memorial avec d’autres ONG russes, des ONG internationales et des organisations internationales. En partenariat avec ces organisations, le Centre des droits de l’homme Memorial élabore des activités de recherche et de plaidoyer et mène des missions de surveillance des droits de l’homme. Ce principe d’action renforce considérablement la capacité d’adaptation de l’ONG et favorise l’exercice de son rôle de contrepouvoir. Le second principe d’action se fonde sur la recherche de collaboration constructive avec l’État. Lors d’interactions ponctuelles avec les autorités, l’organisation exerce un rôle d’expert en matière de droits de l’homme et tente de réduire les entraves posées à la société civile. Outre sa propriété adaptative, cette méthode d’adaptation combine deux fonctions inhérentes à la société civile, soit la représentation des intérêts des citoyens auprès des instances étatiques et l’établissement d’un partenariat avec l’État dans le but d’amener ce dernier à adopter des pratiques démocratiques. Ce mémoire montre la capacité du Centre des droits de l’homme Memorial à se mouvoir d’une méthode d’adaptation à l’autre afin de maximiser son action.
Resumo:
Le sujet de cette thèse est la caractérisation dynamique d’une surface générée par plusieurs actionneurs d’un miroir ferrofluidique intégré dans un montage d’optique adaptative. Elle conclut un projet de doctorat au sein du groupe Borra s’étant échelonné sur 4 années. Un bref portrait général de l’optique adaptative est d’abord présenté, suivi d’une section sur la théorie du contrôle. Les types de contrôleurs y sont abordés, soit PID et surcharge. L’effet de la viscosité sur la réponse dynamique du système, ainsi que les analyseurs de front d’onde utilisés sont ensuite expliqués. La section résultats est subdivisée en plusieurs sous-sections ordonnées de façon chronologique. Dans un premier temps, il est question des résultats obtenus dans le cadre d’une caractérisation d’un nouveau miroir de 91 actionneurs fabriqué au sein du groupe. Il est ensuite question des résultats obtenus avec diverses techniques telles le PSD et l’imagerie déclenchée. Il y aura toute une section sur les résultats en vitesse, en fonction de la viscosité du liquide, suivie d’une section sur les simulations réalisées avec Simulink afin de bien cibler les limites du système. Les résultats portant sur la technique de surcharge des actionneurs seront ensuite présentés avec des projections futures. La dernière partie de cette thèse portera sur une innovation apportée par un autre membre du groupe. Nous parlerons de la déposition d’une membrane élastomère réfléchissante et de ses effets sur la dynamique du système.