862 resultados para Algorithme analytique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence des contaminants organiques dans l’environnement est une problématique aux enjeux aussi bien scientifiques que politiques. Le caractère diffus et continu (différentes et multiples sources) de cette contamination ne permet pas à ces molécules biologiquement actives d’être soumises à une législation. Ces molécules, pouvant être très récalcitrantes, ne sont pas systématiquement éliminées par les systèmes de traitement des eaux conventionnels. Actuellement, de nouveaux procédés biotechnologiques basés sur des enzymes extracellulaires (e.g. Laccase) ou des champignons lignivores permettent l’élimination des composés les plus récalcitrants. Notre compréhension des mécanismes impliqués dans cette élimination reste incomplète. En effet, la biosorption et l’activité des enzymes extracellulaire sont les mécanismes les plus souvent mis en avant pour expliquer l’efficacité des procédés d’élimination fongique, mais ne sont pas capables d’expliquer les performances obtenues pour certains composés pharmaceutiques. Ces lacunes dans nos connaissances sur les mécanismes responsables de l’élimination fongique des contaminants organiques sont un frein à la pleine exploitation de ces procédés de traitement. De plus, il est forcé d’admettre qu’un grand nombre de travaux portant sur l’élimination fongique de contaminants organiques ont été réalisés dans des conditions de hautes concentrations, qui peuvent être peu représentatives des matrices environnementales. Ainsi, les effets observés à plus forte concentration peuvent etre le résultat dû au stress de l’organisme au contact des contaminants (toxicités). Cette thèse adresse deux questions ; ainsi quelle est l’influence des concentrations traces sur de tels procédés ? Et comment expliquer l’élimination de certains contaminants organiques lors des traitements fongiques ? Afin d’apporter des éléments de réponse sur les mécanismes mis en jeux lors de l’élimination fongique, les travaux présentés ici ont été réalisés sur un modèle de champignon lignivore connu pour ses propriétés en bioremediation. Dans un premier temps, un développement analytique permettant la quantification d’une sélection de contaminants organiques à l’état de traces a été réalisé. Cette méthode a permis d’effectuer des analyses de ces molécules à partir d’un seul échantillon environnemental de faible biomasse et à partir d’une seule injection instrumentale. Les résultats de cette thèse démontrent que l’élimination fongique de contaminants organiques résulte de mécanismes plus complexes que précédemment décrits. Notamment, la dégradation est fortement dépendante d’une étape initiale d’internalisation du contaminant par l’organisme ciblé et de la dégradation intracellulaire. Les mécanismes impliqués peuvent ainsi donnés lieux à des réactions de conjugaison intracellulaire des molecules (glucuronide, glutathione). Les résultats démontrent également que ces procédés d’élimination fongique sont efficaces sur une large gamme de concentration en contaminants organiques. Cependant, les faibles concentrations modifient les propriétés physico-chimiques et biologiques de l’organisme testé (i.e. un changement de la morphologie et du profil de la production enzymatique). La réponse biologique n’étant pas directement proportionnelle a l’exposition en contaminant. Cette étude a permis d’accroitre notre compréhension des mécanismes impliqués dans la dégradation fongique de contaminants organiques. Ceci ouvre la voie à de nouvelles études portant sur les interactions entre processus intra — et extracellulaires. Cette thèse contribue également à l’amélioration des connaissances en offrant des outils de compréhension nécessaire à l’optimisation et au développement du potentiel de ces procédés biotechnologiques (ciblage et role des enzymes réeellement impliquées dans les réactions de biocatalyse).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a présentement de la demande dans plusieurs milieux cherchant à utiliser des robots afin d'accomplir des tâches complexes, par exemple l'industrie de la construction désire des travailleurs pouvant travailler 24/7 ou encore effectuer des operation de sauvetage dans des zones compromises et dangereuses pour l'humain. Dans ces situations, il devient très important de pouvoir transporter des charges dans des environnements encombrés. Bien que ces dernières années il y a eu quelques études destinées à la navigation de robots dans ce type d'environnements, seulement quelques-unes d'entre elles ont abordé le problème de robots pouvant naviguer en déplaçant un objet volumineux ou lourd. Ceci est particulièrement utile pour transporter des charges ayant de poids et de formes variables, sans avoir à modifier physiquement le robot. Un robot humanoïde est une des plateformes disponibles afin d'effectuer efficacement ce type de transport. Celui-ci a, entre autres, l'avantage d'avoir des bras et ils peuvent donc les utiliser afin de manipuler précisément les objets à transporter. Dans ce mémoire de maîtrise, deux différentes techniques sont présentées. Dans la première partie, nous présentons un système inspiré par l'utilisation répandue de chariots de fortune par les humains. Celle-ci répond au problème d'un robot humanoïde naviguant dans un environnement encombré tout en déplaçant une charge lourde qui se trouve sur un chariot de fortune. Nous présentons un système de navigation complet, de la construction incrémentale d'une carte de l'environnement et du calcul des trajectoires sans collision à la commande pour exécuter ces trajectoires. Les principaux points présentés sont : 1) le contrôle de tout le corps permettant au robot humanoïde d'utiliser ses mains et ses bras pour contrôler les mouvements du système à chariot (par exemple, lors de virages serrés) ; 2) une approche sans capteur pour automatiquement sélectionner le jeu approprié de primitives en fonction du poids de la charge ; 3) un algorithme de planification de mouvement qui génère une trajectoire sans collisions en utilisant le jeu de primitive approprié et la carte construite de l'environnement ; 4) une technique de filtrage efficace permettant d'ignorer le chariot et le poids situés dans le champ de vue du robot tout en améliorant les performances générales des algorithmes de SLAM (Simultaneous Localization and Mapping) défini ; et 5) un processus continu et cohérent d'odométrie formés en fusionnant les informations visuelles et celles de l'odométrie du robot. Finalement, nous présentons des expériences menées sur un robot Nao, équipé d'un capteur RGB-D monté sur sa tête, poussant un chariot avec différentes masses. Nos expériences montrent que la charge utile peut être significativement augmentée sans changer physiquement le robot, et donc qu'il est possible d'augmenter la capacité du robot humanoïde dans des situations réelles. Dans la seconde partie, nous abordons le problème de faire naviguer deux robots humanoïdes dans un environnement encombré tout en transportant un très grand objet qui ne peut tout simplement pas être déplacé par un seul robot. Dans cette partie, plusieurs algorithmes et concepts présentés dans la partie précédente sont réutilisés et modifiés afin de convenir à un système comportant deux robot humanoides. Entre autres, nous avons un algorithme de planification de mouvement multi-robots utilisant un espace d'états à faible dimension afin de trouver une trajectoire sans obstacle en utilisant la carte construite de l'environnement, ainsi qu'un contrôle en temps réel efficace de tout le corps pour contrôler les mouvements du système robot-objet-robot en boucle fermée. Aussi, plusieurs systèmes ont été ajoutés, tels que la synchronisation utilisant le décalage relatif des robots, la projection des robots sur la base de leur position des mains ainsi que l'erreur de rétroaction visuelle calculée à partir de la caméra frontale du robot. Encore une fois, nous présentons des expériences faites sur des robots Nao équipés de capteurs RGB-D montés sur leurs têtes, se déplaçant avec un objet tout en contournant d'obstacles. Nos expériences montrent qu'un objet de taille non négligeable peut être transporté sans changer physiquement le robot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cours Français des affaires est donné aux étudiantes et étudiants de première session en Techniques de bureautique au cégep de Lévis-Lauzon. Depuis plusieurs années, les enseignantes et enseignants ont observé, et ce, de façon récurrente, que plusieurs notions de grammaire ne sont pas maitrisées de manière satisfaisante pour pouvoir ainsi atteindre la compétence du cours qui est « Produire et traiter, linguistiquement, des textes français (00UZ) » (Gouvernement du Québec, 1999, p. 73). Le constat de l’inefficacité de nombreux exercices et des explications répétées relatives aux notions d’accord des participes passés jumelé à l’observation d’une bonne connaissance des règles de grammaire par les étudiantes et étudiants est à l’origine de ce travail qui consistait à expérimenter une nouvelle méthode pédagogique, soit l’enseignement stratégique de ces notions. Alors que les étudiantes et étudiants semblent connaitre les règles de grammaire par coeur, la correction des exercices, formatifs ou sommatifs, où seuls les accords sont accessibles à l’enseignante ou l’enseignant, révèle des lacunes. Le cadre de référence a d’ailleurs été établi autour de l’enseignement des participes passés ainsi que des principaux concepts de l’enseignement stratégique qui sont, entre autres, les connaissances antérieures, la psychologie cognitive de même que l’autoévaluation. C’est donc selon ces différents aspects que les activités d’enseignement et d’apprentissage pour les notions concernant les participes passés employés sans auxiliaire, avec l’auxiliaire être et avec l’auxiliaire avoir ont été construites. Pour être en mesure de répondre à l’objectif général ainsi qu’aux objectifs spécifiques de la recherche, c’est la recherche-expérimentation qui a été choisie comme type d’essai. En effet, ce sont 21 étudiantes et étudiants du cours Français des affaires dans le programme Techniques de bureautique du cégep de Lévis-Lauzon qui ont accepté de participer, à l’automne 2015, à l’expérimentation de l’enseignement stratégique. Les résultats obtenus ont révélé, entre autres, que les performances des étudiantes et étudiants semblent meilleures lorsque seule la réponse est évaluée. Par contre, quand la démarche, ou le cheminement, est pris en compte, certains accords sont exacts sans avoir le raisonnement juste. C’est donc dire que, dans un autre contexte, l’étudiante ou l’étudiant aurait fait le mauvais accord sans vraiment en connaitre la cause. De plus, nous voulions connaitre les perceptions des étudiantes et étudiants concernant cette nouvelle façon de faire, soit l’enseignement stratégique. Dans l’ensemble, la nouvelle stratégie pédagogique leur a plu. Ainsi, elles et ils se disent maintenant conscients de toutes les étapes à franchir afin de trouver la bonne manière d’accorder les participes passés et aussi des erreurs qu’elles et qu’ils font en les accordant. En somme, l’enseignement stratégique gagne à être mis de l’avant. Entre la connaissance d’une règle et le bon accord d’un participe passé, il y a des lacunes importantes qui doivent être corrigées. Le recours aux connaissances antérieures, à la validation d’un pas à pas et aussi le fait d’amener les étudiantes et étudiants à évaluer leurs apprentissages sont des éléments importants pour arriver à diminuer les fautes et ainsi espérer un éventuel transfert des apprentissages. C’est de cette façon que l’enseignement stratégique propose une démarche analytique et réflexive permettant d’accorder les participes passés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Recently, there is a great interest to study the flow characteristics of suspensions in different environmental and industrial applications, such as snow avalanches, debris flows, hydrotransport systems, and material casting processes. Regarding rheological aspects, the majority of these suspensions, such as fresh concrete, behave mostly as non-Newtonian fluids. Concrete is the most widely used construction material in the world. Due to the limitations that exist in terms of workability and formwork filling abilities of normal concrete, a new class of concrete that is able to flow under its own weight, especially through narrow gaps in the congested areas of the formwork was developed. Accordingly, self-consolidating concrete (SCC) is a novel construction material that is gaining market acceptance in various applications. Higher fluidity characteristics of SCC enable it to be used in a number of special applications, such as densely reinforced sections. However, higher flowability of SCC makes it more sensitive to segregation of coarse particles during flow (i.e., dynamic segregation) and thereafter at rest (i.e., static segregation). Dynamic segregation can increase when SCC flows over a long distance or in the presence of obstacles. Therefore, there is always a need to establish a trade-off between the flowability, passing ability, and stability properties of SCC suspensions. This should be taken into consideration to design the casting process and the mixture proportioning of SCC. This is called “workability design” of SCC. An efficient and non-expensive workability design approach consists of the prediction and optimization of the workability of the concrete mixtures for the selected construction processes, such as transportation, pumping, casting, compaction, and finishing. Indeed, the mixture proportioning of SCC should ensure the construction quality demands, such as demanded levels of flowability, passing ability, filling ability, and stability (dynamic and static). This is necessary to develop some theoretical tools to assess under what conditions the construction quality demands are satisfied. Accordingly, this thesis is dedicated to carry out analytical and numerical simulations to predict flow performance of SCC under different casting processes, such as pumping and tremie applications, or casting using buckets. The L-Box and T-Box set-ups can evaluate flow performance properties of SCC (e.g., flowability, passing ability, filling ability, shear-induced and gravitational dynamic segregation) in casting process of wall and beam elements. The specific objective of the study consists of relating numerical results of flow simulation of SCC in L-Box and T-Box test set-ups, reported in this thesis, to the flow performance properties of SCC during casting. Accordingly, the SCC is modeled as a heterogeneous material. Furthermore, an analytical model is proposed to predict flow performance of SCC in L-Box set-up using the Dam Break Theory. On the other hand, results of the numerical simulation of SCC casting in a reinforced beam are verified by experimental free surface profiles. The results of numerical simulations of SCC casting (modeled as a single homogeneous fluid), are used to determine the critical zones corresponding to the higher risks of segregation and blocking. The effects of rheological parameters, density, particle contents, distribution of reinforcing bars, and particle-bar interactions on flow performance of SCC are evaluated using CFD simulations of SCC flow in L-Box and T-box test set-ups (modeled as a heterogeneous material). Two new approaches are proposed to classify the SCC mixtures based on filling ability and performability properties, as a contribution of flowability, passing ability, and dynamic stability of SCC.