16 resultados para Langages de programmation fonctionnels
em Université Laval Mémoires et thèses électroniques
Resumo:
Depuis plus de 40 ans, il est connu que les fœtus de mammifères sont sensibles aux conditions métaboliques de la mère durant la gestation. On commence à comprendre aujourd’hui les principes moléculaires de ces observations épidémiologiques. L’épigénétique définit cette nouvelle réalité et semble être la voie par laquelle l’environnement influence l’expression des gènes à plus ou moins long terme. Cette réalité est aussi présente en production laitière où les vaches en plus de montrer une production de lait accrue doivent soutenir le développement d’un fœtus. La forte mobilisation des réserves graisseuses associées à cette condition peut venir modifier la composition du milieu ovarien ainsi qu’utérin, et par le fait même, créer une dysfonction du métabolisme mitochondriale qui provoquera une augmentation du stress oxydatif. Cette modification peut pousser l’ovule ou l’embryon à modifier considérablement sa programmation épigénétique dans le but de s’adapter à ce signe de déficit métabolique. Dans cette étude, nous avons fait subir un stress métabolique à des embryons bovins in vitro afin de valider l’impact d’une telle perturbation sur l’épigénome embryonnaire. Les résultats obtenus ont permis de mettre en évidence une tendance à l’hypométhylation dans les régions télomériques de la majorité des chromosomes ainsi que des modifications sur des gènes reliés au métabolisme énergétique. Il devient donc important d’étudier ces modifications sur le développement et les performances futures de l’embryon et ce afin de mieux comprendre les impacts que certains types de rations ou habitudes de régie peuvent avoir sur le potentiel productif et reproductif des animaux de relève. Ces connaissances nous permettront d’adapter notre régie afin de maximiser le potentiel productif des animaux de l’industrie laitière québécoise et de conserver notre place parmi les leaders mondiaux de ce secteur de production.
Resumo:
L’antibiorésistance est un problème de santé publique majeur, causé principalement par l’usage abusif d’antibiotiques dans les élevages. Les probiotiques sont une alternative potentielle aux antibiotiques. Cependant, acheminer ces microorganismes vivants et fonctionnels jusqu’au côlon est un grand défi, à cause du pH et des sels biliaires à affronter lors du passage gastro-intestinal. L’objectif de ce travail était de développer une matrice prébiotique capable de maintenir la survie et l’activité des probiotiques pendant le transit gastro-intestinal et de permettre leur libération dans le côlon. Pour atteindre cet objectif, cinq types de matrices sphériques (A, AI5, AI10, AI15, AI20) à base d’inuline (0 %, 5 %, 10 %, 15 % et 20 %) et d’alginate (2 %) ont été préparés par la méthode d’extrusion/gélification ionotropique. Trois souches probiotiques ont été utilisées au cours du développement des billes : Pediococcus acidilactici UL5 (UL5), Lactobacillus reuteri (LR) et Lactobacillus salivarius (LS). Dans un premier temps, toutes les formulations ont été caractérisées d’un point de vue physicochimique et microbiologique. Ces analyses ont permis de révéler une distribution homogène de l’inuline et de l’alginate au sein des matrices et ont démontré que la viabilité et la capacité antimicrobienne des souches utilisées n’étaient pas affectées par l’encapsulation. À la lumière de ces résultats, trois formulations A, AI5 et AI20 ont été sélectionnées pour la suite de l’étude. Dans un deuxième temps, la mucoadhésion et le comportement des billes A, AI5 et AI20 ont été étudiés dans les parties supérieures du tractus gastro-intestinal. Ces études ont démontré que la présence de l’inuline améliore les propriétés mucoadhésives des billes. Elles ont également établi que seule la formulation AI5 résiste jusqu’à la fin de la digestion. Ce comportement est expliqué en partie par l’interaction alginate-inuline décelée par spectroscopie infrarouge à transformée de Fourier (FTIR). Cette interaction était stable pour les billes AI5 au pH 6,8 mais instable pour la formulation AI20. Enfin, le comportement et la dynamique bactérienne de la formulation AI5 dans les milieux coliques fermenté et non fermenté ont été étudiés. Cette étude a révélé que les billes AI5 se dégradent et libèrent la totalité des bactéries après environ 4 heures d’incubation dans le milieu fermenté. Cette dégradation est due aux enzymes très abondantes dans ce milieu. En conclusion, la formulation AI5 s’est avérée être un très bon véhicule pour protéger les bactéries dans les parties supérieures du tube digestif et favoriser leur libération dans le côlon. Elle pourrait donc, être utilisée pour une application en alimentation animale.
Resumo:
L’étude de la guérison des plaies à l’aide de substituts produits par génie tissulaire est un domaine en plein essor. Dans ces travaux, les effets de pansements biologiques produits en laboratoire à partir de cellules souches/stromales du tissu adipeux (CSTA) différenciées ou non en adipocytes ont été évalués sur des plaies cutanées in vivo. Un modèle de souris possédant un épiderme fluorescent a permis de démontrer que les plaies traitées avec les pansements biologiques guérissent plus rapidement que les plaies non traitées, et ce, de manière indépendante de la réépithélialisation. Une augmentation de la formation du tissu de granulation et une angiogenèse accrue ont également été observées dans les groupes traités. Ces résultats établissent que les substituts contenant des CSTA ou des adipocytes fonctionnels favorisent la réparation tissulaire. À terme, ces travaux pourraient mener au développement de nouvelles indications cliniques pour le traitement des ulcères cutanés.
Resumo:
L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.
Resumo:
Ce mémoire est consacré à la parallélisation d’un algorithme d’assemblage d’ADN de type de novo sur différentes plateformes matérielles, soit les processeurs multicoeurs et les accélérateurs de type FPGA. Plus précisément, le langage OpenCL est utilisé pour accélérer l’algorithme dont il est question, et de permettre un comparatif direct entre les les plateformes. Cet algorithme est d’abord introduit, puis son implémentation originale, développée pour une exécution sur une grappe de noeuds, est discutée. Les modifications apportées à l’algorithme dans le but de faciliter la parallélisation sont ensuite divulgées. Ensuite, le coeur du travail est présenté, soit la programmation utilisant OpenCL. Finalement, les résultats sont présentés et discutés.
Resumo:
Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.
Diversité microbienne associée au cycle du méthane dans les mares de fonte du pergélisol subarctique
Resumo:
La fonte et l’effondrement du pergélisol riche en glace dans la région subarctique du Québec ont donné lieu à la formation de petits lacs (mares de thermokarst) qui émettent des gaz à effet de serre dans l’atmosphère tels que du dioxyde de carbone et du méthane. Pourtant, la composition de la communauté microbienne qui est à la base des processus biogéochimiques dans les mares de fonte a été très peu étudiée, particulièrement en ce qui concerne la diversité et l’activité des micro-organismes impliqués dans le cycle du méthane. L’objectif de cette thèse est donc d’étudier la diversité phylogénétique et fonctionnelle des micro-organismes dans les mares de fonte subarctiques en lien avec les caractéristiques de l’environnement et les émissions de méthane. Pour ce faire, une dizaine de mares ont été échantillonnées dans quatre vallées situées à travers un gradient de fonte du pergélisol, et disposant de différentes propriétés physico-chimiques. Selon les vallées, les mares peuvent être issues de la fonte de palses (buttes de tourbe, à dominance organique) ou de lithalses (buttes de sol à dominance minérale) ce qui influence la nature du carbone organique disponible pour la reminéralisation microbienne. Durant l’été, les mares étaient fortement stratifiées; il y avait un fort gradient physico-chimique au sein de la colonne d’eau, avec une couche d’eau supérieure oxique et une couche d’eau profonde pauvre en oxygène ou anoxique. Pour identifier les facteurs qui influencent les communautés microbiennes, des techniques de séquençage à haut débit ont été utilisées ciblant les transcrits des gènes de l’ARNr 16S et des gènes impliqués dans le cycle du méthane : mcrA pour la méthanogenèse et pmoA pour la méthanotrophie. Pour évaluer l’activité des micro-organismes, la concentration des transcrits des gènes fonctionnels a aussi été mesurée avec des PCR quantitatives (qPCR). Les résultats montrent une forte dominance de micro-organismes impliqués dans le cycle du méthane, c’est-à-dire des archées méthanogènes et des bactéries méthanotrophes. L’analyse du gène pmoA indique que les bactéries méthanotrophes n’étaient pas seulement actives à la surface, mais aussi dans le fond de la mare où les concentrations en oxygène étaient minimales; ce qui est inattendu compte tenu de leur besoin en oxygène pour consommer le méthane. En général, la composition des communautés microbiennes était principalement influencée par l’origine de la mare (palse ou lithalse), et moins par le gradient de dégradation du pergélisol. Des variables environnementales clefs comme le pH, le phosphore et le carbone organique dissous, contribuent à la distinction des communautés microbiennes entre les mares issues de palses ou de lithalses. Avec l’intensification des effets du réchauffement climatique, ces communautés microbiennes vont faire face à des changements de conditions qui risquent de modifier leur composition taxonomique, et leurs réponses aux changements seront probablement différentes selon le type de mares. De plus, dans le futur les conditions d’oxygénation au sein des mares seront soumises à des modifications majeures associées avec un changement dans la durée des périodes de fonte de glace et de stratification. Ce type de changement aura un impact sur l’équilibre entre la méthanogenèse et la méthanotrophie, et affectera ainsi les taux d’émissions de méthane. Cependant, les résultats obtenus dans cette thèse indiquent que les archées méthanogènes et les bactéries méthanotrophes peuvent développer des stratégies pour survivre et rester actives au-delà des limites de leurs conditions d’oxygène habituelles.
Resumo:
L’élucidation de la position qu’occupent les projections sérotoninergique (5-HT), cholinergique (ACh) et dopaminergique (DA) du tronc cérébral dans l’organisation anatomofonctionelle du globus pallidus externe (GPe) et interne (GPi) au sein des ganglions de la base chez le primate est primordiale à la compréhension de ce système neuronal hautement complexe impliqué dans le contrôle du comportement moteur. Les travaux de recherche consolidés dans la présente thèse rapportent les résultats principalement obtenus chez le singe écureuil (Saimiri sciureus) à l’aide de marquages immunohistochimiques et de quantifications stéréologiques servant à évaluer la distribution régionale et les caractéristiques ultrastructurales des varicosités axonales 5-HT, ACh et DA observées dans le pallidum. Nos données ont permis l’éloboration d’un nouveau modèle du neurone pallidal en tenant compte de la hiérarchie et des caractéristiques neurochimiques de ses entrées synaptiques. Ainsi, l’analyse quantitative en microscopie optique révèle que le GPe et le GPi reçoivent des innervations 5-HT, ACh et DA de densités variables et distribuées de façon hétérogène. Plus particulièrement, le GPe est innervé par 600 000 varicosités 5-HT/mm3 de tissu, 500 000 varicosités ACh/mm3 et 170 000 varicosités DA/mm3. En revanche, le GPi reçoit 600 000 varicosités 5-HT/mm3, 250 000 varicosités ACh/mm3 et 190 000 varicosités DA/mm3. De plus, la 5-HT, l’ACh et la DA ciblent préférentiellement les secteurs correspondant aux territoires fonctionnels associatifs et limbiques du pallidum, suggérant un rôle de ces projections dans la planification du comportement moteur ainsi que dans la régulation de l’attention et de l’humeur. Nos analyses en microscopie électronique révèlent que très peu de ces varicosités axonales établissent un contact synaptique, puisque plus de 70% des varicosités 5-HT, ACh et DA sont complètement dépouvues de jonction synaptique. Ainsi, bien que la 5-HT, l’ACh et la DA seraient en mesure de moduler directement les neurones pallidaux grâce à la transmission synaptique, leur plus grande influence s’opérerait par la transmission volumique, permettant d’influencer à la fois les neurones pallidaux et leurs afférences, principalement du striatum et noyau subthalamique. L’ensemble de ces résultats indique que les projections 5-HT, ACh et DA du tronc cérébral agissent de concert avec les afférences plus robustes en provenance du striatum et du noyau subthalamique. Ces nouvelles données neuroanatomiques positionnent le tronc cérébral en tant qu’acteur important dans l’organisation anatomique et fonctionnelle du pallidum chez le primate et doivent être prises en considération dans l’élaboration de nouvelles approches thérapeutiques visant à contrer les processus neurodégénératifs qui affectent les ganglions de la base, tel que la maladie de Parkinson.
Resumo:
Chez l’humain, les lymphocytes B mémoires IgG+ et IgA+ sont des cellules clés de l’immunité humorale. Ces cellules mémoires sont maintenues à long-terme dans notre organisme. Elles représentent une défense rapide et efficace contre toutes les infections que nous avons déjà vaincues pendant notre vie. Ces cellules mémoires qui rencontrent à nouveau leur antigène se différencient rapidement en plasmocytes à courte vie, et permettent la sécrétion massive d’immunoglobuline (Ig). La contrepartie mémoire de ces cellules sont les plasmocytes à longue vie qui sont présents dans les niches de la moelle osseuse et y sécrètent en permanence des anticorps protecteurs qui circulent dans le sang. Ces cellules sécrétrices peuvent avoir une durée de vie allant de dizaines d’années à la vie entière de l’individu. Les patients qui reçoivent des traitements de chimiothérapie ou de radiothérapie sont privés de ces cellules mémoires détruites par ces traitements au même titre que les cellules cancéreuses. Ces patients deviennent vulnérables aux infections et leur survie dépend de la régénération rapide de leur système hématopoïétique. Notre équipe a déjà mis au point une méthode pour préparer de grandes quantités des cellules mémoires capables de sécréter des IgG et des IgA. Les présents travaux visent à générer des plasmocytes fonctionnels et capables de survivre à long terme in vitro. La stratégie expérimentale visait à établir des conditions permettant de se rapprocher de l’environnement de la moelle osseuse. Dans un premier temps, nous avons étudié les paramètres permettant la différenciation des lymphocytes B mémoires en plasmocytes. Étant donné l’importance du potentiel redox dans l’environnement de la moelle osseuse, nous avons d’abord tenté d’en contrôler l’impact avec un antioxydant, le N-acétyle cystéine (NAC). Nos résultats ont démontré que le NAC avait un effet significatif et diminuait la phosphorylation de la protéine STAT3 en raison d’une inhibition des kinases JAK2 et JAK3. Étonnamment, cet antioxydant retardait la différenciation de nos lymphocytes B qui étaient stimulés avec une forte interaction CD40-CD154. Par la suite, la comparaison des interactions CD40-CD154 et CD27-CD70 a permis de conclure qu’il était essentiel de réduire à son minimum l’interaction CD40-CD154 et qu’il fallait ajouter les cytokines IL-6 et IL-10. Les cellules CD31+CD38+CD138+ générées présentaient un phénotype similaire à celui des plasmocytes de la moelle osseuse. Malheureusement la fréquence de ces cellules était faible et leur viabilité insuffisante. Afin d’augmenter la survie de ces cellules le dernier volet de nos travaux visait à se rapprocher des niches de la moelle osseuse. Notre but a été atteint en ajoutant des cellules mésenchymateuses issues de la moelle osseuse en présence de 8% de dioxygène (O2). Les cellules CD31+CD38+CD138+ générées ont une excellente viabilité et représentent plus de 50% des cellules totales en culture. De plus, le modèle de culture est maintenant établi dans un milieu exempt de sérum et de protéines animales. Dans l’ensemble, nos résultats permettent de proposer la production ex vivo de plasmocytes autologues avec une perspective thérapeutique pour réduire les risques d’infections des patients devenues immunodéficients, suite à un traitement de radiothérapie ou de chimiothérapie.
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.
Resumo:
Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique
Resumo:
S’appuyant sur l’histoire du genre et du sport, ce mémoire se penche sur l’un des idéaux masculins québécois de la deuxième moitié du XXe siècle : les « hommes forts ». Ainsi, nous tentons ici de mieux comprendre l’association pour cette période entre la force physique et la masculinité. Pour ce faire, la démonstration examine les compétitions de force inscrites à la programmation de cinq festivals populaires se déroulant entre 1967 et 1990 dans différentes régions forestières du Québec : le Festival des Raftsmen de Hull (1967-1973), le Festival des Sucres de Saint-Jean-de-Matha (1974-1984), le Festival du Bûcheron de Normétal (1975-1987), le Festival de la Grosse Bûche de Saint-Raymond (1976-1990) ainsi que le Festival du Bûcheron de Sainte-Aurélie (1979-1986). La consultation de journaux régionaux a permis de mettre en évidence la persistance du modèle du bûcheron traditionnel québécois malgré une tension présente avec le modèle du bûcheron moderne. Le corpus a également souligné les différentes visions accolées aux concurrents des épreuves par les acteurs présents dans les évènements, fait ressortir la mise en scène d’activités à la fois ludiques et professionnelles, exposé des liens décisifs avec l’histoire régionale, mais particulièrement présenté « l’homme fort » comme modèle masculin, sauf exception.
Resumo:
Méthodologie: Équation de Bellman (Programmation dynamique) ; Méthode de la valeur optionnelle
Resumo:
Les techniques des directions d’arrivée (DOA) sont une voie prometteuse pour accroitre la capacité des systèmes et les services de télécommunications en permettant de mieux estimer le canal radio-mobile. Elles permettent aussi de suivre précisément des usagers cellulaires pour orienter les faisceaux d’antennes dans leur direction. S’inscrivant dans ce contexte, ce présent mémoire décrit étape par étape l’implémentation de l’algorithme de haut niveau MUSIC (MUltiple SIgnal Classification) sur une plateforme FPGA afin de déterminer en temps réel l’angle d’arrivée d’une ou des sources incidentes à un réseau d’antennes. Le concept du prototypage rapide des lois de commande (RCP) avec les outils de XilinxTM System generator (XSG) et du MBDK (Model Based Design Kit) de NutaqTM est le concept de développement utilisé. Ce concept se base sur une programmation de code haut niveau à travers des modèles, pour générer automatiquement un code de bas niveau. Une attention particulière est portée sur la méthode choisie pour résoudre le problème de la décomposition en valeurs et vecteurs propres de la matrice complexe de covariance par l’algorithme de Jacobi. L’architecture mise en place implémentant cette dernière dans le FPGA (Field Programmable Gate Array) est détaillée. Par ailleurs, il est prouvé que MUSIC ne peut effectuer une estimation intéressante de la position des sources sans une calibration préalable du réseau d’antennes. Ainsi, la technique de calibration par matrice G utilisée dans ce projet est présentée, en plus de son modèle d’implémentation. Enfin, les résultats expérimentaux du système mis à l’épreuve dans un environnement réel en présence d’une source puis de deux sources fortement corrélées sont illustrés et analysés.