416 resultados para Commande optimale
Resumo:
Le virus du papillome humain (VPH) est l’agent étiologique du cancer du col utérin, ainsi que d’autre néoplasies anogénitales et des voies aérodigestives supérieures. La réplication de son génome d’ADN double brin est assurée par les protéines virales E1 et E2, de concert avec la machinerie cellulaire de réplication. E1 assure le déroulement de l’ADN en aval de la fourche de réplication, grâce à son activité hélicase, et orchestre la duplication du génome viral. Nos travaux antérieurs ont démontré que le domaine N-terminal de E1 contient un motif de liaison à la protéine cellulaire p80/UAF1 qui est hautement conservé chez tous les VPH anogénitaux. L’intégrité de ce motif est essentielle au maintien de l’épisome viral. Les travaux présentés dans cette thèse ont d’abord déterminé que le motif de liaison à UAF1 n’est pas requis pour l’assemblage du pré-réplisome viral, mais important pour la réplication subséquente de l’ADN du VPH. Nous avons constaté qu’en présence de E1 et E2, UAF1 est relocalisé dans des foyers nucléaires typiques de sites de réplication du virus et qu’en outre, UAF1 s’associe physiquement à l’origine de réplication du VPH. Nous avons aussi déterminé que l’inhibition du recrutement de UAF1 par la surexpression d’un peptide dérivé de E1 (N40) contenant le motif de liaison à UAF1 réduit la réplication de l’ADN viral. Cette observation soutient le modèle selon lequel UAF1 est relocalisé par E1 au réplisome pour promouvoir la réplication de l’ADN viral. UAF1 est une protéine à domaine WD40 n’encodant aucune activité enzymatique et présumée exploiter des interactions protéine-protéine pour accomplir sa fonction. Nous avons donc investigué les protéines associées à UAF1 dans des cellules du col utérin et avons détecté des interactions avec les enzymes de déubiquitination USP1, USP12 et USP46, ainsi qu’avec la phosphatase PHLPP1. Nous avons établi que E1 forme un complexe ternaire avec UAF1 et n’importe laquelle des USP associés : USP1, USP12 ou USP46. Ces USP sont relocalisés au noyau par E1 et s’associent à l’ADN viral. De plus, l’activité enzymatique des USP est essentielle à la réplication optimale du génome viral. Au contraire, PHLPP1 ne forme pas de complexe avec E1, puisque leurs interactions respectives avec UAF1 sont mutuellement exclusives. PHLPP1 contient un peptide de liaison à UAF1 homologue à celui de E1. Ce peptide dérivé de PHLPP1 (P1) interagit avec le complexe UAF1-USP et, similairement au peptide N40, antagonise l’interaction E1-UAF1. Incidemment, la surexpression du peptide P1 inhibe la réplication de l’ADN viral. La génération de protéines chimériques entre P1 et des variants de E1 (E1Δ) défectifs pour l’interaction avec UAF1 restaure la capacité de E1Δ à interagir avec UAF1 et USP46, ainsi qu’à relocaliser UAF1 dans les foyers nucléaires contenant E1 et E2. Ce recrutement artificiel de UAF1 et des USP promeut la réplication de l’ADN viral, un phénotype dépendant de l’activité déubiquitinase du complexe. Globalement, nos travaux suggèrent que la protéine E1 du VPH interagit avec UAF1 afin de recruter au réplisome un complexe de déubiquitination dont l’activité est importante pour la réplication de l’ADN viral.
Resumo:
Depuis le début des années 80, les systèmes d’éducation à travers le monde recommandent l’intégration des élèves malentendants en classe ordinaire. Malgré l’utilisation d’aides auditives et de système MF, les élèves vivent des périodes où l’amplification reçue est insuffisante ou non optimale. Ces périodes sont causées par des facteurs influençant leurs conditions de communication et cela peut nuire à leurs apprentissages. Pourtant, les études sur ces situations vécues par les élèves ont très peu considéré leur point de vue. L’étude présentée vise à 1) de documenter les perceptions des situations de communication en classe mentionnées par des élèves malentendants intégrés, appareillés et ayant un système MF décerné ou rapportées à des professionnels; 2) de comprendre le contexte dans lequel des conditions non optimales de communication surviennent; 3) d’identifier les stratégies compensatoires rapportées par l’élève ou son locuteur ou déployées lors de leur participation aux activités de classe. Cette étude de cas multiples combine des données qualitatives et quantitatives recueillies à partir d’entrevues en profondeur auprès de huit élèves malentendants, de courtes entrevues avec leur enseignant et leur intervenant principal et une session d’observation en classe au cours de laquelle le niveau de bruit a été mesuré et les positions de l’enseignant ont été notées. Les données ont été analysées de manière longitudinale afin de décrire les participants et transversale afin de les comparer. Les résultats montrent que les élèves malentendants parlent de leurs situations de communication en classe, surtout les plus difficiles en associant toutes leurs difficultés au locuteur ou au milieu et non à eux-mêmes. Pour ce qui est du contexte, des niveaux élevés de bruit ont été mesurés et les positions des enseignants montrent qu’ils sont généralement loin de l’enfant malentendant ou qu’ils ne lui font pas face. Par ailleurs, les enseignants mentionnent ne pas avoir assez d’informations pour bien venir en aide à ces élèves. Enfin, les élèves et leurs enseignants utilisent différentes stratégies de communication, mais celles-ci ne sont pas toujours efficaces pour faciliter la communication. Toutes ces constatations mènent à des pistes de solutions visant à améliorer les situations de communication en classe et le contexte dans lequel les élèves apprennent, notamment l’accroissement des connaissances des divers acteurs et de leur collaboration entre eux.
Resumo:
La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.
Resumo:
Le fer est un oligo-élément nécessaire pour le fonctionnement normal de toutes les cellules de l'organisme et joue un rôle essentiel dans de nombreuses fonctions biologiques. Cependant, le niveau de fer dans le corps doit être bien réglé, sinon la carence en fer entraine des divers états pathologiques tels que l'anémie et la diminution de l’immunité. D'autre part, une surcharge en fer potentialise la multiplication des germes, aggrave l’infection et la formation de radicaux libres ayant des effets toxiques sur les cellules et leurs composants, ce qui favorise les maladies cardio-vasculaires, l'inflammation et le cancer. L'hepcidine (HAMP), un régulateur négatif de l'absorption du fer, induit la dégradation de la ferroportine (FPN), le seul exportateur connu de fer ce qui réduit sa libération par les macrophages et inhibe son absorption gastro-intestinale. HAMP est synthétisé principalement par les hépatocytes, mais aussi par les macrophages. Cependant, il y a très peu de données sur la façon dont HAMP est régulé au niveau des macrophages. Plus récemment, nous avons constaté que l’induction de l’hepcidin dans le foie par le polysaccharide (LPS) est dépendante de la voie de signalisation médiée par « Toll-like receptor 4 » (TLR4). Grâce au TLR4, le LPS induit l'activation des macrophages qui sécrètent de nombreuses différentes cytokines inflammatoires, y compris Interleukine 6 (IL-6), responsable de l'expression de HAMP hépatique. Dans le premier chapitre de la présente étude, nous avons étudié la régulation de HAMP dans la lignée cellulaire macrophagique RAW264.7 et dans les macrophages péritonéaux murins stimulés par différents ligands des TLRs. Nous avons constaté que TLR2 et TLR4 par l'intermédiaire de la protéine adaptatrice « myeloid differentiation primary response gene 88 » (MyD88) activent l'expression de HAMP dans les cellules RAW264.7 et les macrophages péritonéaux sauvages murins, tandis que cette expression a été supprimée dans les macrophages isolés des souris TLR2-/-, TLR4-déficiente ou MyD88-/-. En outre, nous avons constaté que la production d'IL-6 par les cellules RAW264.7 stimulées avec du LPS a été renforcée par l’ajout des quantités élevées de fer dans le milieu de culture. Au cours de l’inflammation, le niveau de HAMP est fortement augmenté. Ainsi, lorsque l'inflammation persiste, l’expression de HAMP continue à être activée par des cytokines pro-inflammatoires conduisant à une hyposidérémie. Malgré que cette dernière soit considérée comme une défense de l'hôte pour priver les micro-organismes de fer, celle ci cause un développement d'anémies nommées anémies des maladies chroniques. Ainsi, dans le deuxième chapitre de la présente étude, nous avons étudié l'implication des TLRs et leurs protéines adaptatrices MyD88 et TIR-domain-containing adapter-inducing interferon-β (TRIF) dans le développement des hyposidérémies. En utilisant des souris déficientes en MyD88 et TRIF, nous avons montré que les voies de signalisations MyD88 et TRIF sont essentielles pour l’induction de HAMP par le LPS. Malgré l'absence de HAMP, les souris déficientes ont été capables de développer une hyposidérémie, mais la réponse des souris déficientes en MyD88 a été très légère, ce qui indique l'exigence de cette protéine pour assurer une réponse maximale au LPS. En outre, nous avons constaté que la signalisation MyD88 est nécessaire pour le stockage du fer au niveau de la rate, ainsi que l'induction de lipocaline 2 (LCN2), qui est une protéine impliquée dans la fixation du fer pour limiter la croissance bactérienne. Indépendamment de MyD88 ou TRIF, l'activation de TLR4 et TLR3 a conduit, au niveau de la rate, à une diminution rapide de l’expression de FPN et du « Human hemochromatosis protein » (HFE) qui est une protéine qui limite la séquestration du fer cellulaire à partir de la circulation. Cependant, malgré cette baisse d’expression, le manque de la signalisation MyD88 a altéré de manière significative la réponse hyposidérémique. En établissant le rôle des TLRs et de la protéine adaptatrice MyD88 dans la diminution du taux du fer sérique au cours de la réponse inflammatoire, nous avons remarqué qu’en réponse au surcharge en fer les souris déficientes en MyD88 accumulent de manière significative plus de fer hépatique par rapport aux souris sauvages, et cela indépendamment des TLRs. Ainsi, dans le troisième chapitre de la présente étude, nous avons étudié le phénotype observé chez les souris déficientes en MyD88. Nous avons trouvé que l'expression de HAMP chez ces souris a été plus faible que celle des souris de type sauvage. Pour cela, nous avons exploré la signalisation à travers la voie du « Bone Morphogenetic Proteins 6 » (BMP6) qui est considérée comme étant la voie fondamentale de la régulation de HAMP en réponse aux concentrations du fer intracellulaires et extracellulaires et nous avons trouvé que l'expression protéique de Smad4, un régulateur positif de l'expression de HAMP, est significativement plus faible chez les souris MyD88-/- par rapport aux souris sauvages. En outre, on a montré que MyD88 interagit avec « mothers against decapentaplegic, Drosophila, homolog 4 » (Smad4) et que cette interaction est essentielle pour l’induction de HAMP à travers la voie BMP6. En conclusion, notre étude montre que l'expression de HAMP dans les macrophages est régulée principalement par TLR2 et TLR4 à travers la voie MyD88 et que l'accumulation du fer dans les macrophages peut affecter les niveaux des cytokines pro-inflammatoires. En outre, nos analyses démontrent que le développement d’hyposidérémie en réponse au LPS se produit par l'intermédiaire d’un mécanisme dépendant de MyD88 qui est dissociée de la production de cytokines et de HAMP. En plus, nos recherches montrent que MyD88 est nécessaire pour l'expression de Smad4 et cela pour garantir une réponse optimale à travers la signalisation BMP6, conduisant ainsi à une expression adéquate de HAMP. Enfin, la protéine MyD88 joue un rôle crucial dans, la régulation de HAMP au niveau des macrophages, la diminution du taux du fer sérique en réponse au LPS et le maintien de l'homéostasie du fer.
Resumo:
L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.
Resumo:
Les animaux font face à des changements environnementaux brutaux dus aux modifications de milieux liés à l'activité humaine et aux changements climatiques, et doivent s'ajuster rapidement à leur nouvel environnement. Certains processus cognitifs comme l'innovation et l'apprentissage permettent aux animaux d'intégrer de nouveaux comportements à leur répertoire comportemental (flexibilité comportementale), leur donnant l'opportunité d'intégrer un comportement plus optimal pour s'ajuster. Les performances cognitives varient entre espèces et les individus d'une même population et bien que des études récentes se soient intéressées aux causes des variations interindividuelles des performances cognitives, les conséquences restent peu explorées. Dans cette thèse, les questions des pressions de sélection s'exerçant sur les capacités cognitives sont abordées afin de mieux comprendre l'évolution de ces traits au sein d'une population naturelle de mésange charbonnière Parus major. Un nouveau test de résolution de problème a tout d'abord été présenté à des couples reproducteurs directement en milieu naturel. Les résultats ont montré que les couples les plus performants à résoudre la tâche surpassaient les couples les moins performants sur plusieurs mesures de succès reproducteur. Afin de vérifier que la motivation à nourrir les poussins ne biaisait pas cette relation, la taille de nichée a ensuite été manipulée, ce qui n'a pas affecté la performance subséquente des parents. Les couples innovateurs démontraient un meilleur succès reproducteur quel que soit le changement de la taille de nichée subit, ce qui suggère que cette performance influence bien le succès de reproduction, et non l'inverse. De plus, les couples innovateurs approvisionnaient leurs poussins plus souvent que les couples non innovateurs, suggérant que les innovateurs pourraient exploiter leur habitat de façon plus optimale. Dans un troisième temps, plusieurs caractéristiques morphologiques, dont la coloration des plumes, ont été reliées aux performances de résolution de problème et d'apprentissage. Ces liens, bien que complexes et condition-dépendants, pourraient indiquer un rôle de ces performances lors de la sélection sexuelle. Enfin, afin de tester l'effet du parasite sanguin du paludisme sur les traits comportementaux, un médicament contre le paludisme a été injecté à des femelles reproductrices. Cette injection n'a pas modifié leurs performances cognitives mais a augmenté leur niveau d'activité et d'exploration du nichoir en réponse à la tâche de résolution de problème. Ce parasite sanguin, très présent chez les populations depassereaux, pourrait donc expliquer les variations interindividuelles et interpopulationnelles de certains traits comportementaux en milieu naturel, au même titre que dans nombreux autres systèmes hôte-parasites étudiés. Les travaux présentés dans cette thèse ont permis de détailler pour la première fois la relation entre une performance cognitive et le succès reproducteur chez une population aviaire naturelle, une relation robuste et non influencée par la motivation à nourrir la couvée. Cette performance cognitive est reliée à plusieurs traits morphologiques, mais non à la charge parasitaire. Une meilleure exploitation de l'habitat et habileté à s'occuper des poussins pourrait expliquer cette relation.
Resumo:
Les façons d'aborder l'étude du spectre du laplacien sont multiples. Ce mémoire se concentre sur les partitions spectrales optimales de domaines planaires. Plus précisément, lorsque nous imposons des conditions aux limites de Dirichlet, nous cherchons à trouver la ou les partitions qui réalisent l'infimum (sur l'ensemble des partitions à un certain nombre de composantes) du maximum de la première valeur propre du laplacien sur tous ses sous-domaines. Dans les dernières années, cette question a été activement étudiée par B. Helffer, T. Hoffmann-Ostenhof, S. Terracini et leurs collaborateurs, qui ont obtenu plusieurs résultats analytiques et numériques importants. Dans ce mémoire, nous proposons un problème analogue, mais pour des conditions aux limites de Neumann cette fois. Dans ce contexte, nous nous intéressons aux partitions spectrales maximales plutôt que minimales. Nous cherchons alors à vérifier le maximum sur toutes les $k$-partitions possibles du minimum de la première valeur propre non nulle de chacune des composantes. Cette question s'avère plus difficile que sa semblable dans la mesure où plusieurs propriétés des valeurs propres de Dirichlet, telles que la monotonicité par rapport au domaine, ne tiennent plus. Néanmoins, quelques résultats sont obtenus pour des 2-partitions de domaines symétriques et des partitions spécifiques sont trouvées analytiquement pour des domaines rectangulaires. En outre, des propriétés générales des partitions spectrales optimales et des problèmes ouverts sont abordés.
Resumo:
L’augmentation du β-hydroxybutyrate (BHB) est un changement biochimique que l’on retrouve lors de toxémie de gestation, une maladie d’importance chez la chèvre laitière. L’hypercétonémie n’ayant pas été définie chez la chèvre laitière, les objectifs de cette étude étaient de définir l’hypercétonémie pré-partum en utilisant les valeurs de BHB sanguin obtenues à la ferme à l’aide d’un appareil portatif (Precision Xtra®) permettant de prédire de façon optimale le risque de développer la maladie ou le risque de mortalité lors du dernier mois de gestation. L’appareil a préalablement été validé pour son utilisation chez la chèvre (n = 114) à la ferme (n = 3) et a démontré une excellente corrélation (r² = 0,95) avec l’analyse standard en laboratoire. Un total de 1081 chèvres gestantes provenant de 10 élevages commerciaux du Québec (Canada) ont été prélevées hebdomadairement durant les 5 dernières semaines de gestation. Nos résultats ont montré qu’il est possible de définir l’hypercétonémie pré-partum en mesurant le risque de développer la toxémie de gestation et le risque de mortalité lors du dernier mois de gestation en utilisant les valeurs de cétonémie à la ferme. Les seuils établis varient entre 0,4 et 0,9 mmol/L lors des 5 dernières semaines de gestation pour la toxémie de gestation et entre 0,6 et 1,4 mmol/L pour le risque de mortalité. La 4e semaine pré-partum est la semaine permettant le mieux d’évaluer le risque de toxémie de gestation et de mortalité associé à l’hypercétonémie. Ces valeurs permettront un diagnostic précoce de la maladie.
Resumo:
Ce mémoire s’intéresse à la formation des partis politiques et l’origine de la loyauté partisane à la Chambre d’assemblée du Bas-Canada entre 1791 et 1840. Pour ce faire, le présent mémoire fait une analyse systématique de tous les votes tenus en Chambre grâce à l’indice de loyauté et à la méthode de la Classification optimale (Optimal Classification) développée par Poole (2005). Il soutient la thèse selon laquelle l’ethnicité est la principale source de division entre les députés lors des votes tenus à la Chambre d’assemblée du Bas-Canada lors des premières législatures et que c’est plutôt l’opposition entre les réformistes constitutionnels et les conservateurs favorables à l’ancien régime qui explique les divisions entre les députés lors des deux dernières législatures. Il soutient également que le statut social des députés, le type de comté dans lequel ils sont élus, l’occupation civile des députés ou leur expérience parlementaire n’expliquent pas l’opposition entre les députés lors des votes au Parlement. Ce mémoire émet également l’hypothèse selon laquelle les partis politiques ont peu d’impact sur le comportement législatif de leurs membres : les députés sont libres de voter selon leurs préférences individuelles sans véritable discipline partisane.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
Dans les services de première ligne, la majorité des personnes atteintes de dépression souffrent également d’autres maladies chroniques comorbides. Offrir des soins de haute qualité à ces patients représente un défi important pour les intervenants en première ligne ainsi que pour le système de santé. Il y a des raisons de croire que les contextes organisationnels dans lesquels les intervenants pratiquent ont une influence importante sur les soins. Cependant, peu d’études ont examiné directement la façon dont les caractéristiques des cliniques facilitent ou entravent les soins offerts aux patients atteints de dépression et de différents types de maladies chroniques comorbides. L’objectif général de ce projet de recherche était donc de mieux comprendre comment différentes caractéristiques des cliniques de première ligne influencent la qualité des soins pour la dépression chez des patients ayant différents profils de comorbidité. La thèse comporte deux études. Tout d'abord, nous avons effectué une revue systématique examinant les relations entre la comorbidité physique chronique et la qualité des soins pour la dépression dans les services de première ligne afin de clarifier la nature de ces relations et d’identifier les facteurs qui pourraient influer sur ces relations. Ensuite, nous avons effectué une étude aux méthodes mixtes ayant deux volets : (a) un volet quantitatif examinant les relations entre la qualité des soins pour la dépression, les profils de comorbidité des patients, et les caractéristiques des cliniques de première ligne par le biais d’analyses de régression multiniveaux de données issues de deux enquêtes, et (b) un volet qualitatif basé sur une étude de cas explorant les perceptions des professionnels des services de première ligne sur les facteurs organisationnels pouvant influencer la qualité des soins offerts aux patients souffrant de dépression et d’autres maladies chroniques comorbides. Les résultats de ces études ont montré que, bien que la qualité des soins de la dépression en soins primaires soit sous-optimale, certains sous-groupes de patients dépressifs sont plus à risque que d’autres de recevoir des soins pour la dépression inadéquats, notamment des patients ayant uniquement des comorbidités chroniques physiques. Cependant, plusieurs caractéristiques des cliniques de première ligne semblent faciliter l’offre de soins de qualité aux patients atteints de dépression et de maladies chroniques comorbides : les normes et les valeurs liées au travail d'équipe et le soutien mutuel, l'accès au soutien des professionnels ayant une expertise en santé mentale, l’utilisation des algorithmes de traitement et d’autres outils d’aide à la décision pour la dépression, et l’absence d’obstacles liés aux modèles de rémunération inadéquats. Une des façons dont ces caractéristiques favorisent la qualité est en facilitant la circulation des connaissances dans les cliniques de première ligne. Nos résultats suggèrent que des interventions organisationnelles ciblées sont nécessaires pour améliorer la qualité des soins pour la dépression que reçoivent les patients ayant des maladies chroniques comorbides. Ces interventions peuvent viser différents domaines organisationnels (ex : caractéristiques structurelles/stratégiques, sociales, technologies et épistémiques) mais doivent aussi prendre en compte comment les éléments de chaque domaine interagissent et comment ils pourraient influencer les soins pour des patients ayant des profils de comorbidité différents.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières option formation en sciences infirmières