958 resultados para Prédiction de la fonction protéique


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les Erythropoietin-producing hepatocyte (EPH) sont la plus grande famille de récepteurs tyrosine kinase. Leurs ligands, les éphrines (EFNs), sont aussi des molécules exprimées à la surface cellulaire. Les EPH/EFNs sont impliqués dans de nombreux processus biologiques. L'hypertension artérielle (PA) est une maladie chronique qui, aujourd'hui, est devenue un problème médical critique dans le monde entier et un enjeu de santé publique. La découverte de nouvelles thérapeutiques de l'hypertension sont d'une grande importance pour la santé publique. Jusqu’à tout récemment, il existe seulement quelques études concernant le rôle de l’axe EPH/EFNs sur la fonction des cellules musculaires lisses vasculaires (CMLV). Dans nos études précédentes, nous avons montré qu'EPHB6 et EFNB1, de concert avec les hormones sexuelles, régulent la PA. Dans la présente étude, nous avons constaté que les différents membres de la famille EPH/EFN peuvent réguler soit positivement, soit négativement, la contractilité des CMLV et la PA: tandis que EPHB4 et EFNB2 appartiennent à la première catégorie, EFNB1, EFNB3 et EPHB6 appartiennent à la deuxième. In vivo, des souris males, mais non pas des femelles, porteuses d’une mutation EPHB4 (KO) spécifique du muscle lisse présentent une PA diminuée, comparée aux souris témoins (WT). Les CMLV de souris EPHB4 KO, en présence de testostérone, ont montré une contractilité réduite lors de la stimulation par la phényléphrine (PE). Au niveau moléculaire, la phosphorylation de la protéine kinase II dépendante de Ca2+/calmoduline et de la kinase de la chaine légère de la myosine (CLM) est augmentée, tandis que la phosphorylation de la kinase de la CLM est réduite dans les CMLV KO lors de la stimulation par PE, par rapport au WT CMLV. Cela fournit une base moléculaire à la réduction de la PA et de la contractilité des CMLV chez les souris EPHB4 KO. EFNB2 est le ligand majeur de l’EPHB4. Comme attendu, les souris EFNB2 KO spécifique du muscle lisse avaient un phénotype de PA semblable, quoique non identique, aux souris EPHB4 KO. Les souris mâles EFNB2 KO, mais pas femelles, sous régime régulier ou riche en sel, présentent une PA réduite, par rapport à leurs homologues WT. Au niveau cellulaire, les CMLV des souris KO ont montré une contractilité réduite lors de la stimulation par PE par rapport aux témoins WT. Une région de l’acide aminé (aa) 313 à l’aa 331 dans la partie intracellulaire d’EFNB2 est essentielle pour la signalisation inverse qui régule la contractilité des CMLV, selon des études de mutation-délétion. Dans une étude de génétique humaine, nous avons identifié, dans le gène EFNB2, six SNP qui étaient associées significativement au risque d'hypertension artérielle, de façon dépendante du sexe, ce qui corrobore nos résultats chez les souris. En revanche, la délétion du gène EFNB3 (KO) chez les souris femelles aboutit à une PA élevée et à une augmentation des résistances des petites artères in vivo, améliore la contractilité des petites artères ex-vivo et augmente la contractilité des CMLV in vitro. Les souris mâles KO ont une PA normale, mais la castration conduit à une augmentation significative de la PA dans les souris KO, mais pas dans les souris WT. Les CMLV des souris KO femelles ont montré une phosphorylation accrue de la CLM et une phosphorylation réduite de la kinase de la CLM, ce qui fournit à nouveau une base moléculaire aux phénotypes de PA et de contractilité des CMLV observés. Ce changement de signalisation est attribuable à une protéine adaptatrice Grip1. En effet, dans une étude d'association pan génomique par le Consortium International pour la Pression Sanguine, un SNP dans le gène GRIP1 a approché le seuil de significativité de la valeur p pour son association avec la pression diastolique. Nos recherches, pour la première fois, ont révélé que EPH/EFNs sont de nouveaux composants dans le système de régulation de la PA. Les membres de la famille EPH/EFN peuvent agir comme des forces Yin et Yang pour régler finement le tonus des vaisseaux pour assurer l'homéostasie de la PA et de sa régulation. Ces effets de EPH/EFNs dépendent du sexe et des niveaux d’hormones sexuelles. À partir de ces nouvelles connaissances, nous pourrions développer une nouvelle thérapie personnalisée pour l’hypertension artérielle, utilisant des antagonistes d'hormones sexuelles ou des thérapies de remplacement d'hormones sexuelles, selon les niveaux d'hormones sexuelles des patients et les mutations dans les gènes de l'EPH/EFN.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-dede 9.5%, qui est aussi très volatile, au-dede 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cellules endothéliales forment une couche semi-perméable entre le sang et les organes. La prolifération, la migration et la polarisation des cellules endothéliales sont essentielles à la formation de nouveaux vaisseaux à partir de vaisseaux préexistants, soit l’angiogenèse. Le facteur de croissance de l’endothélium vasculaire (VEGF) peut activer la synthase endothéliale du monoxyde d’azote (eNOS) et induire la production de monoxyde d’azote (NO) nécessaire pour la régulation de la perméabilité vasculaire et l’angiogenèse. β- caténine est une composante essentielle du complexe des jonctions d’ancrage ainsi qu’un régulateur majeur de la voie de signalisation de Wnt/β-caténine dans laquelle elle se joint au facteur de transcription TCF/LEF et module l’expression de nombreux gènes, dont certains sont impliqués dans l’angiogenèse. La S-nitrosylation (SNO) est un mécanisme de régulation posttraductionnel des protéines par l’ajout d’un groupement nitroso au niveau de résidus cystéines. Le NO produit par eNOS peut induire la S-nitrosylation de la β−caténine au niveau des jonctions intercellulaires et moduler la perméabilité de l’endothélium. Il a d’ailleurs été montré que le NO peut contrôler l’expression génique par la transcription. Le but de cette thèse est d’établir le rôle du NO au sein de la transcription des cellules endothéliales, spécifiquement au niveau de l’activité de β-caténine. Le premier objectif était de déterminer si la SNO de la β-caténine affecte son activité transcriptionnelle. Nous avons montré que le NO inhibe l’activité transcriptionnelle de β- caténine ainsi que la prolifération des cellules endothéliales induites par l’activation de la voie Wnt/β-caténine. Il est intéressant de constater que le VEGF, qui induit la production de NO via eNOS, réprime l’expression de AXIN2 qui est un gène cible de Wnt s’exprimant suite à la i i stimulation par Wnt3a et ce, dépendamment de eNOS. Nous avons identifié que la cystéine 466 de la β-caténine est un résidu essentiel à la modulation répressive de son activité transcriptionnelle par le NO. Lorsqu’il est nitrosylé, ce résidu est responsable de la perturbation du complexe de transcription formé de β-caténine et TCF-4 ce qui inhibe la prolifération des cellules endothéliales induite par la stimulation par Wnt3a. Puisque le NO affecte la transcription, nous avons réalisé l’analyse du transcriptome afin d’obtenir une vue d’ensemble du rôle du NO dans l’activité transcriptionnelle des cellules endothéliales. L’analyse différentielle de l’expression des gènes de cellules endothéliales montre que la répression de eNOS par siRNA augmente l’expression de gènes impliqués au niveau de la polarisation tels que : PARD3A, PARD3B, PKCZ, CRB1 et TJ3. Cette analyse suggère que le NO peut réguler la polarisation des cellules et a permis d’identifier des gènes responsables de l’intégrité des cellules endothéliales et de la réponse immunitaire. De plus, l’analyse de voies de signalisation par KEGG montre que certains gènes modulés par l’ablation de eNOS sont enrichis dans de nombreuses voies de signalisation, notamment Ras et Notch qui sont importantes lors de la migration cellulaire et la différenciation des cellules de têtes et de tronc (tip/stalk). Le regroupement des gènes exprimés chez les cellules traitées au VEGF (déplétées de eNOS ou non) révèle que le NO peut affecter l’expression de gènes contribuant au processus angiogénique, dont l’attraction chimiotactique. Notre étude montre que le NO module la transcription des cellules endothéliales et régule l’expression des gènes impliqués dans l’angiogenèse et la fonction endothéliale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce projet illustre cinq études, mettant l'emphase sur le développement d'une nouvelle approche diagnostique cardiovasculaire afin d'évaluer le niveau d’oxygène contenu dans le myocarde ainsi que sa fonction microvasculaire. En combinant une séquence de résonance magnétique cardiovasculaire (RMC) pouvant détecter le niveau d’oxygène (OS), des manœuvres respiratoires ainsi que des analyses de gaz artériels peuvent être utilisés comme procédure non invasive destinée à induire une réponse vasoactive afin d’évaluer la réserve d'oxygénation, une mesure clé de la fonction vasculaire. Le nombre de tests diagnostiques cardiaques prescrits ainsi que les interventions, sont en pleine expansion. L'imagerie et tests non invasifs sont souvent effectués avant l’utilisation de procédures invasives. L'imagerie cardiaque permet d’évaluer la présence ou absence de sténoses coronaires, un important facteur économique dans notre système de soins de santé. Les techniques d'imagerie non invasives fournissent de l’information précise afin d’identifier la présence et l’emplacement du déficit de perfusion chez les patients présentant des symptômes d'ischémie myocardique. Néanmoins, plusieurs techniques actuelles requièrent la nécessité de radiation, d’agents de contraste ou traceurs, sans oublier des protocoles de stress pharmacologiques ou physiques. L’imagerie RMC peut identifier une sténose coronaire significative sans radiation. De nouvelles tendances d’utilisation de RMC visent à développer des techniques diagnostiques qui ne requièrent aucun facteur de stress pharmacologiques ou d’agents de contraste. L'objectif principal de ce projet était de développer et tester une nouvelle technique diagnostique afin d’évaluer la fonction vasculaire coronarienne en utilisant l' OS-RMC, en combinaison avec des manœuvres respiratoires comme stimulus vasoactif. Ensuite, les objectifs, secondaires étaient d’utilisés l’OS-RMC pour évaluer l'oxygénation du myocarde et la réponse coronaire en présence de gaz artériels altérés. Suite aux manœuvres respiratoires la réponse vasculaire a été validée chez un modèle animal pour ensuite être utilisé chez deux volontaires sains et finalement dans une population de patients atteints de maladies cardiovasculaires. Chez le modèle animal, les manœuvres respiratoires ont pu induire un changement significatif, mesuré intrusivement par débit sanguin coronaire. Il a été démontré qu’en présence d'une sténose coronarienne hémodynamiquement significative, l’OS-RMC pouvait détecter un déficit en oxygène du myocarde. Chez l’homme sain, l'application de cette technique en comparaison avec l'adénosine (l’agent standard) pour induire une vasodilatation coronarienne et les manœuvres respiratoires ont pu induire une réponse plus significative en oxygénation dans un myocarde sain. Finalement, nous avons utilisé les manœuvres respiratoires parmi un groupe de patients atteint de maladies coronariennes. Leurs myocardes étant altérées par une sténose coronaire, en conséquence modifiant ainsi leur réponse en oxygénation. Par la suite nous avons évalué les effets des gaz artériels sanguins sur l'oxygénation du myocarde. Ils démontrent que la réponse coronarienne est atténuée au cours de l’hyperoxie, suite à un stimuli d’apnée. Ce phénomène provoque une réduction globale du débit sanguin coronaire et un déficit d'oxygénation dans le modèle animal ayant une sténose lorsqu’un supplément en oxygène est donné. En conclusion, ce travail a permis d'améliorer notre compréhension des nouvelles techniques diagnostiques en imagerie cardiovasculaire. Par ailleurs, nous avons démontré que la combinaison de manœuvres respiratoires et l’imagerie OS-RMC peut fournir une méthode non-invasive et rentable pour évaluer la fonction vasculaire coronarienne régionale et globale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Full Text / Article complet

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’intérêt porté à l’évaluation du risque de récidive chez les délinquants ayant une déficience intellectuelle (DI) a notablement augmenté depuis les 10 dernières années. D’ailleurs, certains croient que les instruments utilisés pour mesurer le risque chez les auteurs d’infractions sexuelles neurotypiques peuvent s’appliquer aux auteurs d’infractions sexuelles ayant une DI tandis que d’autres appuient l’idée d’utiliser et de développer des mesures actuarielles propres à ces individus. Trois objectifs ont été posés pour tenter d’éclaircir ces deux visions, soit 1) Comparer les taux de récidive entre les deux groupes d’auteurs d’infractions sexuelles (ayant une DI et neurotypiques), en plus de déterminer lequel récidive plus rapidement sur une courte période de temps, 2) Analyser la validité prédictive de huit instruments actuariels (et de la PCL-R) auprès d’un échantillon d’auteurs d’infractions sexuelles ayant une DI et 3) Analyser la composition des instruments par domaines (Knight et Thornton, 2007). L’échantillon est composé de 550 auteurs d’infractions sexuelles dont 54 ont une DI. Les résultats suggèrent que les deux groupes d’auteurs d’infractions sexuelles (neurotypiques et ayant une DI) présentent des taux de récidive similaires. Un nombre restreint d’instruments semblent par contre efficaces chez les auteurs d’infractions sexuelles ayant une DI. De ce fait, le SVR-20 s’est révélé avoir une validité prédictive pour la récidive sexuelle, le RMC, le RMV et le MnSOST-R pour la récidive violente et le VRAG pour la récidive non violente. Il est toutefois justifié de se questionner sur la manière d’évaluer le risque chez cette clientèle particulière. L’analyse de la composition des instruments semble importante puisque certains domaines pourraient prédire différemment la récidive chez les auteurs d’infractions sexuelles ayant une DI. Une grande partie des facteurs pouvant être utiles dans la prédiction de la récidive ne semblent toujours pas avoir été identifiés, repoussant ainsi la création d’instruments propres aux délinquants ayant une DI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les tourbières ont contribué à refroidir le climat terrestre pendant l’Holocène en accumulant un réservoir de carbone important. Dans la forêt boréale canadienne, les sols gelés en permanence (pergélisols) sont répandus et ceux-ci sont principalement localisés dans les tourbières où ils forment des plateaux surélevés. Le dégel du pergélisol, causé entre autres par le réchauffement atmosphérique ou d’autres perturbations, provoque l’effondrement des plateaux et la saturation en eau du sol ce qui modifie entre autres le couvert végétal et le cycle du carbone. Les modélisations suggèrent que les latitudes nordiques seront les plus affectées par le réchauffement climatique alors qu’on y observe déjà un recul du couvert du pergélisol. Il est primordial de comprendre comment le dégel du pergélisol affecte la fonction de puits de carbone des tourbières puisque des rétroactions sur le climat sont possibles si une grande quantité de gaz à effet de serre est émise ou séquestrée. J’utilise une chronoséquence représentant le temps depuis le dégel d’un plateau de pergélisol des Territoires du Nord-Ouest pour comprendre les facteurs influençant l’aggradation et la dégradation du pergélisol dans les tourbières et évaluer l’effet du dégel sur l’accumulation de carbone et la préservation du carbone déjà accumulé. Les taux d’accumulation de carbone associés à la présence de pergélisol dans le passé et au présent sont lents, et la tourbe est moins décomposée dans les secteurs ayant été affectés plus longtemps par le pergélisol. En somme, le pergélisol réduit l’accumulation de carbone en surface mais permet une meilleure préservation du carbone déjà accumulé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’intérêt porté à l’évaluation du risque de récidive chez les délinquants ayant une déficience intellectuelle (DI) a notablement augmenté depuis les 10 dernières années. D’ailleurs, certains croient que les instruments utilisés pour mesurer le risque chez les auteurs d’infractions sexuelles neurotypiques peuvent s’appliquer aux auteurs d’infractions sexuelles ayant une DI tandis que d’autres appuient l’idée d’utiliser et de développer des mesures actuarielles propres à ces individus. Trois objectifs ont été posés pour tenter d’éclaircir ces deux visions, soit 1) Comparer les taux de récidive entre les deux groupes d’auteurs d’infractions sexuelles (ayant une DI et neurotypiques), en plus de déterminer lequel récidive plus rapidement sur une courte période de temps, 2) Analyser la validité prédictive de huit instruments actuariels (et de la PCL-R) auprès d’un échantillon d’auteurs d’infractions sexuelles ayant une DI et 3) Analyser la composition des instruments par domaines (Knight et Thornton, 2007). L’échantillon est composé de 550 auteurs d’infractions sexuelles dont 54 ont une DI. Les résultats suggèrent que les deux groupes d’auteurs d’infractions sexuelles (neurotypiques et ayant une DI) présentent des taux de récidive similaires. Un nombre restreint d’instruments semblent par contre efficaces chez les auteurs d’infractions sexuelles ayant une DI. De ce fait, le SVR-20 s’est révélé avoir une validité prédictive pour la récidive sexuelle, le RMC, le RMV et le MnSOST-R pour la récidive violente et le VRAG pour la récidive non violente. Il est toutefois justifié de se questionner sur la manière d’évaluer le risque chez cette clientèle particulière. L’analyse de la composition des instruments semble importante puisque certains domaines pourraient prédire différemment la récidive chez les auteurs d’infractions sexuelles ayant une DI. Une grande partie des facteurs pouvant être utiles dans la prédiction de la récidive ne semblent toujours pas avoir été identifiés, repoussant ainsi la création d’instruments propres aux délinquants ayant une DI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les tourbières ont contribué à refroidir le climat terrestre pendant l’Holocène en accumulant un réservoir de carbone important. Dans la forêt boréale canadienne, les sols gelés en permanence (pergélisols) sont répandus et ceux-ci sont principalement localisés dans les tourbières où ils forment des plateaux surélevés. Le dégel du pergélisol, causé entre autres par le réchauffement atmosphérique ou d’autres perturbations, provoque l’effondrement des plateaux et la saturation en eau du sol ce qui modifie entre autres le couvert végétal et le cycle du carbone. Les modélisations suggèrent que les latitudes nordiques seront les plus affectées par le réchauffement climatique alors qu’on y observe déjà un recul du couvert du pergélisol. Il est primordial de comprendre comment le dégel du pergélisol affecte la fonction de puits de carbone des tourbières puisque des rétroactions sur le climat sont possibles si une grande quantité de gaz à effet de serre est émise ou séquestrée. J’utilise une chronoséquence représentant le temps depuis le dégel d’un plateau de pergélisol des Territoires du Nord-Ouest pour comprendre les facteurs influençant l’aggradation et la dégradation du pergélisol dans les tourbières et évaluer l’effet du dégel sur l’accumulation de carbone et la préservation du carbone déjà accumulé. Les taux d’accumulation de carbone associés à la présence de pergélisol dans le passé et au présent sont lents, et la tourbe est moins décomposée dans les secteurs ayant été affectés plus longtemps par le pergélisol. En somme, le pergélisol réduit l’accumulation de carbone en surface mais permet une meilleure préservation du carbone déjà accumulé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse, je présente une étude (1) du rôle de la 17β-HSD5 dans la modulation des taux d’hormones et dans la prolifération, et l’impact de l’expression de la 17β-HSD5 sur d’autres protéines de BC cellules; (2) une étude comparative sur trois enzymes (17β-HSD1, 17β-HSD7 et 3α-HSD3) avec la provision de DHEA et ses substrats directes soit l’E1 ou la DHT. Les principaux résultats obtenus dans cette étude sont les suivants: (1) en utilisant l’ARN d’interférence de la 17β-HSD5, des immunodosages enzymatiques et des tests de prolifération de cellules démontrent que l’expression de la 17β-HSD5 est positivement corrélée à un niveau de T et de DHT dans les BCC, mais négativement corrélée pour l’E2 et la prolifération des cellules de BC (2) les analyses quantitatives de PCR en temps réel et de Western blot ont démontré que l’inhibition de l’expression de la 17β-HSD5 régule à la hausse l’expression de l’aromatase dans les cellules MCF-7. (3) L’analyse d’ELISA de la prostaglandine E2 a vérifié que l’expression accrue de l’aromatase a été modulée par des niveaux élevés de PGE2 après l’inactivation de l’expression du gène de la 17β-HSD5. (4) Le test de cicatrisation a montré que l’inactivation de l’expression du gène de la 17β-HSD5 favorise l’augmentation de la migration cellulaire. (5) L’expression du gène 17β-HSD5 dans des échantillons cliniques, à partir de l’analyse de base de données ONCOMINE, a montré que sa plus faible expression a été corrélée avec le statut de l’HER-2 et de la métastase de la tumeur. (6) Les données protéomiques révèlent également que des protéines impliquées dans les voies métaboliques sont fortement exprimées dans les cellules MCF-7 après l’inactivation de l’expression du gène de la 17β-HSD5. (7) L’étude n’a démontré aucune différence dans la fonction biologique de la 17β-HSD1 et de la 17β-HSD7 lorsqu’elles sont cultivées avec différentes stéroïdes: tel que les niveaux de stéroides, la prolifération cellulaire et les protéines régulées. (8) Toutefois, la supplémentation du milieu de culture se révèle avoir un impact marqué sur l’étude de la 3α-HSD3. (9). Nous avons proposé que l’utilisation de la DHEA comme source d’hormone puisse entraîner une meilleure imitation des conditions physiologiques post-ménopausales en culture cellulaire selon l’intracrinologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En vertu de l’expertise qu’il détient, l’agent public contribue à la réflexion du politique. L’acteur public est en quelque sorte un outil d’aide à la décision. Le paradigme classique en théorie des organisations assume que le bureaucrate est un acteur programmé dont les actions sont guidées par la règlementation et la codification juridico-légale entourant sa pratique. Quant à elle, l’École de la nouvelle gestion publique suppose que l’agent public doit opérer librement selon les indicateurs de la sphère privée ; il doit viser l’efficacité au moindre coût et prioriser la culture du résultat. De plus, dans des conditions respectant l’environnement où se dessine le partage de renseignements, les chercheurs ne s’entendent pas sur le principe de l’allié qui postule conventionnellement que des préférences similaires favorisent la transmission optimale de l’information entre le politique et la fonction publique. Quel modèle prévaut au Québec ? Sous quelles formes s’opérationnalise-t-il en contexte de transfert ? La thèse d’une compatibilité préférentielle est-elle garante d’une translation informationnelle améliorée ? En usant du modèle canonique principal-agent, ce mémoire confronte la croyance répandue voulant que l’État québécois soit foncièrement webérien en adressant certaines des plus importantes conclusions théoriques dans la discipline. Les résultats démontrent que l’appareil d’État est issu d’un croisement entre les deux principaux paradigmes reconnus dans la littérature. Aussi, le mémoire fait état d’une similarité entre l’interprétation traditionnelle de l’ally principle et la réalité empirique retrouvée dans la relation entre le haut fonctionnaire et le législateur québécois. Ultimement, l’étude démontre que l’administrateur d’État est stratégique dans certaines situations qu’il sait instrumentaliser et où il peut occuper un espace discrétionnaire suffisant pour valoriser ses intérêts professionnels et ceux de son organisation.