988 resultados para Méthodes polyédrales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur V2 (V2R) de la vasopressine est un récepteur couplé aux protéines G (RCPG), jouant un rôle fondamental dans le maintien de l’homéostasie hydrosodique. À l’instar de nombreux RCPGs, il est capable d’interagir avec plusieurs types de protéines G hétérotrimériques et possède des voies de signalisation peu explorées aux mécanismes mal compris. Ces voies non canoniques font l’objet des travaux exposés dans ce mémoire. Il s’agit d’explorer les caractéristiques et mécanismes de la signalisation de V2R via G12, et de la voie d’activation d’ERK 1/2 par transactivation du récepteur de l’insulin-like growth factor 1, IGF1R. Par des études de transfert d’énergie de résonance de bioluminescence (BRET), nous exposons la capacité de V2R à interagir avec la sous-unité Gα12 ainsi que la modulation de la conformation de l’hétérotrimère G12 par l’agoniste de V2R, l’arginine-vasopressine. Ces travaux dévoilent également la modulation de l’interaction entre Gα12 et son effecteur classique RhoA, suggérant un engagement de RhoA, ainsi que la potentialisation via Gα12 de la production d’AMP cyclique. À l’aide de diverses méthodes d’inhibition sélective, nos résultats précisent les mécanismes de la transactivation. Ils supportent notamment le rôle initiateur de l’activation de Src par V2R et l’absence d’implication des ligands connus d’IGF1R dans la transactivation. La métalloprotéase MMP 3 apparaît par ailleurs comme un bon candidat pour réguler la transactivation. Ce projet met en lumière des modes de signalisation peu explorés de V2R, dont l’implication physiologique et physiopathologique pourrait s’avérer significative, au-delà d’un apport fondamental dans la compréhension de la signalisation des RCPGs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte L’américanisation des habitudes de vie, notamment de l’alimentation, semble être en grande partie responsable de l’augmentation incessante de l’incidence élevée des maladies cardiovasculaires. La période postprandiale, où l’homéostasie vasculaire et métabolique est mise à l’épreuve, est d’une importance considérable dans le développement ou la prévention de l’athérosclérose et représente maintenant la majeure partie du temps d’éveil. La compréhension de l’influence de la composition d’un repas sur son impact postprandial est donc essentielle dans notre lutte dans la prévention de ces maladies. Objectifs L’objectif principal de ce projet de recherche était d’étudier les réponses endothéliale et métabolique à un repas de type méditerranéen mixte (MMM), puisqu’elles sont inconnues. Ce projet avait aussi pour objectifs d’évaluer l’impact microvasculaire d’un tel repas et de caractériser la composition postprandiale des acides gras plasmatiques. À titre comparatif, ces éléments ont aussi été étudiés suite à un repas riche en gras saturés (HSFAM). Méthodes Vingt-huit (28) hommes sains, exempts de facteurs de risque de maladies cardiovasculaires ont reçu de façon randomisée les deux repas à l’étude. Le MMM, composé de saumon frais et de légumes cuits dans l'huile d'olive, contenait 7.87g de SFA et 2.29g d’acides gras polyinsaturés oméga-3, tandis que le HSFAM, composé d'un sandwich déjeuner avec œuf, saucisse et fromage, contenait 14.78g de SFA. Les mesures de la fonction endothéliale mesurée par échographie brachiale (FMD), de la fonction microvasculaire mesurée par spectroscopie proche de l’infrarouge (NIRS) et de la composition des acides gras plasmatique ont été effectuées à jeun et en période postprandiale. Résultats Deux sous-groupes de répondeurs aux repas à l’étude se sont dégagés de ces travaux. Un premier sous-groupe de sujets ayant une triglycéridémie à jeun élevée, mais normale (hnTG) a démontré des altérations endothéliales seulement suivant le repas HSFAM. Un second sous-groupe de sujets ayant une triglycéridémie plus faible et normale (lnTG) n’a quant à lui pas subi d’altérations endothéliales suivant les deux repas à l’étude. Les sujets hnTG ont aussi démontré une charge triglycéridémique postprandiale (iAUC) plus importante et qui était de surcroît enrichie en acide stéarique suivant la HSFAM et en acide gras polyinsaturés oméga-3 suivant le MMM. L’évaluation par NIRS de la fonction microvasculaire nous révèle un ralentissement de la réoxygénation post-ischémique qui suggère une altération postprandiale du recrutement capillaire chez les sujets hnTG seulement. De telles altérations, qui semblent être plus importantes suivant le HSFAM, pourraient être en partie responsables de l’impact endothélial de ce repas. Conclusions Cet essai clinique démontre donc de façon novatrice qu’un repas MMM n’a pas d’effet endothélial délétère et que cette neutralité est indépendante de la triglycéridémie à jeun. De plus, une triglycéridémie à jeun élevée mais normale semble indiquer des dysfonctions endothéliales et métaboliques à des épreuves nutritionnelles tel un repas HSFAM. La consommation de repas méditerranéens par des individus sains à la triglycéridémie marginale serait bénéfique, peut-être même davantage que pour des individus de triglycéridémie plus faible, dans la prévention de l’athérogénèse et des maladies cardiovasculaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est la déformation la plus fréquente en orthopédie pédiatrique. C'est une maladie qui génère des déformations complexes du rachis, du thorax et du bassin affectant plus sévèrement et majoritairement les filles à la puberté. Malgré de nombreuses années de recherches approfondies dans le domaine de la SIA, la cause n'a toujours pas été résolue. OBJECTIFS : Il a été démontré qu’il existe une dysfonction de la signalisation de la mélatonine par les protéines G inhibitrices (Gi) dans les ostéoblastes isolés de patients atteints de SIA. Ceci a conduit à une stratification des patients en trois groupes fonctionnels. Le but de ce projet de maîtrise est d’établir les profils d’expression moléculaire correspondant à chacun des groupes fonctionnels. Les objectifs spécifiques sont d’identifier les gènes responsables de l’initiation de la SIA et du défaut différentiel observé dans la signalisation des récepteurs couplés aux protéines Gi. MÉTHODES : Des ARNs ont été préparés à partir d’ostéoblastes isolés de patients atteints de SIA sélectionnés pour chaque groupe fonctionnel et comparés aux ARNs obtenus d’ostéoblastes de sujets sains. En plus, des cellules sanguines (PBMCs) isolées d’une paire de jumelles monozygotes discordantes pour la scoliose ont été étudiées pour comparer leur profil d’expression génétique. Nous avons utilisé des biopuces à ADN contenant un ensemble de 54,000 sondes permettant l’analyse du niveau d’expression de plus de 47,000 transcrits représentant 30,000 gènes humains bien caractérisés (Affymetrix, GeneChip® Human gene 1.0 ST array). Les gènes retenus ont par la suite été validés par qPCR sur un plus grand nombre de patients afin de tester la spécificité des profils d’expression pour chaque groupe de patients à partir des cellules osseuses dérivées lors de la chirurgie. RÉSULTATS: Le profilage moléculaire proposé permettra d’établir les fondements moléculaires de la SIA selon le test fonctionnel développé par le Dr Moreau et son équipe et d’identifier de nouveaux gènes associés à la SIA. Ce projet a permis de mettre en évidence des gènes possiblement impliqués dans le défaut de signalisation associé aux protéines Gi communs aux trois groupes, ainsi que des gènes spécifiques à certains groupes, pouvant contribuer au développement de certaines co-morbidités et/ou au risque d’aggravation des déformations rachidiennes. L’étude préliminaire des jumelles monozygotes discordantes pour la scoliose a mis en évidence un nombre limité de gènes possiblement associés au défaut de signalisation observé chez la jumelle scoliotique, gènes dont l’expression pourrait être influencée par des modifications d’ordre épigénétique liées à l’environnement. CONCLUSION: Les données obtenues par des approches de transcriptomiques dans le cadre de ce projet soutiennent notre méthode de stratification fonctionnelle des patients SIA et ont conduit à l’identification de nouveaux gènes associés à la SIA. Ces résultats jettent un éclairage nouveau sur la SIA et contribuent à une meilleure compréhension des mécanismes et facteurs impliqués dans l’étiologie de la SIA. À cet égard, nos résultats permettront éventuellement d’identifier des cibles thérapeutiques potentielles et des traitements personnalisés compte tenu des profils moléculaires distincts observés pour chaque groupe de patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plus de dix ans après la mise en place du projet d’harmonisation du droit du commerce électronique, l’ASEAN, « The Association of Southeast Asian Nations » rassemblant dix États membres en Asie du Sud-est, n’arrive toujours pas à doter chacun de ses États membres d’une législation harmonisée en la matière. Dans cette optique, nous tenterons, pour contribuer à cette harmonisation, de démontrer la situation problématique relative au droit du commerce électronique dans six des dix États membres de l’ASEAN où, en plus de leur non-uniformité législative, les textes nationaux régissant le formalisme du contrat électronique demeurent difficiles à comprendre, à interpréter et donc à appliquer ; ce qui cause parfois des erreurs interprétatives voire l’oubli total de ces textes. Cette expérience n’est pas unique dans l’ASEAN, car l’on trouve également de similaires situations dans d’autres juridictions, telles que le Canada et les États-Unis. Pour pallier cette rupture entre la loi et la jurisprudence, nous proposons une quête d’une méthode d’interprétation comme une piste de solution qui nous semble la plus pertinente au regard de l’état des textes déjà en vigueur et de l’objectif de l’harmonisation du droit du commerce électronique dans l’ASEAN. Parmi les méthodes interprétatives très variées, nous arrivons à identifier la méthode contextuelle, aussi large soit-elle, comme la méthode la plus pertinente eu égard aux caractéristiques particulières du formalisme du contrat électronique, à savoir l’écrit et la signature électroniques. Nous proposons donc une grille d’analyse de cette méthode composée de contextes juridique, technique et social, qui aideront les juristes, surtout les juges, à mieux saisir le sens des textes et à leur donner « une meilleure interprétation » en faveur de l’objectif de l’harmonisation du droit dans l’ASEAN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le cancer colorectal (CCR) demeure un véritable fardeau de santé publique au Canada. Malgré les énormes avancés scientifiques, l’étiologie du CCR n’est pas encore clairement définie. La prévention du CCR nécessite l’identification de nouveaux facteurs de risque. Durant ces dernières années, des études épidémiologiques ont rapporté l’association entre la santé buccodentaire et le cancer colorectal. Cependant, aucune étude n’a été conçue spécifiquement pour vérifier cette association. Objectifs : L’objectif principal de l’étude était de tester la faisabilité d’une grande étude épidémiologique ultérieure, conçue pour vérifier l’association entre la santé buccodentaire compromise et le risque de CCR. Les objectifs secondaires étaient de standardiser les procédures de l’étude, d’évaluer le taux de participation et le succès des approches proposées pour le recrutement, d’évaluer la faisabilité et la validité des méthodes de la collecte des données sur la santé buccodentaire et de produire des données préliminaires concernant l’association entre la santé buccodentaire compromise et le risque de CCR. Méthodologie: Il s’agit d’une étude de faisabilité, de devis cas-témoins à base populationnelle. Les participants dans le groupe de cas (n=30) ont été recrutés dans deux hôpitaux de Montréal. Les témoins (n=39) ont été recrutés dans la population générale de Montréal. Les données sur la santé buccodentaire ont été collectées aussi bien par un questionnaire sur la santé buccodentaire que par un examen clinique. Les données sur plusieurs facteurs de risque du CCR ont été collectées par des questionnaires validés. Résultats: L’étude de faisabilité a rencontré un taux de participation de 73% (30) chez les cas et de 32,5% (39) chez les témoins. Seulement 26% (7) des participants dans le groupe des cas et 79% (26) des participants dans le groupe de témoins ont complété l’examen dentaire. La santé buccodentaire compromise était associée au risque de CCR chez les participants plus âgés que 59 ans (OR=8,4 ; IC à 95% : 0,94 – 389,4; p=0,036). Les mesures de santé buccodentaire auto-rapportées par les participants par l’utilisation du questionnaire ont montré une bonne validité par rapport aux mesures de l’examen clinique. Conclusion: L’étude épidémiologique ultérieure est jugée faisable en apportant des modifications. Les résultats préliminaires plaident pour une association possible entre la santé buccodentaire compromise par la maladie parodontale et/ou l’édentement et le risque du CCR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Notre laboratoire a précédemment établi que Hoxa9 accélérait l’apparition de leucémie de type B induite par E2A-PBX1. Une analyse par qRT-PCR a montré que les niveaux d’ARN de Flt3, une cible de Hoxa9, étaient 32 fois plus élevés dans les leucémies Hoxa9/E2A-PBX1 par rapport que dans les leucémies E2A-PBX1. Il est important de noter que l’expression aberrante de Flt3 est retrouvée dans les leucémies ALL de type B et les AML. De plus, l’activation constitutive de Flt3 est associée à un faible pronostic. Nous avons posé l’hypothèse que la maintenance/ré-initiation des leucémies de type pré-B induites par E2A-Pbx1 est associée à la présence du récepteur Flt3. Méthodes et Résultats: Premièrement, nous avons analysé par FACS la présence de Flt3 et mesuré l’expression de Flt3 par qRT-PCR des cellules E2A-PBX1 leucémiques pré-B. Nous avons montré que les cellules leucémiques E2A-PBX1 expriment l’ARNm du gène Flt3. Cependant, le récepteur n’était détectable à la surface cellulaire que dans des proportions variant de 0.3 à 28%. Deuxièmement, nous avons évalué le potentiel leucémique des fractions positive et négative pour Flt3. Toutes deux ont été capables de ré-initier la leucémie environ 20 jours après transplantation. Des analyses par FACS ont montré qu’une proportion de cellules leucémiques exprimaient Flt3, incluant même celles provenant de la fraction Flt3-. Troisièmement, une stratégie de perte de fonction de Flt3 par shARN a été mise en œuvre afin d’examiner le rôle de la voie de signalisation de Flt3 dans les cellules leucémiques E2A-PBX1. Pour ce faire, des cellules primaires leucémiques ont été infectées, soit par le shARN anti-Flt3 soit shARN contrôle, et transplantées dans des souris receveuses. Les cellules leucémiques contenant le shARN ont été capables de régénérer la leucémie. Cependant, une proportion des cellules exprimaient toujours Flt3, ce qui indique que l’efficacité des shARn n’était pas suffisante. Conclusion et Perspectives: Nos shARN ne sont pas suffisamment efficaces sur les cellules leucémiques choisies. De ce fait, nous proposons d’utiliser des cellules leucémiques moins agressives tout en réalisant le même set-up expérimental. Des transplantations dans des receveurs KO Flt3-/- seraient également requises afin de réellement étudier l’impact de la voie de signalisation Flt3 dans la ré-initiation leucémique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programmation linéaire en nombres entiers est une approche robuste qui permet de résoudre rapidement de grandes instances de problèmes d'optimisation discrète. Toutefois, les problèmes gagnent constamment en complexité et imposent parfois de fortes limites sur le temps de calcul. Il devient alors nécessaire de développer des méthodes spécialisées afin de résoudre approximativement ces problèmes, tout en calculant des bornes sur leurs valeurs optimales afin de prouver la qualité des solutions obtenues. Nous proposons d'explorer une approche de reformulation en nombres entiers guidée par la relaxation lagrangienne. Après l'identification d'une forte relaxation lagrangienne, un processus systématique permet d'obtenir une seconde formulation en nombres entiers. Cette reformulation, plus compacte que celle de Dantzig et Wolfe, comporte exactement les mêmes solutions entières que la formulation initiale, mais en améliore la borne linéaire: elle devient égale à la borne lagrangienne. L'approche de reformulation permet d'unifier et de généraliser des formulations et des méthodes de borne connues. De plus, elle offre une manière simple d'obtenir des reformulations de moins grandes tailles en contrepartie de bornes plus faibles. Ces reformulations demeurent de grandes tailles. C'est pourquoi nous décrivons aussi des méthodes spécialisées pour en résoudre les relaxations linéaires. Finalement, nous appliquons l'approche de reformulation à deux problèmes de localisation. Cela nous mène à de nouvelles formulations pour ces problèmes; certaines sont de très grandes tailles, mais nos méthodes de résolution spécialisées les rendent pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une grande proportion de personnes aux prises avec des problèmes de santé mentale vit dans l’isolement social. Les infirmières en santé communautaire sont interpellées au premier rang pour accompagner ces personnes dans leur processus de rétablissement et pour atténuer leur isolement social. La participation au sein d’organismes communautaires optimise l’expérience de rétablissement, diminue l’isolement social et renforce les réseaux sociaux de personnes ayant des problèmes de santé mentale. Toutefois, la participation des personnes utilisatrices de services dans la structure d’organisation des organismes communautaires est encore peu documentée. Afin de pallier cette lacune, cette étude avait pour objectifs de documenter, décrire la nature de la participation des personnes utilisatrices de services en santé mentale et d’explorer des facteurs facilitatants et des barrières à cette participation. Un devis de méthodes mixtes, qualitatif et quantitatif, a été utilisé. Dans le premier de deux volets, une enquête impliquant la réalisation d’entretiens semi-dirigés a été menée auprès de douze directeurs d’organismes communautaires œuvrant dans le domaine des services en santé mentale. Une version française du questionnaire « Adapted User Involvement » (Diamond, Parkin, Morris, Bettinis, & Bettesworth, 2003) a été administrée afin de documenter l’étendue de la participation des personnes utilisatrices de services dans les organismes visés. Pour le deuxième volet, deux organismes communautaires ont été sélectionnés à partir des résultats du questionnaire et de l’analyse documentaire de documents publics de ces organismes. Les scores obtenus au questionnaire ont ainsi permis de sélectionner des organismes présentant des résultats contrastés en matière de participation des personnes utilisatrices de services. Les entretiens semi-dirigés ont été menés avec différents groupes de répondants (membres de conseil d’administration, personnes utilisatrices de services, employés, directeurs) afin de recueillir de l’information sur les thèmes suivants: la nature de la participation des personnes utilisatrices de services, ainsi que les facteurs facilitants et les défis qui y sont associés. Les résultats de l’analyse montrent que: (1) les facteurs qui favorisent la participation des personnes utilisatrices sont: l’accès à un espace de participation pour les personnes utilisatrices et l’accompagnement de celles-ci par les intervenants de diverses disciplines pendant leur participation au sein des organismes communautaires, (2) les barrières de la participation des personnes utilisatrices au sein des organismes communautaires sont la stigmatisation sociale et les caractéristiques personnelles reliées aux problèmes de santé mentale chez les personnes utilisatrices, et (3) les avantages principaux de la participation des personnes utilisatrices de services se déclinent en services mieux adaptés à leurs besoins et leurs demandes, en leur appropriation du pouvoir (dans leur participation dans l’organisme communautaire) et en leur sentiment d’appartenance à l’organisme. À la lumière des ces constats, l’accompagnement des personnes utilisatrices de services dans leur participation apparaît une avenue prometteuse pour les infirmières en santé mentale communautaire afin de faciliter leur appropriation du pouvoir et d’améliorer leur bien-être.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat en psychologie clinique (D.Psy.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.