812 resultados para Méthodes incrémentales
Resumo:
Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.
Resumo:
Une grande proportion de personnes aux prises avec des problèmes de santé mentale vit dans l’isolement social. Les infirmières en santé communautaire sont interpellées au premier rang pour accompagner ces personnes dans leur processus de rétablissement et pour atténuer leur isolement social. La participation au sein d’organismes communautaires optimise l’expérience de rétablissement, diminue l’isolement social et renforce les réseaux sociaux de personnes ayant des problèmes de santé mentale. Toutefois, la participation des personnes utilisatrices de services dans la structure d’organisation des organismes communautaires est encore peu documentée. Afin de pallier cette lacune, cette étude avait pour objectifs de documenter, décrire la nature de la participation des personnes utilisatrices de services en santé mentale et d’explorer des facteurs facilitatants et des barrières à cette participation. Un devis de méthodes mixtes, qualitatif et quantitatif, a été utilisé. Dans le premier de deux volets, une enquête impliquant la réalisation d’entretiens semi-dirigés a été menée auprès de douze directeurs d’organismes communautaires œuvrant dans le domaine des services en santé mentale. Une version française du questionnaire « Adapted User Involvement » (Diamond, Parkin, Morris, Bettinis, & Bettesworth, 2003) a été administrée afin de documenter l’étendue de la participation des personnes utilisatrices de services dans les organismes visés. Pour le deuxième volet, deux organismes communautaires ont été sélectionnés à partir des résultats du questionnaire et de l’analyse documentaire de documents publics de ces organismes. Les scores obtenus au questionnaire ont ainsi permis de sélectionner des organismes présentant des résultats contrastés en matière de participation des personnes utilisatrices de services. Les entretiens semi-dirigés ont été menés avec différents groupes de répondants (membres de conseil d’administration, personnes utilisatrices de services, employés, directeurs) afin de recueillir de l’information sur les thèmes suivants: la nature de la participation des personnes utilisatrices de services, ainsi que les facteurs facilitants et les défis qui y sont associés. Les résultats de l’analyse montrent que: (1) les facteurs qui favorisent la participation des personnes utilisatrices sont: l’accès à un espace de participation pour les personnes utilisatrices et l’accompagnement de celles-ci par les intervenants de diverses disciplines pendant leur participation au sein des organismes communautaires, (2) les barrières de la participation des personnes utilisatrices au sein des organismes communautaires sont la stigmatisation sociale et les caractéristiques personnelles reliées aux problèmes de santé mentale chez les personnes utilisatrices, et (3) les avantages principaux de la participation des personnes utilisatrices de services se déclinent en services mieux adaptés à leurs besoins et leurs demandes, en leur appropriation du pouvoir (dans leur participation dans l’organisme communautaire) et en leur sentiment d’appartenance à l’organisme. À la lumière des ces constats, l’accompagnement des personnes utilisatrices de services dans leur participation apparaît une avenue prometteuse pour les infirmières en santé mentale communautaire afin de faciliter leur appropriation du pouvoir et d’améliorer leur bien-être.
L'anorexie mentale chez les adolescents et les jeunes adultes de sexe masculin: Recension des écrits
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat en psychologie clinique (D.Psy.)
Resumo:
Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.
Resumo:
This thesis is concerned with the interaction between literature and abstract thought. More specifically, it studies the epistemological charge of the literary, the type of knowledge that is carried by elements proper to fictional narratives into different disciplines. By concentrating on two different theoretical methods, the creation of thought experiments and the framing of possible worlds, methods which were elaborated and are still used today in spheres as varied as modal logics, analytic philosophy and physics, and by following their reinsertion within literary theory, the research develops the theory that both thought experiments and possible worlds are in fact short narrative stories that inform knowledge through literary means. By using two novels, Abbott’s Flatland and Vonnegut’s The Sirens of Titan, that describe extra-dimensional existence in radically different ways, respectively as a phenomenologically unknowable space and as an outward perspective on time, it becomes clear that literature is constitutive of the way in which worlds, fictive, real or otherwise, are constructed and understood. Thus dimensions, established through extensional analogies as either experimental knowledge or modal possibility for a given world, generate new directions for thought, which can then take part in the inductive/deductive process of scientia. By contrasting the dimensions of narrative with the way that dimensions were historically constituted, the research also establishes that the literary opens up an infinite potential of abstract space-time domains, defined by their specific rules and limits, and that these different experimental folds are themselves partaking in a dimensional process responsible for new forms of understanding. Over against science fiction literary theories of speculation that posit an equation between the fictive and the real, this thesis examines the complex structure of many overlapping possibilities that can organise themselves around larger compossible wholes, thus offering a theory of reading that is both non-mimetic and non-causal. It consequently examines the a dynamic process whereby literature is always reconceived through possibilities actualised by reading while never defining how the reader will ultimately understand the overarching structure. In this context, the thesis argues that a causal story can be construed out of any one interaction with a given narrative—underscoring, for example, the divinatory strength of a particular vision of the future—even as this narrative represents only a fraction of the potential knowledge of any particular literary text. Ultimately, the study concludes by tracing out how novel comprehensions of the literary, framed by the material conditions of their own space and time, endlessly renew themselves through multiple interactions, generating analogies and speculations that facilitate the creation of new knowledge.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Contexte: Le centrosome est un petit organite bien connu pour son rôle dans l'établissement du fuseau bipolaire pendant la division cellulaire. Les déficiences de la fonction du centrosome donnent souvent lieu à des maladies humaines, y compris le cancer et la formation de kystes rénaux. Nous sommes intéressés à étudier la fonction d'une nouvelle protéine centrosomale nommée CEP78, identifiée dans un criblage protéomique pour de nouveaux composants centrosomaux. Méthodes et résultats : Le traitement des cellules avec le nocodazole, un agent qui dépolymérise spécifiquement les microtubules cytoplasmiques mais pas les microtubules stabilisés du centrosome, a montré que CEP78 est un composant centrosomal stable. La colocalisation de cette protéine avec d'autres marqueurs centrosomaux tels que CEP164, SAS6, Centrine, tubuline polyglutamylée et POC5, à différentes phases du cycle cellulaire a indiqué que CEP78 est précisément à l'extrémité distale des centrioles, mères et filles. Il existe deux pointts CEP78 au cours de l’interphase et les cellules passent par la mitose, procentrioles maturent, et le nombre de points de CEP78 augmente à 4 par cellule et, à la fin de la télophase chaque cellule fille possède 2 points CEP78. La caractérisation des domaines fonctionnels de CEP78 a montré que des répétitions riches en leucine sont nécessaires pour la localisation centrosomale de la protéine. En outre, nous avons constaté que la surexpression de CEP78 ne change pas le nombre de mères/procentrioles mais diminue le nombre et l'intensité des points de CEP170 (protéine d'appendice sous-distal) sans diminution du niveau d'expression de cette protéine. D'autres études ont montré qu'il n'y a pas d'interaction entre ces deux protéines. Enfin, la surexpression de CEP78 protège des microtubules contre la dépolymérisation en présence de nocodazole, ce qui suggère qu'il possède la capacité de lier les microtubules. Conclusion : Nos résultats suggèrent que CEP78 est destiné à l'extrémité distale des centrioles matures par ses répétitions riche en lecuine, où il pourrait être impliqué dans la maturation ou la régulation de l'assemblage ou de la rénovation de l'appendice sous-distal centriolaire, une structure connue dans la nucléation des microtubules et d'ancrage. Comprendre la fonction de Cep78 contribuera à éclaircir le rôle du centrosome dans le cycle cellulaire.
Resumo:
L’objet de cette étude porte sur la détermination de la sanction à imposer aux policiers ayant été reconnus coupables d’infractions criminelles, sur l’influence de l’article 18.2 de la Charte des droits et libertés de la personne dans cette détermination et sur les méthodes utilisées dans la jurisprudence arbitrale. Deux méthodes de détermination des sanctions s’opposent sur ce sujet, soit la méthode « large et libérale » et la méthode « stricte et littérale ». La méthode de détermination des sanctions « large et libérale » prévoit, entre autres, l’application de l’article 18.2 de la Charte des droits et libertés de la personne. Cette loi est de niveau quasi constitutionnel et prévoit, notamment, l’analyse objective du lien existant entre l’emploi de policier et l’infraction criminelle commise. Quant à la méthode de détermination des sanctions « stricte et littérale », elle résulte de l’application de la Loi sur la police qui est une loi ordinaire prévoyant un régime particulier pour les policiers reconnus coupables d’infractions criminelles. En effet, l’article 119 de la Loi sur la police implique, depuis son remaniement en 2000, la destitution automatique des policiers reconnus coupables d’une infraction criminelle poursuivable uniquement par voie de mise en accusation et la destitution des policiers reconnus coupables d’une infraction criminelle poursuivable soit sur déclaration de culpabilité par procédure sommaire, soit par voie de mise en accusation à moins que le policier ne puisse démontrer que des circonstances particulières ne justifient une mesure différente que la destitution. L’analyse réalisée dans le cadre de cette recherche vise la détermination des sanctions guidant les décisions des arbitres de griefs quant à la situation des policiers accusés et/ou reconnus coupables d’infractions criminelles en cours d’emploi. À cet effet, 25 décisions arbitrales et leurs révisions judiciaires ont été étudiées selon l’analyse de contenu à l’aide d’une grille d’analyse. L’analyse des données obtenues a par la suite été réalisée par l’entremise de l’analyse qualitative.
Resumo:
Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.
Resumo:
Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.
Resumo:
Objectif : Étudier l'association entre l’utilisation de contraceptifs hormonaux et le risque d'acquisition du VIH-1 chez les femmes au Malawi, en Afrique du Sud, en Zambie et au Zimbabwe. Devis : Analyses secondaires de 2887 femmes âgées de 17-55 ans ayant participé à l’étude HPTN 035, une étude de phase II/IIb sur l’efficacité de deux gels microbicides pour prévenir la transmission du VIH chez les femmes à risque. Méthodes : L'association entre l'utilisation de contraceptifs hormonaux et le risque d'acquisition du VIH-1 a été évaluée en utilisant des modèles de Cox. Des risques relatifs sont estimés où le groupe de référence est celui des femmes qui n’utilisent pas de contraceptifs hormonaux. De plus, un modèle multivarié de Cox est utilisé afin de contrôler pour les facteurs potentiellement confondants. Résultats : Les contraceptifs injectables ont été utilisés par 52,1% des femmes, alors que les contraceptifs oraux ont été utilisés par 20,7% de celles-ci. Pendant l'étude, il y a eu 192 séroconversions. L'incidence observée du VIH était de 2,28; 4,19 et 4,69 pour 100 personne-années pour les contraceptifs oraux, injectables et non hormonaux, respectivement. Lors de l’analyse multivariée, nous n'avons trouvé aucune association significative entre l’usage des contraceptifs hormonaux et l’acquisition du VIH-1. Le risque relatif ajusté (RRa) pour les contraceptifs oraux est de 0,573 (IC de 95% : [0,31-1,06]) et 0,981 (IC de 95% : [0,69 ; 1,39]) pour les contraceptifs injectables. Conclusions : Bien que cette étude ne démontre pas d’association entre l’usage des contraceptifs hormonaux et le VIH-1, nous concluons toutefois que ces méthodes de contraception ne protègent pas contre le VIH-1, et il est ainsi recommandé aux femmes utilisant des hormones contraceptives de toujours utiliser le condom pour prévenir l'infection au VIH-1.
Resumo:
La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.
Resumo:
La présente thèse porte sur l’interface entre les pratiques de loisir sportif des élites professionnelles au Québec et l’évolution récente du capitalisme cognitif. En se concentrant sur les activités récréatives de l’élite de prestige (Coenen-Huther 2004) composée de diplômés universitaires en début de carrière, population nommée ici jeunes professionnels hypermodernes (JPH), l’étude vise à décrire l’articulation entre l’espace social du loisir sérieux (Stebbins 1982) et les transformations des modes de vie hypermodernes. L’enquête qualitative menée est composée d’entretiens biographiques conduits auprès de jeunes adultes professionnels amateurs de sport et d’une observation participante réalisée à Montréal au sein de deux équipes d’Ultimate. Elle pose un regard critique vis-à-vis des théories qui prônent l’émergence d’un individu réflexif et autonome qui serait épargné de toute forme de contrainte normative extérieure. Contrairement à ce genre d’interprétation, l’approche configurationnelle développée par Norbert Elias (1991) est mobilisée pour montrer comment les maillages d’interrelations entre JPH nous permettent de comprendre de manière relationnelle l’évolution des processus de socialisation propres à la « classe créative » du capitalisme post-industriel.
Resumo:
L’imagerie médicale a longtemps été limitée à cause des performances médiocres des fluorophores organiques. Récemment la recherche sur les nanocristaux semi-conducteurs a grandement contribué à l’élargissement de la gamme d’applications de la luminescence dans les domaines de l’imagerie et du diagnostic. Les points quantiques (QDs) sont des nanocristaux de taille similaire aux protéines (2-10 nm) dont la longueur d’onde d’émission dépend de leur taille et de leur composition. Le fait que leur surface peut être fonctionnalisée facilement avec des biomolécules rend leur application particulièrement attrayante dans le milieu biologique. Des QDs de structure « coeur-coquille » ont été synthétisés selon nos besoins en longueur d’onde d’émission. Dans un premier article nous avons modifié la surface des QDs avec des petites molécules bi-fonctionnelles portant des groupes amines, carboxyles ou zwitterions. L’effet de la charge a été analysé sur le mode d’entrée des QDs dans deux types cellulaires. À l’aide d’inhibiteurs pharmacologiques spécifiques à certains modes d’internalisation, nous avons déterminé le mode d’internalisation prédominant. L’endocytose par les radeaux lipidiques représente le mode d’entrée le plus employé pour ces QDs de tailles similaires. D’autres modes participent également, mais à des degrés moindres. Des disparités dans les modes d’entrée ont été observées selon le ligand de surface. Nous avons ensuite analysé l’effet de l’agglomération de différents QDs sur leur internalisation dans des cellules microgliales. La caractérisation des agglomérats dans le milieu de culture cellulaire a été faite par la technique de fractionnement par couplage flux-force (AF4) associé à un détecteur de diffusion de la lumière. En fonction du ligand de surface et de la présence ou non de protéines du sérum, chacun des types de QDs se sont agglomérés de façon différente. À l'aide d’inhibiteur des modes d’internalisation, nous avons corrélé les données de tailles d’agglomérats avec leur mode d’entrée cellulaire. Les cellules microgliales sont les cellules immunitaires du système nerveux central (CNS). Elles répondent aux blessures ou à la présence d’inflammagènes en relâchant des cytokines pro-inflammatoires. Une inflammation non contrôlée du CNS peut conduire à la neurodégénérescence neuronale et est souvent observée dans les cas de maladies chroniques. Nous nous sommes intéressés au développement d’un nanosenseur pour mesurer des biomarqueurs du début de l’inflammation. Les méthodes classiques pour étudier l’inflammation consistent à mesurer le niveau de protéines ou molécules relâchées par les cellules stressées (par exemple monoxyde d’azote, IL-1β). Bien que précises, ces méthodes ne mesurent qu’indirectement l’activité de la caspase-1, responsable de la libération du l’IL-1β. De plus ces méthode ne peuvent pas être utilisées avec des cellules vivantes. Nous avons construit un nanosenseur basé sur le FRET entre un QD et un fluorophore organique reliés entre eux par un peptide qui est spécifiquement clivé par la caspase-1. Pour induire l’inflammation, nous avons utilisé des molécules de lipopolysaccharides (LPS). La molécule de LPS est amphiphile. Dans l’eau le LPS forme des nanoparticules, avec des régions hydrophobes à l’intérieure. Nous avons incorporé des QDs dans ces régions ce qui nous a permis de suivre le cheminement du LPS dans les cellules microgliales. Les LPS-QDs sont internalisés spécifiquement par les récepteurs TLR-4 à la surface des microglies. Le nanosenseur s’est montré fonctionnel dans la détermination de l’activité de la caspase-1 dans cellules microgliales activées par le LPS. Éventuellement, le senseur permettrait d’observer en temps réel l’effet de thérapies ciblant l’inflammation, sur l’activité de la caspase-1.
Resumo:
La prolifération cellulaire et la croissance tissulaire sont étroitement contrôlées au cours du développement. Chez la Drosophila melanogaster, ces processus sont régulés en partie par la kinase stérile-20 Slik (SLK et LOK chez les mammifères) et le suppresseur de tumeur Hippo (Hpo, MST1/2 chez les mammifères) dans les cellules épithéliales. La surexpression de la kinase Slik augmente la taille des tissus chez les mouches adultes. Cependant, les mutants slik-/- meurent avant d'avoir terminé leur développement. Lorsqu’elle est surexprimée dans les cellules épithéliales des ailes en voie de développement, cette protéine favorise la prolifération cellulaire. En outre, l'expression de Slik dans une population de cellules conduit à une surprolifération des cellules voisines, même quand elles sont physiquement séparées. Ceci est probablement dû à la sécrétion de facteurs de croissance qui stimulent la prolifération de manière paracrine. En utilisant des méthodes génétiques et transcriptomiques, nous essayons de déterminer les molécules et les mécanismes impliqués. Contrairement à ce qui a été publié, nous avons constaté que Slik ne transmet pas de signal prolifératif en inhibant le suppresseur de tumeur Merlin (Mer, NF2 chez les mammifères), un composant en amont de la voie Hippo. Plutôt, elle favorise la prolifération non-autonome et la croissance des tissus en signalisation par la kinase dRaf (la seule kinase de la famille Raf chez la drosophile). Nous prouvons que dRaf est nécessaire chez les cellules voisines pour conduire la prolifération chez ces cellules. De plus, nous avons utilisé le séquençage du transcriptome pour identifier de nouveaux effecteurs en aval de Slik. Ce qui permettra de mieux comprendre les effets de SLK et LOK chez les humains.