987 resultados para Méthodes épidémiologiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est la déformation la plus fréquente en orthopédie pédiatrique. C'est une maladie qui génère des déformations complexes du rachis, du thorax et du bassin affectant plus sévèrement et majoritairement les filles à la puberté. Malgré de nombreuses années de recherches approfondies dans le domaine de la SIA, la cause n'a toujours pas été résolue. OBJECTIFS : Il a été démontré qu’il existe une dysfonction de la signalisation de la mélatonine par les protéines G inhibitrices (Gi) dans les ostéoblastes isolés de patients atteints de SIA. Ceci a conduit à une stratification des patients en trois groupes fonctionnels. Le but de ce projet de maîtrise est d’établir les profils d’expression moléculaire correspondant à chacun des groupes fonctionnels. Les objectifs spécifiques sont d’identifier les gènes responsables de l’initiation de la SIA et du défaut différentiel observé dans la signalisation des récepteurs couplés aux protéines Gi. MÉTHODES : Des ARNs ont été préparés à partir d’ostéoblastes isolés de patients atteints de SIA sélectionnés pour chaque groupe fonctionnel et comparés aux ARNs obtenus d’ostéoblastes de sujets sains. En plus, des cellules sanguines (PBMCs) isolées d’une paire de jumelles monozygotes discordantes pour la scoliose ont été étudiées pour comparer leur profil d’expression génétique. Nous avons utilisé des biopuces à ADN contenant un ensemble de 54,000 sondes permettant l’analyse du niveau d’expression de plus de 47,000 transcrits représentant 30,000 gènes humains bien caractérisés (Affymetrix, GeneChip® Human gene 1.0 ST array). Les gènes retenus ont par la suite été validés par qPCR sur un plus grand nombre de patients afin de tester la spécificité des profils d’expression pour chaque groupe de patients à partir des cellules osseuses dérivées lors de la chirurgie. RÉSULTATS: Le profilage moléculaire proposé permettra d’établir les fondements moléculaires de la SIA selon le test fonctionnel développé par le Dr Moreau et son équipe et d’identifier de nouveaux gènes associés à la SIA. Ce projet a permis de mettre en évidence des gènes possiblement impliqués dans le défaut de signalisation associé aux protéines Gi communs aux trois groupes, ainsi que des gènes spécifiques à certains groupes, pouvant contribuer au développement de certaines co-morbidités et/ou au risque d’aggravation des déformations rachidiennes. L’étude préliminaire des jumelles monozygotes discordantes pour la scoliose a mis en évidence un nombre limité de gènes possiblement associés au défaut de signalisation observé chez la jumelle scoliotique, gènes dont l’expression pourrait être influencée par des modifications d’ordre épigénétique liées à l’environnement. CONCLUSION: Les données obtenues par des approches de transcriptomiques dans le cadre de ce projet soutiennent notre méthode de stratification fonctionnelle des patients SIA et ont conduit à l’identification de nouveaux gènes associés à la SIA. Ces résultats jettent un éclairage nouveau sur la SIA et contribuent à une meilleure compréhension des mécanismes et facteurs impliqués dans l’étiologie de la SIA. À cet égard, nos résultats permettront éventuellement d’identifier des cibles thérapeutiques potentielles et des traitements personnalisés compte tenu des profils moléculaires distincts observés pour chaque groupe de patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plus de dix ans après la mise en place du projet d’harmonisation du droit du commerce électronique, l’ASEAN, « The Association of Southeast Asian Nations » rassemblant dix États membres en Asie du Sud-est, n’arrive toujours pas à doter chacun de ses États membres d’une législation harmonisée en la matière. Dans cette optique, nous tenterons, pour contribuer à cette harmonisation, de démontrer la situation problématique relative au droit du commerce électronique dans six des dix États membres de l’ASEAN où, en plus de leur non-uniformité législative, les textes nationaux régissant le formalisme du contrat électronique demeurent difficiles à comprendre, à interpréter et donc à appliquer ; ce qui cause parfois des erreurs interprétatives voire l’oubli total de ces textes. Cette expérience n’est pas unique dans l’ASEAN, car l’on trouve également de similaires situations dans d’autres juridictions, telles que le Canada et les États-Unis. Pour pallier cette rupture entre la loi et la jurisprudence, nous proposons une quête d’une méthode d’interprétation comme une piste de solution qui nous semble la plus pertinente au regard de l’état des textes déjà en vigueur et de l’objectif de l’harmonisation du droit du commerce électronique dans l’ASEAN. Parmi les méthodes interprétatives très variées, nous arrivons à identifier la méthode contextuelle, aussi large soit-elle, comme la méthode la plus pertinente eu égard aux caractéristiques particulières du formalisme du contrat électronique, à savoir l’écrit et la signature électroniques. Nous proposons donc une grille d’analyse de cette méthode composée de contextes juridique, technique et social, qui aideront les juristes, surtout les juges, à mieux saisir le sens des textes et à leur donner « une meilleure interprétation » en faveur de l’objectif de l’harmonisation du droit dans l’ASEAN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Notre laboratoire a précédemment établi que Hoxa9 accélérait l’apparition de leucémie de type B induite par E2A-PBX1. Une analyse par qRT-PCR a montré que les niveaux d’ARN de Flt3, une cible de Hoxa9, étaient 32 fois plus élevés dans les leucémies Hoxa9/E2A-PBX1 par rapport que dans les leucémies E2A-PBX1. Il est important de noter que l’expression aberrante de Flt3 est retrouvée dans les leucémies ALL de type B et les AML. De plus, l’activation constitutive de Flt3 est associée à un faible pronostic. Nous avons posé l’hypothèse que la maintenance/ré-initiation des leucémies de type pré-B induites par E2A-Pbx1 est associée à la présence du récepteur Flt3. Méthodes et Résultats: Premièrement, nous avons analysé par FACS la présence de Flt3 et mesuré l’expression de Flt3 par qRT-PCR des cellules E2A-PBX1 leucémiques pré-B. Nous avons montré que les cellules leucémiques E2A-PBX1 expriment l’ARNm du gène Flt3. Cependant, le récepteur n’était détectable à la surface cellulaire que dans des proportions variant de 0.3 à 28%. Deuxièmement, nous avons évalué le potentiel leucémique des fractions positive et négative pour Flt3. Toutes deux ont été capables de ré-initier la leucémie environ 20 jours après transplantation. Des analyses par FACS ont montré qu’une proportion de cellules leucémiques exprimaient Flt3, incluant même celles provenant de la fraction Flt3-. Troisièmement, une stratégie de perte de fonction de Flt3 par shARN a été mise en œuvre afin d’examiner le rôle de la voie de signalisation de Flt3 dans les cellules leucémiques E2A-PBX1. Pour ce faire, des cellules primaires leucémiques ont été infectées, soit par le shARN anti-Flt3 soit shARN contrôle, et transplantées dans des souris receveuses. Les cellules leucémiques contenant le shARN ont été capables de régénérer la leucémie. Cependant, une proportion des cellules exprimaient toujours Flt3, ce qui indique que l’efficacité des shARn n’était pas suffisante. Conclusion et Perspectives: Nos shARN ne sont pas suffisamment efficaces sur les cellules leucémiques choisies. De ce fait, nous proposons d’utiliser des cellules leucémiques moins agressives tout en réalisant le même set-up expérimental. Des transplantations dans des receveurs KO Flt3-/- seraient également requises afin de réellement étudier l’impact de la voie de signalisation Flt3 dans la ré-initiation leucémique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programmation linéaire en nombres entiers est une approche robuste qui permet de résoudre rapidement de grandes instances de problèmes d'optimisation discrète. Toutefois, les problèmes gagnent constamment en complexité et imposent parfois de fortes limites sur le temps de calcul. Il devient alors nécessaire de développer des méthodes spécialisées afin de résoudre approximativement ces problèmes, tout en calculant des bornes sur leurs valeurs optimales afin de prouver la qualité des solutions obtenues. Nous proposons d'explorer une approche de reformulation en nombres entiers guidée par la relaxation lagrangienne. Après l'identification d'une forte relaxation lagrangienne, un processus systématique permet d'obtenir une seconde formulation en nombres entiers. Cette reformulation, plus compacte que celle de Dantzig et Wolfe, comporte exactement les mêmes solutions entières que la formulation initiale, mais en améliore la borne linéaire: elle devient égale à la borne lagrangienne. L'approche de reformulation permet d'unifier et de généraliser des formulations et des méthodes de borne connues. De plus, elle offre une manière simple d'obtenir des reformulations de moins grandes tailles en contrepartie de bornes plus faibles. Ces reformulations demeurent de grandes tailles. C'est pourquoi nous décrivons aussi des méthodes spécialisées pour en résoudre les relaxations linéaires. Finalement, nous appliquons l'approche de reformulation à deux problèmes de localisation. Cela nous mène à de nouvelles formulations pour ces problèmes; certaines sont de très grandes tailles, mais nos méthodes de résolution spécialisées les rendent pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une grande proportion de personnes aux prises avec des problèmes de santé mentale vit dans l’isolement social. Les infirmières en santé communautaire sont interpellées au premier rang pour accompagner ces personnes dans leur processus de rétablissement et pour atténuer leur isolement social. La participation au sein d’organismes communautaires optimise l’expérience de rétablissement, diminue l’isolement social et renforce les réseaux sociaux de personnes ayant des problèmes de santé mentale. Toutefois, la participation des personnes utilisatrices de services dans la structure d’organisation des organismes communautaires est encore peu documentée. Afin de pallier cette lacune, cette étude avait pour objectifs de documenter, décrire la nature de la participation des personnes utilisatrices de services en santé mentale et d’explorer des facteurs facilitatants et des barrières à cette participation. Un devis de méthodes mixtes, qualitatif et quantitatif, a été utilisé. Dans le premier de deux volets, une enquête impliquant la réalisation d’entretiens semi-dirigés a été menée auprès de douze directeurs d’organismes communautaires œuvrant dans le domaine des services en santé mentale. Une version française du questionnaire « Adapted User Involvement » (Diamond, Parkin, Morris, Bettinis, & Bettesworth, 2003) a été administrée afin de documenter l’étendue de la participation des personnes utilisatrices de services dans les organismes visés. Pour le deuxième volet, deux organismes communautaires ont été sélectionnés à partir des résultats du questionnaire et de l’analyse documentaire de documents publics de ces organismes. Les scores obtenus au questionnaire ont ainsi permis de sélectionner des organismes présentant des résultats contrastés en matière de participation des personnes utilisatrices de services. Les entretiens semi-dirigés ont été menés avec différents groupes de répondants (membres de conseil d’administration, personnes utilisatrices de services, employés, directeurs) afin de recueillir de l’information sur les thèmes suivants: la nature de la participation des personnes utilisatrices de services, ainsi que les facteurs facilitants et les défis qui y sont associés. Les résultats de l’analyse montrent que: (1) les facteurs qui favorisent la participation des personnes utilisatrices sont: l’accès à un espace de participation pour les personnes utilisatrices et l’accompagnement de celles-ci par les intervenants de diverses disciplines pendant leur participation au sein des organismes communautaires, (2) les barrières de la participation des personnes utilisatrices au sein des organismes communautaires sont la stigmatisation sociale et les caractéristiques personnelles reliées aux problèmes de santé mentale chez les personnes utilisatrices, et (3) les avantages principaux de la participation des personnes utilisatrices de services se déclinent en services mieux adaptés à leurs besoins et leurs demandes, en leur appropriation du pouvoir (dans leur participation dans l’organisme communautaire) et en leur sentiment d’appartenance à l’organisme. À la lumière des ces constats, l’accompagnement des personnes utilisatrices de services dans leur participation apparaît une avenue prometteuse pour les infirmières en santé mentale communautaire afin de faciliter leur appropriation du pouvoir et d’améliorer leur bien-être.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat en psychologie clinique (D.Psy.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is concerned with the interaction between literature and abstract thought. More specifically, it studies the epistemological charge of the literary, the type of knowledge that is carried by elements proper to fictional narratives into different disciplines. By concentrating on two different theoretical methods, the creation of thought experiments and the framing of possible worlds, methods which were elaborated and are still used today in spheres as varied as modal logics, analytic philosophy and physics, and by following their reinsertion within literary theory, the research develops the theory that both thought experiments and possible worlds are in fact short narrative stories that inform knowledge through literary means. By using two novels, Abbott’s Flatland and Vonnegut’s The Sirens of Titan, that describe extra-dimensional existence in radically different ways, respectively as a phenomenologically unknowable space and as an outward perspective on time, it becomes clear that literature is constitutive of the way in which worlds, fictive, real or otherwise, are constructed and understood. Thus dimensions, established through extensional analogies as either experimental knowledge or modal possibility for a given world, generate new directions for thought, which can then take part in the inductive/deductive process of scientia. By contrasting the dimensions of narrative with the way that dimensions were historically constituted, the research also establishes that the literary opens up an infinite potential of abstract space-time domains, defined by their specific rules and limits, and that these different experimental folds are themselves partaking in a dimensional process responsible for new forms of understanding. Over against science fiction literary theories of speculation that posit an equation between the fictive and the real, this thesis examines the complex structure of many overlapping possibilities that can organise themselves around larger compossible wholes, thus offering a theory of reading that is both non-mimetic and non-causal. It consequently examines the a dynamic process whereby literature is always reconceived through possibilities actualised by reading while never defining how the reader will ultimately understand the overarching structure. In this context, the thesis argues that a causal story can be construed out of any one interaction with a given narrative—underscoring, for example, the divinatory strength of a particular vision of the future—even as this narrative represents only a fraction of the potential knowledge of any particular literary text. Ultimately, the study concludes by tracing out how novel comprehensions of the literary, framed by the material conditions of their own space and time, endlessly renew themselves through multiple interactions, generating analogies and speculations that facilitate the creation of new knowledge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Le centrosome est un petit organite bien connu pour son rôle dans l'établissement du fuseau bipolaire pendant la division cellulaire. Les déficiences de la fonction du centrosome donnent souvent lieu à des maladies humaines, y compris le cancer et la formation de kystes rénaux. Nous sommes intéressés à étudier la fonction d'une nouvelle protéine centrosomale nommée CEP78, identifiée dans un criblage protéomique pour de nouveaux composants centrosomaux. Méthodes et résultats : Le traitement des cellules avec le nocodazole, un agent qui dépolymérise spécifiquement les microtubules cytoplasmiques mais pas les microtubules stabilisés du centrosome, a montré que CEP78 est un composant centrosomal stable. La colocalisation de cette protéine avec d'autres marqueurs centrosomaux tels que CEP164, SAS6, Centrine, tubuline polyglutamylée et POC5, à différentes phases du cycle cellulaire a indiqué que CEP78 est précisément à l'extrémité distale des centrioles, mères et filles. Il existe deux pointts CEP78 au cours de l’interphase et les cellules passent par la mitose, procentrioles maturent, et le nombre de points de CEP78 augmente à 4 par cellule et, à la fin de la télophase chaque cellule fille possède 2 points CEP78. La caractérisation des domaines fonctionnels de CEP78 a montré que des répétitions riches en leucine sont nécessaires pour la localisation centrosomale de la protéine. En outre, nous avons constaté que la surexpression de CEP78 ne change pas le nombre de mères/procentrioles mais diminue le nombre et l'intensité des points de CEP170 (protéine d'appendice sous-distal) sans diminution du niveau d'expression de cette protéine. D'autres études ont montré qu'il n'y a pas d'interaction entre ces deux protéines. Enfin, la surexpression de CEP78 protège des microtubules contre la dépolymérisation en présence de nocodazole, ce qui suggère qu'il possède la capacité de lier les microtubules. Conclusion : Nos résultats suggèrent que CEP78 est destiné à l'extrémité distale des centrioles matures par ses répétitions riche en lecuine, où il pourrait être impliqué dans la maturation ou la régulation de l'assemblage ou de la rénovation de l'appendice sous-distal centriolaire, une structure connue dans la nucléation des microtubules et d'ancrage. Comprendre la fonction de Cep78 contribuera à éclaircir le rôle du centrosome dans le cycle cellulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objet de cette étude porte sur la détermination de la sanction à imposer aux policiers ayant été reconnus coupables d’infractions criminelles, sur l’influence de l’article 18.2 de la Charte des droits et libertés de la personne dans cette détermination et sur les méthodes utilisées dans la jurisprudence arbitrale. Deux méthodes de détermination des sanctions s’opposent sur ce sujet, soit la méthode « large et libérale » et la méthode « stricte et littérale ». La méthode de détermination des sanctions « large et libérale » prévoit, entre autres, l’application de l’article 18.2 de la Charte des droits et libertés de la personne. Cette loi est de niveau quasi constitutionnel et prévoit, notamment, l’analyse objective du lien existant entre l’emploi de policier et l’infraction criminelle commise. Quant à la méthode de détermination des sanctions « stricte et littérale », elle résulte de l’application de la Loi sur la police qui est une loi ordinaire prévoyant un régime particulier pour les policiers reconnus coupables d’infractions criminelles. En effet, l’article 119 de la Loi sur la police implique, depuis son remaniement en 2000, la destitution automatique des policiers reconnus coupables d’une infraction criminelle poursuivable uniquement par voie de mise en accusation et la destitution des policiers reconnus coupables d’une infraction criminelle poursuivable soit sur déclaration de culpabilité par procédure sommaire, soit par voie de mise en accusation à moins que le policier ne puisse démontrer que des circonstances particulières ne justifient une mesure différente que la destitution. L’analyse réalisée dans le cadre de cette recherche vise la détermination des sanctions guidant les décisions des arbitres de griefs quant à la situation des policiers accusés et/ou reconnus coupables d’infractions criminelles en cours d’emploi. À cet effet, 25 décisions arbitrales et leurs révisions judiciaires ont été étudiées selon l’analyse de contenu à l’aide d’une grille d’analyse. L’analyse des données obtenues a par la suite été réalisée par l’entremise de l’analyse qualitative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.