997 resultados para Problème 3SUM
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Resumo:
L’existence d’un sous-type dissociatif de schizophrénie a été suggérée par plusieurs auteurs pour rendre compte des présentations symptomatologiques d’un groupe de personnes dont le diagnostic principal est dans le spectre de la schizophrénie mais qui présentent aussi des symptômes dissociatifs (Ross, 2004; Şar et al., 2010; Van der Hart, Witztum, & Friedman, 1993). D’origine traumatique, ce type de portrait clinique où symptômes psychotiques et dissociatifs s’entremêlent aurait été décrit il y a déjà plus d’un siècle (Janet & Raymond, 1898) mais serait disparu dans les années ’30, assimilé au concept de « schizophrénie » (Rosenbaum, 1980). C’est dans un nouveau contexte nosographique que le concept de schizophrénie dissociative refait surface. En effet, la nosographie psychiatrique a pris un tournant en 1980 lorsque l’approche préconisée par le DSM est devenue descriptive plutôt que basée sur des conceptualisations psychanalytiques. Du coup, les affections d’alors ont été divisées en troubles dont les symptômes ont tendance à se manifester ensemble (Cooper, 2004) et la comorbidité entre les troubles a augmenté. Étant donné la comorbidité fréquemment rapportée entre les troubles psychotiques et dissociatifs, la similarité phénoménologique de leurs symptômes, ainsi que leur possible étiologie traumatique, Ross (2004) a proposé une série de critères permettant de diagnostiquer une schizophrénie dissociative. L’objectif principal de cette thèse est donc d’établir si la schizophrénie dissociative, telle que définie par Ross (2004), existe. Le premier article porte sur la problématique et le contexte théorique ayant mené à la question de recherche. Il vise à faire un survol des enjeux entourant la question de la schizophrénie dissociative et rend compte des écrits scientifiques sur la symptomatologie similaire entre les troubles psychotiques et dissociatifs, sur leur étiologie traumatique et sur les études sur la dissociation et la schizophrénie. Le deuxième article est quant à lui un article empirique rendant compte de la méthodologie utilisée pour répondre à la question de recherche. En effet, aucune étude jusqu’ici n’a testé systématiquement les critères de la schizophrénie dissociative. Nos résultats démontrent que 24% de notre échantillon (N=50) pourrait recevoir le diagnostic de schizophrénie dissociative avec les critères proposés par Ross (2004). Toutefois, ces critères posant problème, une modification a été proposée et une prévalence de 14% a alors été trouvée. Des vignettes cliniques sont présentées afin de comparer nos participants avec ceux rapportés ailleurs. Les liens entre symptômes psychotiques et dissociatifs sont discutés en essayant de conceptualiser la schizophrénie dissociative de différentes manières, soit comme une nouvelle entité clinique, comme un trouble comorbide ou dans un contexte nosographique psychodynamique.
Resumo:
Le déroulement du commerce électronique sur un marché global suscite de nombreux questionnements juridiques. D'une part, le droit est conçu à l'échelle nationale en fonction d'un milieu social tributaire de son histoire et de sa culture et d'autre part, le commerce électronique global présente des caractéristiques très singulières : dématérialisation, ubiquité et dimension transfrontalière. Or, une telle confrontation est susceptible de menacer la sécurité juridique des parties dans leurs transactions commerciales en ligne mais aussi la confiance nécessaire à leur développement. Les territoires nationaux, en limitant le pouvoir d’action effectif des États, pose un problème d’échelle : réglementer un phénomène global confronté à des souverainetés territoriales multiples. L’encadrement normatif du commerce électronique global se développe désormais, en partie, à un niveau extra étatique, confirmant l’érosion du monopole des États dans la régulation des rapports juridiques globalisés. La normativité devient le résultat d’un jeu normatif ouvert non seulement quant aux acteurs de la régulation, mais également quant à la qualification des normes impliquées dans cette régulation. Prenant la mesure de la complexité croissante de la normativité, les États interviennent pour tenter de concilier les pratiques nouvelles avec la règle de droit dans une logique de définition des règles du jeu et d’harmonisation du comportement des acteurs économiques. Les systèmes de droit nationaux apprennent à interagir avec des normes multiples de sources différentes. Cette évolution reflète l’articulation des dynamiques de mutation de la normativité avec le phénomène de globalisation du commerce électronique.
Resumo:
Les calculs numériques ont été effectués à l'aide du logiciel SAGE.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Marie-Josée Lemieux Chef du service de santé, responsable des soins infirmiers Direction des services de réadaptation aux adolescents, Centre jeunesse de Montréal - Institut universitaire courriel: marie-josee.lemieux@cjm-iu.qc.ca téléphone: 514-356-4457 site web de l’organisme: http://www.cjm-iu.qc.ca/
Resumo:
Le guide et les vidéos se veulent des outils de sensibilisation et d'information à l'usage des délégués sociaux et autres intervenants dans divers milieux de travail à travers le Québec.
Resumo:
Problème: Ma thèse porte sur l’identité individuelle comme interrogation sur les enjeux personnels et sur ce qui constitue l’identification hybride à l’intérieur des notions concurrentielles en ce qui a trait à l’authenticité. Plus précisément, j’aborde le concept des identifications hybrides en tant que zones intermédiaires pour ce qui est de l’alternance de codes linguistiques et comme négociation des espaces continuels dans leur mouvement entre les cultures et les langues. Une telle négociation engendre des tensions et/ou apporte le lien créatif. Les tensions sont inhérentes à n’importe quelle construction d’identité où les lignes qui définissent des personnes ne sont pas spécifiques à une culture ou à une langue, où des notions de l’identité pure sont contestées et des codes communs de l’appartenance sont compromis. Le lien créatif se produit dans les exemples où l’alternance de code linguistique ou la négociation des espaces produit le mouvement ouvert et fluide entre les codes de concurrence des références et les différences à travers les discriminations raciales, la sexualité, la culture et la langue. Les travaux que j’ai sélectionnés représentent une section transversale de quelques auteurs migrants provenant de la minorité en Amérique du Nord qui alternent les codes linguistiques de cette manière. Les travaux détaillent le temps et l’espace dans leur traitement de l’identité et dans la façon dont ils cernent l’hybridité dans les textes suivants : The Woman Warrior de Maxine Hong Kingston (1975-76), Hunger of Memory de Richard Rodriguez (1982), Comment faire l’amour avec un nègre sans se fatiguer de Dany Laferrière (1985), Borderlands/La Frontera de Gloria Anzalduá (1987), Lost in Translation de Eva Hoffman (1989), Avril ou l’anti-passion de Antonio D’Alfonso (1990) et Chorus of Mushrooms de Hiromi Goto (1994). Enjeux/Questions La notion de l’identification hybride est provocante comme sujet. Elle met en question l’identité pure. C’est un sujet qui a suscité beaucoup de discussions tant en ce qui a trait à la littérature, à la politique, à la société, à la linguistique, aux communications, qu’au sein même des cercles philosophiques. Ce sujet est compliqué parce qu’il secoue la base des espaces fixes et structurés de l’identité dans sa signification culturelle et linguistique. Par exemple, la notion de patrie n’a pas les représentations exclusives du pays d’origine ou du pays d’accueil. De même, les notions de race, d’appartenance ethnique, et d’espaces sexuels sont parfois négativement acceptées si elles proviennent des codes socialement admis et normalisés de l’extérieur. De tels codes de la signification sont souvent définis par l’étiquette d’identification hétérosexuelle et blanche. Dans l’environnement généralisé d’aujourd’hui, plus que jamais, une personne doit négocier qui elle est, au sens de son appartenance à soi, en tant qu’individu et ce, face aux modèles locaux, régionaux, nationaux, voire même globaux de la subjectivité. Nous pouvons interpréter ce mouvement comme une série de couches superposées de la signification. Quand nous rencontrons une personne pour la première fois, nous ne voyons que la couche supérieure. D’ailleurs, son soi intérieur est caché par de nombreuses couches superposées (voir Joseph D. Straubhaar). Toutefois, sous cette couche supérieure, on retrouve beaucoup d’autres couches et tout comme pour un oignon, on doit les enlever une par une pour que l’individualité complète d’une personne soit révélée et comprise. Le noyau d’une personne représente un point de départ crucial pour opposer qui elle était à la façon dont elle se transforme sans cesse. Sa base, ou son noyau, dépend du moment, et comprend, mais ne s’y limite pas, ses origines, son environnement et ses expériences d’enfance, son éducation, sa notion de famille, et ses amitiés. De plus, les notions d’amour-propre et d’amour pour les autres, d’altruisme, sont aussi des points importants. Il y a une relation réciproque entre le soi et l’autre qui établit notre degré d’estime de soi. En raison de la mondialisation, notre façon de comprendre la culture, en fait, comment on consomme et définit la culture, devient rapidement un phénomène de déplacement. À l’intérieur de cette arène de culture généralisée, la façon dont les personnes sont à l’origine chinoises, mexicaines, italiennes, ou autres, et poursuivent leur évolution culturelle, se définit plus aussi facilement qu’avant. Approche Ainsi, ma thèse explore la subjectivité hybride comme position des tensions et/ou des relations créatrices entre les cultures et les langues. Quoique je ne souhaite aucunement simplifier ni le processus, ni les questions de l’auto-identification, il m’apparaît que la subjectivité hybride est aujourd’hui une réalité croissante dans l’arène généralisée de la culture. Ce processus d’échange est particulièrement complexe chez les populations migrantes en conflit avec leur désir de s’intégrer dans les nouveaux espaces adoptés, c’est-à-dire leur pays d’accueil. Ce réel désir d’appartenance peut entrer en conflit avec celui de garder les espaces originels de la culture définie par son pays d’origine. Ainsi, les références antérieures de l’identification d’une personne, les fondements de son individualité, son noyau, peuvent toujours ne pas correspondre à, ou bien fonctionner harmonieusement avec, les références extérieures et les couches d’identification changeantes, celles qu’elle s’approprie du pays d’accueil. Puisque nos politiques, nos religions et nos établissements d’enseignement proviennent des représentations nationales de la culture et de la communauté, le processus d’identification et la création de son individualité extérieure sont formées par le contact avec ces établissements. La façon dont une personne va chercher l’identification entre les espaces personnels et les espaces publics détermine ainsi le degré de conflit et/ou de lien créatif éprouvé entre les modes et les codes des espaces culturels et linguistiques. Par conséquent, l’identification des populations migrantes suggère que la « community and culture will represent both a hybridization of home and host cultures » (Straubhaar 27). Il y a beaucoup d’écrits au sujet de l’hybridité et des questions de l’identité et de la patrie, toutefois cette thèse aborde la valeur créative de l’alternance de codes culturels et linguistiques. Ce que la littérature indiquera Par conséquent, la plate-forme à partir de laquelle j’explore mon sujet de l’hybridité flotte entre l’interprétation postcoloniale de Homi Bhabha concernant le troisième espace hybride; le modèle d’hétéroglossie de Mikhail Bakhtine qui englobent plusieurs de mes exemples; la représentation de Roland Barthes sur l’identité comme espace transgressif qui est un modèle de référence et la contribution de Chantal Zabus sur le palimpseste et l’alternance de codes africains. J’utilise aussi le modèle de Sherry Simon portant sur l’espace urbain hybride de Montréal qui établit un lien important avec la valeur des échanges culturels et linguistiques, et les analyses de Janet Paterson. En effet, la façon dont elle traite la figure de l’Autre dans les modèles littéraires au Québec fournisse un aperçu régional et national de l’identification hybride. Enfin, l’exploration du bilinguisme de Doris Sommer comme espace esthétique et même humoristique d’identification situe l’hybridité dans une espace de rencontre créative. Conséquence Mon approche dans cette thèse ne prétend pas résoudre les problèmes qui peuvent résulter des plates-formes de la subjectivité hybride. Pour cette raison, j’évite d’aborder toute approche politique ou nationaliste de l’identité qui réfute l’identification hybride. De la même façon, je n’amène pas de discussion approfondie sur les questions postcoloniales. Le but de cette thèse est de démontrer à quel point la subjectivité hybride peut être une zone de relation créatrice lorsque l’alternance de codes permet des échanges de communication plus intimes entre les cultures et les langues. C’est un espace qui devient créateur parce qu’il favorise une attitude plus ouverte vis-à-vis les différents champs qui passent par la culture, aussi bien la langue, que la sexualité, la politique ou la religion. Les zones hybrides de l’identification nous permettent de contester les traditions dépassées, les coutumes, les modes de communication et la non-acceptation, toutes choses dépassées qui emprisonnent le désir et empêchent d’explorer et d’adopter des codes en dehors des normes et des modèles de la culture contenus dans le discours blanc, dominant, de l’appartenance culturelle et linguistique mondialisée. Ainsi, il appert que ces zones des relations multi-ethniques exigent plus d’attention des cercles scolaires puisque la population des centres urbains à travers l’Amérique du Nord devient de plus en plus nourrie par d’autres types de populations. Donc, il existe un besoin réel d’établir une communication sincère qui permettrait à la population de bien comprendre les populations adoptées. C’est une invitation à stimuler une relation plus intime de l’un avec l’autre. Toutefois, il est évident qu’une communication efficace à travers les frontières des codes linguistiques, culturels, sexuels, religieux et politiques exige une négociation continuelle. Mais une telle négociation peut stimuler la compréhension plus juste des différences (culturelle ou linguistique) si des institutions académiques offrent des programmes d’études intégrant davantage les littératures migrantes. Ma thèse vise à illustrer (par son choix littéraire) l’identification hybride comme une réalité importante dans les cultures généralisées qui croissent toujours aujourd’hui. Les espaces géographiques nous gardent éloignés les uns des autres, mais notre consommation de produits exotiques, qu’ils soient culturels ou non, et même notre consommation de l’autre, s’est rétrécie sensiblement depuis les deux dernières décennies et les indicateurs suggèrent que ce processus n’est pas une tendance, mais plutôt une nouvelle manière d’éprouver la vie et de connaître les autres. Ainsi les marqueurs qui forment nos frontières externes, aussi bien que ces marqueurs qui nous définissent de l’intérieur, exigent un examen minutieux de ces enjeux inter(trans)culturels, surtout si nous souhaitons nous en tenir avec succès à des langues et des codes culturels présents, tout en favorisant la diversité culturelle et linguistique. MOTS-CLÉS : identification hybride, mouvement ouvert, alternance de code linguistique, négociation des espaces, tensions, connectivité créative
Resumo:
Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
Dans ma thèse, je me sers de modèles de recherche solides pour répondre à des questions importantes de politique publique. Mon premier chapitre évalue l’impact causal de l’allégeance partisane (républicain ou démocrate) des gouverneurs américains sur le marché du travail. Dans ce chapitre, je combine les élections des gouverneurs avec les données du March CPS pour les années fiscales 1977 à 2008. En utilisant un modèle de régression par discontinuité, je trouve que les gouverneurs démocrates sont associés à de plus faibles revenus individuels moyens. Je mets en évidence que cela est entrainée par un changement dans la composition de la main-d’oeuvre à la suite d’une augmentation de l’emploi des travailleurs à revenus faibles et moyens. Je trouve que les gouverneurs démocrates provoquent une augmentation de l’emploi des noirs et de leurs heures travaillées. Ces résultats conduisent à une réduction de l’écart salarial entre les travailleurs noir et blanc. Mon deuxième chapitre étudie l’impact causal des fusillades qui se produisent dans les écoles secondaires américaines sur les performances des éléves et les résultats des écoles tels que les effectifs et le nombre d’enseignants recruté, a l’aide d’une stratégie de différence-en-différence. Le chapitre est coécrit avec Dongwoo Kim. Nous constatons que les fusillades dans les écoles réduisent significativement l’effectif des élèves de 9e année, la proportion d’élèves ayant un niveau adéquat en anglais et en mathématiques. Nous examinons aussi l’effet hétérogene des tueries dans les écoles secondaires entre les crimes et les suicides. Nous trouvons que les fusillades de natures criminelles provoquent la diminution du nombre d’inscriptions et de la proportion d’élèves adéquats en anglais et mathématiques. En utilisant des données sur les élèves en Californie, nous confirmons qu’une partie de l’effet sur la performance des élèves provient des étudiants inscrits et ce n’est pas uniquement un effet de composition. Mon troisième chapitre étudie l’impact des cellulaires sur la performance scolaire des élèves. Le chapitre est coécrit avec Richard Murphy. Dans ce chapitre, nous combinons une base de données unique contenant les politiques de téléphonie mobile des écoles obtenues à partir d’une enquète auprès des écoles dans quatre villes en Angleterre avec des données administratives sur la performance scolaire des éleves. Nous étudions ainsi l’impact de l’introduction d’une interdiction de téléphonie mobile sur le rendement des éleves. Nos résultats indiquent qu’il y a une augmentation du rendement des éleves après l’instauration de l’interdiction des cellulaires à l’école, ce qui suggère que les téléphones mobiles sont sources de distraction pour l’apprentissage et l’introduction d’une interdiction à l’école limite ce problème.
Resumo:
L’amour, la mort et la souffrance sont parmi les expériences les plus incompréhensibles que l’homme doit affronter dans sa vie. Elles définissent sa nature et font partie intégrante de son univers symbolique. Le saut de Leucade aurait été pratiqué pendant plus de mille ans. À la fois présent dans les récits mythiques, religieux et historiques, le rituel est attesté par les premiers historiens de l’Antiquité qui décrivent ce phénomène à partir des données de l’historiographie antique. La forme traditionnelle du saut s’inscrit dans l’univers mythologique des Grecs et le plongeon est un acte de délivrance de la passion amoureuse. La nature du rituel change selon les contextes littéraires, passant d’un rite érotique à un rituel apotropaïque pour se voir perpétuer de manière désacralisée dans les récits plus tardifs. L’analyse des différentes fonctions du saut semble démontrer le profil d’une expérience limite, où la mort serait vécue de manière métaphorique et pose le problème de la nature ordalique du rituel qui serait à la base de son efficacité pragmatique. Cette étude projette d’analyser les formes de la pensée grecque dans son expression anthropologique à travers la dialectique du mythe et du rite et vise à comprendre l’interprétation de la souffrance amoureuse dans le cadre du rituel de précipitation. Le saut de Leucade serait dès lors un discours spécifique qui témoignerait d’une certaine conception de la nature humaine, de la mort et de la souffrance amoureuse dans l’imaginaire de la Grèce ancienne.
Resumo:
Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.
Resumo:
Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.
Resumo:
La dégénérescence articulaire sévère de la hanche est une pathologie fréquente et son traitement ultime est le remplacement prothétique. L’arthroplastie la plus répandue au monde est la prothèse totale de hanche (PTH) avec un couple de frottement métal-sur-polyéthylène (MPE). Cependant ce type d’intervention présente une longévité limitée à cause de l’usure de PE et ne convient pas aux patients actifs souffrant de coxarthrose sévère tôt dans leur vie. Afin de palier à ce problème, une nouvelle génération de surfaces de frottement métal-sur-métal (MM) est actuellement employée. Ces surfaces de frottement sont utilisées en PTH avec tête de 28 mm, en resurfaçage (RH) et avec la PTH à tête de grand diamètre. Alors qu’il y a beaucoup d’évidence à l’égard du bon fonctionnement des implants PTH 28 mm et du RH, les données quant aux performances in vivo des PTH MM à grand diamètre manquent. Malgré cela, ces implants sont utilisés à grande échelle. Dans un premier temps, l’objectif de ce travail de recherche était d’évaluer l’effet et de comparer les taux d’ions chrome (Cr) et cobalt (Co) chez des sujets porteurs de PTH MM à grand diamètre à ceux de 64 porteurs de RH, tous deux possédant des surfaces de frottement aux propriétés tribologiques identiques. Dans un deuxième temps, nous avons comparé les taux ioniques (Cr, Co et titane (Ti)) entre quatre PTH MM à grand diamètre provenant de fabricants différents (Zimmer, DePuy, Smith & Nephew et Biomet). Les mesures d’ions étaient effectuées dans le sang entier dans un laboratoire indépendant par la technique de spectrophotométrie de masse à haute résolution HR-ICP-MS, pour l’ensemble de ce travail de recherche. Les deux comparaisons ont démontré le rôle crucial joué par la modularité au niveau de la jonction tête-col des PTH MM à grand diamètre. En effet, des écarts considérables dans les concentrations ioniques de Co ont été retrouvés entre les RH et PTH Durom ayant un couple de frottement identique, ainsi qu’entre les 4 différents designs de PTH MM à grand diamètre comparés entre eux. La PTH MM à grand diamètre Durom était la moins favorable alors que celle de Biomet était la plus performante. Nos observations démontrent que des sources inattendues comme la jonction tête-col de certains implants PTH MM à grand diamètre peuvent contribuer au relargage ionique systémique. Une meilleure compréhension de ce phénomène est indispensable avant l’utilisation clinque de nouveaux implants de ce type.