509 resultados para Règle Majorité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1947, après l’obtention de l’indépendance, l’Inde est devenue une république séculière et démocratique proposant ainsi une nouvelle organisation de la société. Sans faire l’unanimité, des lois familiales différenciées selon l’identité religieuse ainsi que des droits socioéconomiques associés à l’appartenance à un groupe ont été reconnus par l’État. Dans le climat politique des années 90, le secularism et les droits de groupe ont été le sujet de débats. À partir d’une considération du contexte sociohistorique, cette recherche porte sur les manières de se représenter la laïcité indienne et sur ses rapports potentiels avec des lois différenciées selon l’appartenance religieuse. À travers la notion d’égalité, cette recherche explore les droits et les devoirs associés à la juste approche de la diversité religieuse en Inde indépendante. Une attention particulière est accordée à la période contemporaine et aux droits des Indiens musulmans. Dans cette recherche, les représentations juridiques qui se dégagent de l’analyse des débats publics et intellectuels sont mises en parallèle avec les points de vue de dix-sept répondants de la classe moyenne de Kolkata (été 2011). À travers cette démarche, cette analyse du discours informe sur les conceptions du secularism débattues en Inde indépendante et dans la période contemporaine. Parallèlement à un accent mis sur l’amour de la diversité, les droits individuels, les devoirs et l’auto régulation, les droits différenciés pour les musulmans sont, pour la majorité des répondants, rejetés. Deux approches de l’État sont soulevées dans les définitions du secularism, une version plus dirigiste et l’autre laissant plus de souveraineté aux groupes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est d’expliquer la délinquance prolifique de certains délinquants. Nous avançons la thèse que la délinquance prolifique s’explique par la formation plus fréquente de situations criminogènes. Ces situations réfèrent au moment où un délinquant entre en interaction avec une opportunité criminelle dans un contexte favorable au crime. Plus exactement, il s’agit du moment où le délinquant fait face à cette opportunité, mais où le crime n’a pas encore été commis. La formation de situations criminogènes est facilitée par l’interaction et l’interdépendance de trois éléments : la propension à la délinquance de la personne, son entourage criminalisé et son style de vie. Ainsi, la délinquance prolifique ne pourrait être expliquée adéquatement sans tenir compte de l’interaction entre le risque individuel et le risque contextuel. L’objectif général de la présente thèse est de faire la démonstration de l’importance d’une modélisation interactionnelle entre le risque individuel et le risque contextuel afin d’expliquer la délinquance plus prolifique de certains contrevenants. Pour ce faire, 155 contrevenants placés sous la responsabilité de deux établissements des Services correctionnels du Québec et de quatre centres jeunesse du Québec ont complété un protocole d’évaluation par questionnaires auto-administrés. Dans un premier temps (chapitre trois), nous avons décrit et comparé la nature de la délinquance autorévélée des contrevenants de notre échantillon. Ce premier chapitre de résultats a permis de mettre en valeur le fait que ce bassin de contrevenants est similaire à d’autres échantillons de délinquants en ce qui a trait à la nature de leur délinquance, plus particulièrement, au volume, à la variété et à la gravité de leurs crimes. En effet, la majorité des participants rapportent un volume faible de crimes contre la personne et contre les biens alors qu’un petit groupe se démarque par un lambda très élevé (13,1 % des délinquants de l’échantillon sont responsables de 60,3% de tous les crimes rapportés). Environ quatre délinquants sur cinq rapportent avoir commis au moins un crime contre la personne et un crime contre les biens. De plus, plus de 50% de ces derniers rapportent dans au moins quatre sous-catégories. Finalement, bien que les délinquants de notre échantillon aient un IGC (indice de gravité de la criminalité) moyen relativement faible (médiane = 77), près de 40% des contrevenants rapportent avoir commis au moins un des deux crimes les plus graves recensés dans cette étude (décharger une arme et vol qualifié). Le second objectif spécifique était d’explorer, au chapitre quatre, l’interaction entre les caractéristiques personnelles, l’entourage et le style de vie des délinquants dans la formation de situations criminogènes. Les personnes ayant une propension à la délinquance plus élevée semblent avoir tendance à être davantage entourées de personnes criminalisées et à avoir un style de vie plus oisif. L’entourage criminalisé semble également influencer le style de vie de ces délinquants. Ainsi, l’interdépendance entre ces trois éléments facilite la formation plus fréquente de situations criminogènes et crée une conjoncture propice à l’émergence de la délinquance prolifique. Le dernier objectif spécifique de la thèse, qui a été couvert dans le chapitre cinq, était d’analyser l’impact de la formation de situations criminogènes sur la nature de la délinquance. Les analyses de régression linéaires multiples et les arbres de régression ont permis de souligner la contribution des caractéristiques personnelles, de l’entourage et du style de vie dans l’explication de la nature de la délinquance. D’un côté, les analyses de régression (modèles additifs) suggèrent que l’ensemble des éléments favorisant la formation de situations criminogènes apporte une contribution unique à l’explication de la délinquance. D’un autre côté, les arbres de régression nous ont permis de mieux comprendre l’interaction entre les éléments dans l’explication de la délinquance prolifique. En effet, un positionnement plus faible sur certains éléments peut être compensé par un positionnement plus élevé sur d’autres. De plus, l’accumulation d’éléments favorisant la formation de situations criminogènes ne se fait pas de façon linéaire. Ces conclusions sont appuyées sur des proportions de variance expliquée plus élevées que celles des régressions linéaires multiples. En conclusion, mettre l’accent que sur un seul élément (la personne et sa propension à la délinquance ou le contexte et ses opportunités) ou leur combinaison de façon simplement additive ne permet pas de rendre justice à la complexité de l’émergence de la délinquance prolifique. En mettant à l’épreuve empiriquement cette idée généralement admise, cette thèse permet donc de souligner l’importance de considérer l’interaction entre le risque individuel et le risque contextuel dans l’explication de la délinquance prolifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche propose une analyse qualitative du contenu de signalements retenus à la protection de la jeunesse et leur évaluation pour des enfants de minorités visibles. Les premiers objectifs de cette recherche sont de décrire les deux premières étapes de l’intervention en protection de la jeunesse, soit la réception du signalement et l’évaluation du besoin de protection. Par la suite, elle vise l’élaboration d’une typologie de familles de minorités visibles signalées à la protection de la jeunesse. Une analyse qualitative de contenu est conduite en utilisant une grille d’analyse des dossiers de 48 situations d’enfants signalés à la protection de la jeunesse. Il s’agit d’une analyse secondaire de données d’une étude plus large portant sur l’intervention en protection de la jeunesse auprès de familles de minorités visibles. Les résultats de la présente étude montrent que les informations consignées aux dossiers par les intervenants respectent les dimensions légales du jugement sur la compromission du développement ou de la sécurité d’un enfant. Toutefois, l’absence d’éléments ethnoculturels dans la majorité des dossiers, ou leur traitement superficiel, sont surprenants. La typologie découlant de cette analyse décrit quatre profils présentant des dynamiques familiales distinctes : les familles traversant une crise, les familles qui abdiquent leur rôle parental, les familles isolées et les familles éclatées. Ces résultats rendent compte de la diversité des dynamiques familiales et par conséquent, des besoins de ces familles quant aux interventions des services de protection. Enfin, étant donné l’importance de l’évaluation et de ses conclusions dans la trajectoire de ces familles à l’égard de la DPJ, l’intégration des éléments ethnoculturels devrait être systématique afin de leur offrir une réponse adaptée et culturellement sensible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récit Moi, l’interdite, se présente comme une exception parmi les œuvres d’Ananda Devi en ce qu’il n’aborde pas de front ni implicitement le thème de la dissidence féminine, comme nous pouvons l’observer dans la plus grande majorité des œuvres de l’auteure mauricienne. Au contraire, le récit s’évertue à mettre en place un processus singulier : celui d’une disparition, perpétré contre la narratrice et protagoniste principale, condamnée à être l’éternel Autre à cause de son physique monstrueux. La présente étude se donne pour objectif d’exposer les rouages à la fois narratifs, thématiques, corporels et relationnels de cet anéantissement de l’Autre à travers une approche essentiellement narratologique. Dans un premier temps, l’entreprise de disparition est observée à travers plusieurs procédés narratifs : complexité chronologique, enchâssement de plusieurs niveaux de récit, abondance de narrataires. Dans un second temps, le thème de la disparition est questionné dans les relations aliénantes nouées par la narratrice, dont le corps difforme est le principal enjeu. De cette volonté de destruction (re)nait et (re)meurt une narratrice, malade de folie, dont les séquelles incurables l’empêcheront de réaliser son désir d’appartenance à un Même fantasmé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les historiens qui se sont consacrés à l’étude de l’Allemagne contemporaine, plusieurs considèrent qu’en perpétrant un crime aussi barbare que la Shoah, le Troisième Reich a provoqué une « rupture de civilisation » (Zivilisationsbruch) au sein de l’histoire occidentale. En règle générale, ces spécialistes ont réfléchi sur le sens ainsi que sur les implications historiques et philosophiques de cet événement pour le monde contemporain. Peu d’entre eux, toutefois, se sont intéressés au pendant de cette « rupture de civilisation » : le processus de « recivilisation » qui a été à l’œuvre dans la société ouest-allemande au cours des premières décennies d’après-guerre. Caractérisé par le rejet de la violence et du militarisme, par la restauration des normes élémentaires de la civilité ainsi que par l’importance croissante accordée à des valeurs telles que la démocratie et le respect des droits de la personne, ce processus permet en grande partie d’expliquer comment, en à peine deux décennies, les Allemands de l’Ouest ont réussi à édifier un État stable et démocratique sur les ruines d’une dictature génocidaire. En étudiant la présentation du Décalogue dans les catéchismes catholiques, ce mémoire cherche à déterminer le rôle attribué aux prescriptions morales de nature religieuse dans le processus de « recivilisation » de la société ouest-allemande. Il se propose de montrer qu’au cours des années 1950 et 1960, les catéchismes catholiques publiés en RFA ont présenté de plus en plus d’indices d’une volonté que l’on pourrait qualifier de « recivilisatrice ». Ces indices ont surtout pris la forme d’une attention grandissante aux questions relatives à la guerre et à la paix, d’un assouplissement dans la présentation de l’autorité parentale et de l’adoption d’une conception de l’autorité civile fondée désormais sur l’accomplissement de devoirs civiques plutôt que sur l’obéissance aux supérieurs hiérarchiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude porte sur l’analyse de l’identité, en termes de fonction, des monuments érigés sous tumulus dans le territoire actuel de la Bulgarie. Ces monuments sont généralement datés du Ve au IIIe siècle avant notre ère et ont été associés aux peuples thraces qui ont évolué sur ce territoire durant cette époque. Les monuments thraces sous tumulus, aux structures en blocs de pierre ou en moellons, ou d’un mélange de matériaux et de techniques différentes, ont été invariablement recouverts de monticules de terre dès l’Antiquité. Les tumuli ainsi obtenus ont été utilisés à différentes fins par les peuples locaux jusqu’à l’époque moderne. Les études plus ou moins détaillées des monuments thraces sous tumulus, qui ont débuté dès la fin du XIXe siècle de notre ère, ainsi que l’accumulation rapide de nouveaux exemplaires durant les deux dernières décennies, ont permis de constater une grande variabilité de formes architecturales en ce qui a trait aux différentes composantes de ces constructions. Cette variabilité a poussé certains chercheurs à proposer des typologies des monuments afin de permettre une meilleure maîtrise des données, mais aussi dans le but d’appuyer des hypothèses portant sur les origines des différents types de constructions sous tumulus, ou sur les origines des différentes formes architectoniques identifiées dans leurs structures. Des hypothèses portant sur la fonction de ces monuments, à savoir, sur l’usage qu’en ont fait les peuples thraces antiques, ont également été émises : certains chercheurs ont argumenté pour un usage funéraire, d’autres pour une fonction cultuelle. Un débat de plus en plus vif s’est développé durant les deux dernières décennies entre chercheurs de l’un et de l’autre camp intellectuel. Il a été constamment alimenté par de nouvelles découvertes sur le terrain, ainsi que par la multiplication des publications portant sur les monuments thraces sous tumulus. Il est, de ce fait, étonnant de constater que ni les hypothèses portant sur les origines possibles de ces constructions, ni celles ayant trait à leurs fonctions, n’ont été basées sur des données tangibles – situation qui a eu pour résultat la désignation des monuments thraces par « tombes-temples-mausolées », étiquette chargée sinon d’un sens précis, du moins d’une certaine connotation, à laquelle le terme « hérôon » a été ajouté relativement récemment. Notre étude propose de dresser un tableau actuel des recherches portant sur les monuments thraces sous tumulus, ainsi que d’analyser les détails de ce tableau, non pas dans le but de trancher en faveur de l’une ou de l’autre des hypothèses mentionnées, mais afin d’expliquer les origines et la nature des problèmes que les recherches portant sur ces monuments ont non seulement identifiés, mais ont également créés. Soulignant un fait déjà noté par plusieurs chercheurs-thracologues, celui du manque frappant de données archéologiques exactes et précises dans la grande majorité des publications des monuments thraces, nous avons décidé d’éviter la tendance optimiste qui persiste dans les études de ces derniers et qui consiste à baser toute analyse sur le plus grand nombre de trouvailles possible dans l’espoir de dresser un portrait « complet » du contexte archéologique immédiat des monuments ; portrait qui permettrait au chercheur de puiser les réponses qui en émergeraient automatiquement, puisqu’il fournirait les éléments nécessaires pour placer l’objet de l’analyse – les monuments – dans un contexte historique précis, reconstitué séparément. Ce manque de données précises nous a porté à concentrer notre analyse sur les publications portant sur les monuments, ainsi qu’à proposer une approche théoriquement informée de l’étude de ces derniers, en nous fondant sur les discussions actuelles portant sur les méthodes et techniques des domaines de l’archéologie, de l’anthropologie et de l’histoire – approche étayée dans la première partie de cette thèse. Les éléments archéologiques (avant tout architecturaux) qui ont servi de base aux différentes hypothèses portant sur les constructions monumentales thraces sont décrits et analysés dans le deuxième volet de notre étude. Sur la base de cette analyse, et en employant la méthodologie décrite et argumentée dans le premier volet de notre thèse, nous remettons en question les différentes hypothèses ayant trait à l’identité des monuments. L’approche de l’étude des monuments thraces sous tumulus que nous avons adoptée tient compte tant de l’aspect méthodologique des recherches portant sur ceux-ci, que des données sur lesquelles les hypothèses présentées dans ces recherches ont été basées. Nous avons porté une attention particulière à deux aspects différents de ces recherches : celui du vocabulaire technique et théorique implicitement ou explicitement employé par les spécialistes et celui de la façon dont la perception de l’identité des monuments thraces a été affectée par l’emploi de ce vocabulaire. Ces analyses nous ont permis de reconstituer, dans le dernier volet de la présente étude, l’identité des monuments thraces telle qu’implicitement ou explicitement perçue par les thracologues et de comparer cette restitution à celle que nous proposons sur la base de nos propres études et observations. À son tour, cette comparaison des restitutions des différentes fonctions des monuments permet de conclure que celle optant pour une fonction funéraire, telle que nous la reconstituons dans cette thèse, est plus économe en inférences et mieux argumentée que celle identifiant les monuments thraces de lieux de culte. Cependant, l’impossibilité de réfuter complètement l’hypothèse des « tombes-temples » (notamment en raison du manque de données), ainsi que certains indices que nous avons repérés dans le contexte architectural et archéologique des monuments et qui pourraient supporter des interprétations allant dans le sens d’une telle identification de ces derniers, imposent, d’après nous, la réévaluation de la fonction des constructions thraces sous tumulus sur la base d’une restitution complète des pratiques cultuelles thraces d’après les données archéologiques plutôt que sur la base d’extrapolations à partir des textes grecs anciens. À notre connaissance, une telle restitution n’a pas encore été faite. De plus, le résultat de notre analyse des données archéologiques ayant trait aux monuments thraces sous tumulus, ainsi que des hypothèses et, plus généralement, des publications portant sur les origines et les fonctions de ces monuments, nous ont permis de constater que : 1) aucune des hypothèses en question ne peut être validée en raison de leur recours démesuré à des extrapolations non argumentées (que nous appelons des « sauts d’inférence ») ; 2) le manque flagrant de données ou, plus généralement, de contextes archéologiques précis et complets ne permet ni l’élaboration de ces hypothèses trop complexes, ni leur validation, justifiant notre approche théorique et méthodologique tant des monuments en question, que des études publiées de ceux-ci ; 3) le niveau actuel des connaissances et l’application rigoureuse d’une méthodologie d’analyse permettent d’argumenter en faveur de la réconciliation des hypothèses « funéraires » et « cultuelles » – fait qui ne justifie pas l’emploi d’étiquettes composites comme « templestombes », ni les conclusions sur lesquelles ces étiquettes sont basées ; 4) il y a besoin urgent dans le domaine de l’étude des monuments thraces d’une redéfinition des approches méthodologiques, tant dans les analyses théoriques des données que dans le travail sur le terrain – à défaut de procéder à une telle redéfinition, l’identité des monuments thraces sous tumulus demeurera une question d’opinion et risque de se transformer rapidement en une question de dogmatisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation grandissante de l’attention portée dans les études sur la masculinité tant à la littérature féminine qu’à ses auteurs incite les chercheurs à se pencher de nouveau sur l’icône qu’est le gentilhomme, sur la réponse qu’offre la littérature du XVIIIe siècle face à cette idéalisation de la masculinité, et comment ces standards ont contribué à façonner nos propres perceptions des différenciations des rôles sexuels. Ce mémoire présente une analyse des personnages masculins des romans de Jane Austen, Emma, Persuasion et Mansfield Park, à travers le concept de « masculinité hégémonique » de R.W. Connell, concept qui a eu un impact certain dans les recherches retraçant comment l’histoire et l’hégémonie ont fabriqué les attentes sociales et nationales envers l’homme anglais. Les livres expliquant la conduite à avoir pour être un gentilhomme viril ont sans aucun doute perpétué ces idéaux. À travers l’étude de la politesse, de la sincérité et de l’héroïsme, perpétuellement renouvelés afin de correspondre aux nouveaux idéaux de la masculinité, cette thèse étudie les livres éducatifs influents, notamment de Locke, Knox et Secker, afin de comprendre de quelle façon la masculinité hégémonique est devenue une partie intégrante du discours et de l’éducation à l’époque de la Régence anglaise. Les œuvres d’Austen ne cesse de rappeler la vulnérabilité de l’hégémonie en rappelant constamment au lecteur l’importance des expériences et de la croissance personnelle, et ce, peu importe le sexe. Néanmoins, ses romans correspondent tout de même à ce que devrait être une éducation appropriée reposant sur les règle de conduite, l’autonomie, le travail et la sincérité; lesquels, tel que l’histoire analysée dans ce mémoire le démontrera, appartiennent également aux idéaux du nationalisme anglais et de la masculinité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: L'utilisation de suppléments alimentaires est répandue chez les populations américaines et canadiennes en général, mais on en sait peu sur la consommation de suppléments alimentaires dans la population autochtone canadienne. Objectif: L'objectif général de cette étude est de prendre en compte l'utilisation de suppléments alimentaires dans l'évaluation nutritionnelle des apports alimentaires des adultes des Premières nations vivant dans les réserves en Colombie-Britannique et Manitoba. Conception: Les données ont été recueillies par l’étude ‘First Nations Food, Nutrition, and Environment Study’ de 1103 (Colombie-Britannique) et 706 (Manitoba) adultes des Premières Nations âgés de 19 à 70 ans. L'étude a utilisé un rappel alimentaire des dernières 24 heures (avec un deuxième rappel pour un sous-échantillon) pour évaluer la diète alimentaire. L'utilisation de suppléments alimentaires et des antiacides ont été recueillis par un questionnaire de fréquence. En utilisant le logiciel SIDE pour tenir compte des variations intra-individuelles dans la prise alimentaire et la technique du bootstrap pour obtenir des estimations représentatives des différentes régions, l'utilisation de suppléments de la vitamine A, D, C et de calcium ont été intégrées aux estimations de la consommation alimentaire. Résultats: Environ 30% des adultes des Premières Nations de la Colombie-Britannique et seulement 13,2% des adultes des Premières Nations du Manitoba âgés entre 19-70 ans vivant dans les réserves ont déclaré utiliser au moins un supplément alimentaire durant les 30 jours précédents. Lors de l'examen des nutriments d'intérêt, un plus faible pourcentage de la population en a fait usage, de 14,8 à 18,5% en Colombie-Britannique et de 4,9 à 8% de la population du Manitoba. La prévalence de l'usage de tout supplément alimentaire était plus élevée chez les femmes que chez les hommes dans tous les groupes d'âge et augmente avec l'âge dans les deux sexes. La plus forte prévalence d'un apport insuffisant provenant de la nourriture a été observée pour la vitamine D et le calcium en Colombie-Britannique et Manitoba, variant de 75 à 100%, et de la vitamine A dans le Manitoba (73-96%). Après avoir examiné l'utilisation de suppléments alimentaires, plus des trois quarts des participants n’ont toujours pas réussi à répondre au besoin moyen estimatif pour ces nutriments. La vitamine C est l'oligo-élément avec le plus faible pourcentage sous le besoin moyen estimatif (avec au sans suppléments) pour la Colombie-Britannique et le Manitoba. Conclusion: La majorité des adultes des Premières nations de la Colombie-Britannique et du Manitoba, même après prise en compte de l'utilisation de suppléments alimentaires, avaient des apports en vitamines A, D et des apports de calcium sous les niveaux recommandés. L'utilisation de compléments alimentaires n'a pas contribué de façon significative à l'apport total en nutriments sélectionnés sauf pour la vitamine C dans certains groupes d'âge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le facteur de transcription IIH (TFIIH) joue un rôle crucial dans la transcription et dans la réparation de l’ADN. La sous-unité Tfb1/p62 (levure et humain) de TFIIH interagit avec de nombreux facteurs de transcription (p53, NFκB, TFIIEα) et de réparation (Rad2/XPG and Rad4/XPC) (1). La majorité des interactions avec Tfb1/p62 requiert le domaine d’homologie à la Pleckstrin (PH) localisé dans la région N-terminal de la protéine (2, 3). Ce domaine PH forme des complexes avec des domaines de transactivation acide provenant de protéines cibles impliquées dans la transcription et la réparation de l’ADN. De récentes études ont montré que Tfb1/p62 est une cible pour les protéines virales telles que la protéine VP16 du virus de l’herpès simplex (HSV) de type 1, la protéine E1 du virus du papillome humain (VPH) et la protéine EBNA-2 du virus Epstein-Barr (EBV) (4, 5). Ces protéines virales interagissent avec la sous-unité Tfb1/p62 par un domaine de transactivation acide suggérant une interaction similaire à ce qui est observé chez les facteurs de transcription humains comme p53. Ce mémoire présente une caractérisation structurelle et fonctionnelle du complexe formé par la protéine virale EBNA2 et la protéine humaine Tfb1/p62. L’analyse est faite en utilisant le titrage calorimétrique isotherme (ITC), la résonance magnétique nucléaire (RMN) et une expérience de transactivation chez la levure. Cette étude amène une plus grande compréhension des protéines impliquées dans les maladies comme le lymphome de Burkitt et le lymphome de Hodgkin qui sont souvent associées à l’infection à l’EBV (revue dans (6)) et caractérise une cible potentielle pour un antiviral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche, de type exploratoire et descriptif, s’intéresse à l’expérience et au point de vue des parents à l’égard de l’implication directe de leurs enfants en médiation familiale. La méthodologie privilégiée pour réaliser cette étude est qualitative, et la perspective théorique utilisée est la phénoménologie. L’échantillon est constitué de huit parents, tous ayant participé à une entrevue semi-dirigée au sujet de l’implication de leurs enfants dans le processus de médiation familiale. Les données ont été recueillies entre le mois de mai et octobre 2013, et ont été analysées en s’appuyant sur la méthode d’analyse de contenu telle que proposée par L’Écuyer (1990) ainsi que Mayer et Deslauriers (2000). Il ressort de cette recherche que l’implication directe des enfants en médiation familiale a une influence considérable sur le processus. En effet, la majorité des participants de la présente étude ont rapporté que l’implication de leurs enfants a été déterminante afin de conclure une entente au sujet du partage des responsabilités parentales. Aussi, les résultats suggèrent que la majorité des participants ont vécu de manière positive la participation de leurs enfants et sont satisfaits des retombées de l’implication. Par contre, quelques parents ont vécu de manière négative cette expérience. De tels résultats mettent en lumière les limites et risques liés à l’implication directe des enfants en médiation familiale. De plus, les modalités d’implication choisies par les médiateurs familiaux semblent avoir influencé le vécu des parents et de leurs enfants dans le processus. Les résultats donnent également accès à la perception des parents au sujet du vécu de leurs enfants avant, pendant et après le processus d’implication. Une suggestion qui émane de cette recherche est que l’enfant, bien qu’amené à prendre parole dans la médiation familiale, ne doit pas être tenu responsable d’une décision liée au partage des responsabilités parentales. Les conclusions de ce mémoire alimentent une stratégie en médiation familiale qui est peu documentée à partir de l’expérience et du point de vue des parents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi l’ensemble des désordres métaboliques retrouvés en insuffisance rénale chronique (IRC), la résistance à l’insuline demeure l’un des plus importantes à considérer en raison des risques de morbidité et de mortalité qu’elle engendre via les complications cardiovasculaires. Peu d’études ont considéré la modulation de transporteurs de glucose comme mécanisme sous-jacent à l’apparition et à la progression de la résistance à l’insuline en IRC. Nous avons exploré cette hypothèse en étudiant l’expression de transporteurs de glucose issus d’organes impliqués dans son homéostasie (muscles, tissus adipeux, foie et reins) via l’utilisation d’un modèle animal d’IRC (néphrectomie 5/6e). La sensibilité à l’insuline a été déterminée par un test de tolérance au glucose (GTT), où les résultats reflètent une intolérance au glucose et une hyperinsulinémie, et par les études de transport au niveau musculaire qui témoignent d’une diminution du métabolisme du glucose en IRC (~31%; p<0,05). La diminution significative du GLUT4 dans les tissus périphériques (~40%; p<0,001) peut être à l’origine de la résistance à l’insuline en IRC. De plus, l’augmentation de l’expression protéique de la majorité des transporteurs de glucose (SGLT1, SGLT2, GLUT1; p<0,05) au niveau rénal en IRC engendre une plus grande réabsorption de glucose dont l’hyperglycémie subséquente favorise une diminution du GLUT4 exacerbant ainsi la résistance à l’insuline. L’élévation des niveaux protéiques de GLUT1 et GLUT2 au niveau hépatique témoigne d’un défaut homéostatique du glucose en IRC. Les résultats jusqu’ici démontrent que la modulation de l’expression des transporteurs de glucose peut être à l’origine de la résistance à l’insuline en IRC. L’impact de la parathyroïdectomie (PTX) sur l’expression du GLUT4 a été étudié étant donné que la PTX pourrait corriger l’intolérance au glucose en IRC. Nos résultats démontrent une amélioration de l’intolérance au glucose pouvant être attribuable à la moins grande réduction de l’expression protéique du GLUT4 dans les tissus périphériques et ce malgré la présence d’IRC. L’excès de PTH, secondaire à l’hyperparathyroïdie, pourrait alors être à l’origine de la résistance à l’insuline en IRC en affectant l’expression du GLUT4. L’IRC partage de nombreuses similitudes avec le prédiabète quant aux défaillances du métabolisme du glucose tout comme l’hyperinsulinémie et l’intolérance au glucose. Aucune étude n’a tenté d’évaluer si l’IRC pouvait ultimement mener au diabète. Nos résultats ont par ailleurs démontré que l’induction d’une IRC sur un modèle animal prédisposé (rats Zucker) engendrait une accentuation de leur intolérance au glucose tel que constaté par les plus hautes glycémies atteintes lors du GTT. De plus, certains d’entre eux avaient des glycémies à jeun dont les valeurs surpassent les 25 mmol/L. Il est alors possible que l’IRC puisse mener au diabète via l’évolution de la résistance à l’insuline par l’aggravation de l’intolérance au glucose.