797 resultados para Recours effectif
Enseignement et sensibilisation à l’aide ambulatoire aux proches aidants de la clientèle gériatrique
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Le diabète auto-immun résulte de la destruction des cellules bêta pancréatiques sécrétrices d’insuline par les lymphocytes T du système immunitaire. Il s’ensuit une déficience hormonale qui peut être comblée par des injections quotidiennes d’insuline d’origine exogène, toutefois il demeure à ce jour impossible de guérir les patients atteints de la maladie. De façon générale, un système immunitaire sain reconnaît une multitude d’antigènes différents et assure ainsi notre défense à l’égard de différents pathogènes ou encore de cellules tumorales. Il arrive cependant que, pour des raisons génétiques et/ou environnementales, les lymphocytes T puissent s’activer de façon aberrante suite à la reconnaissance d’antigènes provenant du soi. C’est ce bris de tolérance qui mène au développement de pathologies auto-immunes telles que le diabète auto-immun. Afin de limiter l’auto-immunité, des mécanismes de sélection stricts permettent d’éliminer la majorité des lymphocytes T présentant une forte affinité envers des antigènes du soi lors de leur développement dans le thymus. Certains de ces lymphocytes réussissent toutefois à échapper à l’apoptose et migrent en périphérie afin d’y circuler en quête d’un antigène spécifiquement reconnu. Il est alors primordial que des mécanismes périphériques assurent le maintien de la tolérance immunitaire en faisant obstacle à l’activation et à la prolifération des lymphocytes T auto-réactifs. L’une des avenues afin d’inhiber le développement de réponses immunitaires aberrantes est la génération de lymphocytes T régulateurs. Ces cellules, d’origine thymique ou périphérique, peuvent arborer différents phénotypes et agissent via de multiples mécanismes afin d’inactiver et/ou éliminer les cellules impliquées dans l’apparition de pathologies auto-immunes. L’utilisation de modèles murins transgéniques a permis la mise en évidence d’une population peu caractérisée de lymphocytes T au potentiel régulateur. En effet, la proportion de ces cellules T n’exprimant pas les corécepteurs CD4 et CD8 (double négatives, DN) a été inversement corrélée à la prédisposition à l’auto-immunité chez ces ii souris. L’objectif principal de cette thèse est de démontrer la fonction immuno-régulatrice des lymphocytes T DN, tout en investiguant les facteurs génétiques responsables du maintien de cette population cellulaire. Nous avons observé que les lymphocytes T DN exercent une activité cytotoxique à l’égard des lymphocytes B de façon spécifique à l’antigène, via la libération de granules cytolytiques contenant du granzyme B et de la perforine. Par ailleurs, nous avons établi qu’un unique transfert adoptif de ces cellules est suffisant afin d’inhiber le développement du diabète auto-immun chez des hôtes transgéniques prédisposés à la maladie. Le recours à des souris déficientes pour l’expression du gène CD47 a permis de constater que la voie de signalisation CD47-Sirp est essentielle dans le maintien de la proportion des lymphocytes T DN. De plus, le locus murin de prédisposition au diabète auto-immun Idd13, qui contient le gène Sirp, a été identifié pour son rôle dans la régulation de la proportion de ces cellules. Finalement, une analyse génétique a révélé que d’autres intervalles génétiques sont impliqués dans le contrôle de la population des lymphocytes T DN. Parmi ceux-ci, un locus situé en région proximale du chromosome 12 a été validé grâce à la création de souris congéniques. Grâce aux résultats présentés dans cette thèse, notre compréhension de la biologie ainsi que de la régulation des lymphocytes T DN est approfondie. Ces connaissances constituent un pas important vers la création de thérapies cellulaires novatrices permettant de prévenir et de guérir diverses pathologies auto-immunes.
Resumo:
Dans un contexte social où se renégocie le contrat de genre, l’exploration des voies empruntées par les hommes pour (apprendre à) changer leur comportement, aussi bien que leurs croyances et leurs connaissances sur la masculinité, est particulièrement importante. Située dans le champ des études sur le genre masculin et de l’andragogie, l’étude explore le processus d’apprentissage d’adultes faisant partie du Réseau Hommes Québec (RHQ). En utilisant une méthodologie qualitative, des entretiens semi-dirigés ont été effectués auprès de 16 membres de cette organisation d’entraide visant la remise en question des rôles de genre traditionnels masculins et encourageant le développement personnel des hommes. Si la plupart des répondants n’ont pas transformé radicalement leur conception de la masculinité, qui demeure souvent abstraite, leur façon de se voir comme homme a changé radicalement. Les émotions et les relations ont joué un rôle prépondérant dans le développement d’une réflexion critique sur le genre, le leur comme celui des autres. Le plus souvent, ils ont eu le courage de sentir, d’être et d’agir de façon inédite avec d’autres hommes. Cela a représenté, pour pratiquement tous les répondants, une véritable révolution intérieure qui leur a fait prendre conscience qu’ils étaient sensibles, qu’ils avaient besoin d’autrui et qu’ils pouvaient approcher d’autres hommes sans que leur orientation (hétéro)sexuelle soit menacée. Cette thèse met également en perspective que le contexte de groupe est crucial dans l’évolution des hommes. La socialisation masculine inédite vécue dans le Réseau favorise chez tous les répondants la découverte de modèles de masculinité différents. En plus d’y vivre des occasions uniques de développer des compétences relationnelles, sociales et communicationnelles qui les rapprochent de leurs proches, les répondants éprouvent dans les groupes du RHQ un sentiment puissant de pouvoir partager de l’intimité masculine. Ce nouveau mode d’interaction s’appuie sur les règles de fonctionnement et les rituels en vigueur dans le Réseau. Ils mettent l’accent sur la nature personnelle et subjective de la communication, défiant en cela les préceptes de la masculinité traditionnelle. En mettant en évidence que les hommes développent une conscience critique permettant de reconnaître et de comprendre l’importance de la culture masculine hégémonique et son impact sur leur vie, cette recherche révèle le potentiel transformationnel des apprentissages effectués par les 16 répondants dans des groupes d’entraide du RHQ. De cette conscientisation résulte une nouvelle conceptualisation de ce que signifie être un homme qui mène les participants à se voir autrement, à croire en eux-mêmes et en leur capacité à prendre le contrôle de leur vie. Pour conclure cette thèse, quelques pistes de réflexion pour guider de futures recherches relatives à la transformation de perspective sont présentées. Il est notamment question, en plus d’avoir recours à des entretiens rétrospectifs semi-dirigés, de combiner les méthodologies qualitatives et quantitatives, de procéder à des observations systématiques des situations d’apprentissage (rencontres de groupe) et de ne pas se concentrer exclusivement sur ceux qui sont supposés vivre la transformation, mais d’élargir cette collecte à d’autres sources d’information (familles, collègues de travail, voisins, thérapeutes individuels), le tout dans une perspective longitudinale.
Resumo:
La recherche sur les questions touchant aux leaders de groupes sectaires et à la violence sectaire a mené à l’étude du rôle joué par l’autorité charismatique, tel que défini par Weber (1922) et repris par Dawson (2010). À ce sujet, d’éminents spécialistes des études sur les sectes sont d’avis qu’un vide important dans la recherche sur l’autorité charismatique dans le contexte de groupes sectaires et de nouveaux mouvements religieux reste à combler (ajouter les références ‘d’éminents spécialistes’). Ce mémoire vise à contribuer à l’étude cet aspect négligé, le rôle de l’autorité charismatique dans le recours è la violence dans les groupes sectaires, par une étude de cas historique d’un groupe de la Réformation protestante du XVIe siècle, le Royaume anabaptiste de Münster (AKA), sous l’influence d’un leader charismatique, Jan van Leiden. Cette recherche s’intéresse plus spécifiquement aux divers moyens utilisés par Jan van Leiden, pour asseoir son autorité charismatique et à ceux qui ont exercé une influence sur le recours à des actes de violence. L’étude de cas est basé sur le matériel provenant de deux comptes-rendus des faits relatés par des participants aux événements qui se sont déroulés à pendant le règne de Leiden à la tête du AKA. L’analyse du matériel recueilli a été réalisé à la lumière de trois concepts théoriques actuels concernant le comportement cultuel et le recours à la violence.. L’application de ces concepts théoriques a mené à l’identification de quatre principales stratégies utilisées par Jan van Leiden pour établir son autorité charismatique auprès de ses disciples, soit : 1) la menace du millénarisme, 2) l’exploitation d’une relation bilatérale parasitique avec ses disciples, 3) l’utilisation de l’extase religieuse et de la prophétie, 4) l’utilisation du désir de voir survenir des changements sociaux et religieux. En plus de ces quatre stratégies, trois autres dimensions ont été retenues comme signes que le recours à la violence dans le Royaume anabaptiste de Münster résultait de l’établissement de l’autorité charismatique de son leader, soit : 1) la violence liée au millénarisme, 2) la notion d’identité et de violence partagée, 3) des facteurs systémiques, physiques et culturels menant à la violence.
Resumo:
Par son recours à diverses formes d’expression, Unica Zürn (1916-1970) redynamise l’espace de la feuille en le faisant activement participer à l’écriture de soi. Le « je » semble en effet se démultiplier grâce à des jeux « anagrammatiques » sur les divers signes mobilisés, qu’ils soient alphabétiques, picturaux ou musicaux. L’autoreprésentation s’inscrit alors au sein d’une œuvre pluridisciplinaire inusitée, qui renouvelle l’esthétique quelque peu « essoufflée » du mouvement surréaliste. Cette attitude vis-à-vis de la feuille, où plusieurs signes « décomposables » et « recomposables » se partagent l’espace, est observable tant dans l’œuvre littéraire que picturale d’Unica Zürn. Le processus de création par la lettre, le trait et la note de musique, tend à revaloriser le support matériel utilisé par l’effacement des frontières entre les disciplines artistiques, qui appelle un regard distancié du lecteur/spectateur sur l’œuvre. Afin d’interpréter les travaux de Zürn dans la pluralité des moyens artistiques qui y sont déployés, l’approche intermédiale sera favorisée. Dans le premier chapitre de ce mémoire, il s’agira d’abord de voir comment s’articule un certain dialogue entre le discours des chercheurs de l’intermédialité et l’œuvre d’Unica Zürn. Le rapport à l’objet sera notre porte d’entrée dans la matière intermédiale. Par un retour à la matérialité de l’expérience médiatique, nous constaterons que Zürn met à l’avant-scène les instruments et supports de la création, ce qui mène à une représentation distorsionnée de soi, de l’espace et du temps. Une fois le parallèle établi entre les concepts de l’intermédialité et les travaux de Zürn, nous nous concentrerons sur le pan musical de l’œuvre pluridisciplinaire de l’auteure-artiste. Le second chapitre traitera de l’intrusion du sonore dans l’univers textuel, qui se fera notamment par la réappropriation de l’opéra Norma, de Vincenzo Bellini. Cette réécriture s’intitule Les jeux à deux et prend une distance considérable par rapport au texte originel. Elle s’accompagne de dessins effectués par l’auteure-artiste à même les partitions de l’opéra. Le regard multiple posé sur l’œuvre zürnienne permettra de comprendre que l’écriture palimpseste participe du processus d’autoreprésentation, tout en élaborant un discours sur la rencontre entre littérature, dessin et musique, ainsi que sur l’influence de cette juxtaposition sur le débordement des frontières médiatiques traditionnelles.
Resumo:
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.
Resumo:
Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.
Resumo:
L'étude de la formation d'une communauté épistémique québécoise en santé publique en ayant recours à l'interactionnisme-structural permet d'appréhender ce phénomène social sous l'angle d'une influence réciproque entre d'une part des acteurs sociaux interagissant entre-eux et d'autre part, des conceptualisations variées des objets de santé publique; ces éléments sociaux et sémantiques subissent des transformations simultanées. Notre étude démontre et illustre qu'au même moment où un réseau social de chercheurs prend forme, une thématique nouvelle prend place et rallie ces mêmes chercheurs, non pas seulement dans leurs relations sociales, mais dans les idées qu'ils manipulent lors de leur travail de production et de diffusion de connaissances; les identités sociales se lient, mais pas au hasard, parce qu'elles partagent des éléments sémantiques communs. C'est notamment en explorant 20 ans de collaborations scientifiques à l'aide d'outils d'analyse de réseaux, d'analyse en composantes discrètes et par l'exporation de treillis de Galois que cette étude a été menée. Notre approche est principalement exploratoire et une attention toute particulière est portée sur les aspects méthodologiques et théoriques du travail de recherche scientifique.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Cette étude aborde les questionnements relatifs à l’homologation et à l’entérinement d’une entente de règlement amiable conclue dans le cadre des processus de médiation ou de conciliation administrative. L’étude vise d’abord à clarifier les concepts en définissant précisément la terminologie privilégiée. La mise en œuvre des demandes est ensuite analysée au regard de la compétence des tribunaux administratifs et de celle des tribunaux de droit commun à l’égard d’un accord de conciliation ou d’une transaction conclu dans le cadre d’un litige administratif. Les formalités relatives à la présentation de la demande sont exposées. Les tests de conformité à la loi et à l’ordre public sont ensuite circonscrits pour terminer par un examen des conséquences de l’homologation ou de l’entérinement de l’entente sur les recours ultérieurs possibles tels que le recours en révision administrative ou le recours en révision judiciaire.
Resumo:
Le sujet principal de ce texte est une forme très ciblée de ségrégation démographique : la ségrégation selon le type de famille. Cependant, puisque la répartition spatiale des familles mariées, des familles en union libre, des familles monoparentales à chef féminin et de celles à chef masculin ne dépend pas uniquement de leur structure, il faut aussi considérer d'autres facettes de leur identité, notamment leurs caractéristiques socio-économiques et ethnoculturelles. La combinaison de ces facteurs engendre une ségrégation croisée que nous explorons avec les données du recensement de 2006 pour la région métropolitaine de Montréal. Nous utilisons d'abord des indices de ségrégation pour mettre en évidence une ségrégation familiale "brute", puis nous avons recours à des modèles de locational attainment pour déterminer l'effet "net" du type de famille sur le revenu médian du quartier de résidence et sur la distance qui sépare ce quartier du centre-ville. Nous trouvons qu'il existe une interaction importante entre l'appartenance ethnoculturelle, le revenu familial et le type de famille ce qui nous conduit à relativiser les résultats de recherches qui ne prennent pas en compte l'hétérogénéité interne des types de famille.
Resumo:
Pourquoi créer un État palestinien ? Avant tout parce qu’il s’agit de l’unique solution qui détient un fondement juridique, à travers la résolution 181 des Nations-Unies votée en 1947. Cette résolution préconisait la création de l’État israélien et celle de l’État palestinien comme deux facettes d’une unique solution. La création d’un État palestinien n’est pas seulement légale au regard du droit, elle permettrait également le partage des responsabilités revenant à chacun des acteurs du conflit. Une telle création est-elle possible en l’état actuel de la situation au Moyen-Orient ? Telle est la problématique de notre étude, qui comprend deux volets, l’un théorique, l’autre pratique. L’objectif est de revoir les règles du droit international relatives aux critères de formation d’un État palestinien, d’examiner si ces règles sont respectées et de déterminer quels sont les obstacles qui compliquent l’application d’une telle création. La première partie qui consiste à s’interroger sur la formation d’un État palestinien nous mène à examiner quatre éléments : la population permanente, le territoire déterminé, le gouvernement effectif et la capacité à entrer en relation avec les autres États. L’étude de ces éléments montre que la Palestine est un embryon d’État. Même si le concept d’un État palestinien peut être envisagé en droit, qu’en est-il de sa viabilité ? La deuxième partie de notre étude porte sur les obstacles juridiques à la création d’un État palestinien. Quatre éléments qui sont l’occupation, l’édification d’un mur entre Israël et les territoires palestiniens, les colonies de peuplement israéliennes en territoire palestinien occupé incluant la question de Jérusalem et enfin le droit au retour des réfugiés sont étudiés. Il ressort de cette recherche qu’un État palestinien pourrait être créé en droit mais sa viabilité reste conditionnée au bon vouloir d’Israël sur les questions évoquées ci-dessus. Aujourd’hui, les dimensions du conflit rendent particulièrement complexe une entente entre les deux parties. Le cadre juridique international représenté par l’ONU ne peut s’appliquer au conflit israélo-palestinien que s’il bénéficie de l’appui diplomatique clair et sincère de l’ensemble des acteurs internationaux.
Resumo:
Introduction : Les enfants prématurés ont la particularité de naître alors que leur développement est souvent incomplet et nécessite la mise en œuvre de soins intensifs visant à poursuivre leur croissance en dehors de l’environnement utérin. Souvent cependant, le stade développemental de l’enfant ne lui permet pas d’assimiler une alimentation entérale du fait de l’immaturité de son système digestif. Le recours à une voie centrale délivrant les nutriments assurant le développement devient alors une nécessité. Ce type de nutrition, appelée nutrition parentérale (NP, ou total parenteral nutrition TPN), permet l’administration de molécules simples, directement dans le sang du prématuré. Il n’est toutefois pas exempt de risques puisqu’exposée à la lumière, la NP peut s’oxyder et générer des molécules oxydantes telles que des hydroperoxydes lipidiques susceptibles de se fragmenter par la suite en hydroxy-alkénals. Ceci devient problématique au vu de l’immaturité des systèmes de défenses antioxydants du nouveau-né prématuré. L’utilisation prolongée de la NP est d’ailleurs à l’origine de maladie hépatiques dans lesquelles le stress oxydant et la nécro-inflammation sont des composantes majeures. Nous avons émis l’hypothèse que l’infusion chez les enfants prématurés, d’aldéhydes d’origine lipidique est en relation avec le développement du stress oxydant et de l’inflammation hépatique. Objectif : Notre étude a consisté à évaluer la relation entre les quantités d’hydroxy-alkénals dans la NP et les effets hépatiques engendrés sur les marqueurs de stress oxydant et les voies de signalisation responsables d’une induction de processus inflammatoire. Dans ce but, nous avons cherché à mesurer la peroxydation lipidique dans l’émulsion lipidique de la NP et la conséquence de l’infusion en continue d’hydroxy-alkénals sur les marqueurs de stress oxydant, sur la voie de signalisation médiée par le Nuclear Factor κB et sur le déclenchement du processus inflammatoire hépatique. A la suite de ce travail, nous avons également travaillé sur des alternatives à la photoprotection, qui est la seule méthode réellement optimale pour réduire la peroxydation des lipides de la NP, mais cliniquement difficilement praticable. Résultats : Nos résultats ont mis en évidence la génération de 4-hydroxynonenal in vitro dans la NP, ce phénomène est augmenté par une exposition lumineuse. Dans ce cadre, nous avons montré l’inefficacité de l’ajout de multivitamines dans l’émulsion lipidique comme alternative à la photoprotection. Dans la validation biologique qui a suivi sur un modèle animal, nos résultats ont permis de démontrer que l’augmentation des adduits glutathion-hydroxynonenal était imputable à l’augmentation de 4-hydroxynonenal (4-HNE) dans la NP, et non à une peroxydation endogène. Nos données indiquent que la probable augmentation hépatique des niveaux de 4-HNE a conduit à une activation du NFκB responsable de l’activation de la transcription des gènes pro-inflammatoires du Tumour Necrosis Factor-α (TNF-α) et de l’interleukine-1 (IL-1). Nous avons alors évalué la capacité d’une émulsion lipidique enrichie en acides gras polyinsaturés (AGPI) n-3 à baisser les concentrations de 4-HNE dans la NP, mais également à moduler le stress oxydant et les marqueurs pro-inflammatoires. Enfin, nous avons démontré, en collaboration avec l’équipe du Dr Friel, que certains peptides isolés du lait humain (par un processus mimant la digestion) permettent également une modulation du stress oxydant et du processus inflammatoire. Conclusion : Le stress oxydant exogène issu de la NP a conduit par activation de facteurs de transcription intra-hépatiques au déclenchement d’un processus inflammatoire potentiellement responsable du développement de maladies hépatiques reliées à la NP telle que la cholestase. Dans ce sens, les AGPI n-3 et les peptides antioxydants peuvent se poser en tant qu’alternatives crédibles à la photoprotection.
Resumo:
La littérature québécoise du XIXe siècle souffre de lourds préjugés que la critique contemporaine semble difficilement dépasser. Il est principalement reproché aux auteurs d’écrire de mauvais romans, privilégiant le fond au détriment de la forme. Pourtant, la lecture des œuvres publiées durant cette période indique clairement que certains écrivains font un usage massif de références à la culture classique. Ce recours intertextuel systématique leur permet d’inscrire le littéraire dans leurs œuvres tout en les rattachant aux genres épique et bucolique. Or, l’intertextualité gréco latine intervient précisément dans une période agitée par des querelles sur l’enseignement des œuvres classiques dans les collèges. Au cœur de cette polémique, une mouvance intellectuelle marquée par les idées de Monseigneur Gaume reproche à la littérature païenne de pervertir la jeunesse et prône un enseignement exclusif du latin chrétien. L’ampleur du débat dans la presse de l’époque est telle que les écrivains – qui ont tous été scolarisés dans des collèges classiques – ne pouvaient en aucun cas l’ignorer. La présente thèse étudie ainsi le dialogue intertextuel mené dans la production littéraire québécoise entre 1850 et 1870. Analysant l’image et la fonction de la culture gréco-latine dans les milieux littéraires québécois durant toute la querelle gaumiste, elle projette un nouvel éclairage sur les textes et met en évidence le savant travail littéraire effectué par leurs auteurs.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.