150 resultados para Années 1990


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La présente thèse de doctorat visait d’abord à valider les résultats des études antérieures démontrant un accroissement de la prévalence des problèmes de santé mentale et ensuite, à évaluer l’importance du contexte social dans l’explication des changements de prévalence, à partir des effets d’âge, de période et de cohorte. L’atteinte de ces objectifs s’est faite à partir de deux études empiriques, chacune ciblant sa propre problématique en santé mentale. La première étude, basée sur les données de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) de Statistique Canada, a permis de conclure à un accroissement réel de la prévalence du diagnostic de trouble déficitaire de l’attention/hyperactivité (TDA/H) et de la consommation de psychostimulants chez les enfants canadiens entre 1994 et 2007. Toutefois, cette tendance n’est ni constante, ni universelle, puisque des effets de période et d’âge apparaissent clairement : l’augmentation des prévalences est uniquement remarquée dans les années 2000, et survient seulement chez les enfants d’âge scolaire. L’identification d’inégalités de prévalence dues à la période historique et à l’âge des enfants souligne l’importance du contexte social dans la problématique du diagnostic de TDA/H et de la consommation de psychostimulants. La seconde étude a été réalisée à partir des données du Panel Study of Belgian Households (PSBH) et cherchait à expliquer l’accroissement des symptômes dépressifs observé ces vingt dernières années chez les adultes belges. L’utilisation de l’analyse multiniveaux longitudinale permettant la distinction des effets d’âge et des effets de cohortes a été privilégiée. Bien que l’intensité des symptômes dépressifs ait varié de manière relativement importante chez les individus au cours des années 1990, nos conclusions démontrent que les symptômes auto-rapportés de dépression sont davantage associés aux conditions de vie, qu’à la personnalité. L’augmentation résulte d’un effet de la succession des cohortes, où les individus des cohortes les plus récentes rapportent toujours une plus grande intensité de symptômes dépressifs que les individus des cohortes précédentes. Les membres d’une même cohorte de naissance partagent donc des expériences communes à un âge similaire, ce qui a un impact durable sur leurs comportements et sur leur santé mentale. De manière générale, les résultats des deux articles empiriques ont, chacun à leur manière, confirmé la réalité de l’accroissement des problèmes de santé mentale dans les sociétés occidentales contemporaines, et permis de constater que la prévalence diffère selon l’âge et la cohorte de naissance des individus, ainsi que selon la période historique, renforçant ainsi l’hypothèse de l’importance des facteurs sociaux dans l’étiologie des problèmes de santé mentale. Bien que la nature de ces facteurs n’ait pu être testée de manière directe, de nombreuses explications sociales furent tout de même proposées. À cet égard, des changements dans les normes comportementales associées à l’âge, dans les normes sociales, dans la conceptualisation des troubles mentaux, des modifications dans la sphère éducative, ainsi que des innovations pharmacologiques, médicales et technologiques constituent des explications sociales aux effets d’âge, de période et de cohorte qui ont été observés.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Au Québec, la Loi sur les services de santé et les services sociaux, Chapitre S-4.2, à son article 233, demande à ce que chacun des établissements de santé, dispose d’un code d’éthique qui essentiellement demande de préciser les droits des usagers et de fixer les conduites attendues du personnel. Le législateur souhaitait améliorer les conduites du personnel dès le début des années 1990 et envisageait désigner un organisme de surveillance pour s’en assurer. Cette contrainte ne fut pas retenue et 20 ans plus tard, la volonté d’assurer des conduites attendues n’est toujours pas assujettie de contraintes ou de contrôles même si elle est toujours souhaitée. En 2003 toutefois, le Ministre a mis en place un processus de visites ministérielles dans les milieux d’hébergement et à ce jour quelques 150 établissements ont été visités. Ces équipes se sont préoccupées entre autre de la fonction du code d’éthique pour soutenir les directions de ces établissements. Elles ne réussissent pas à pouvoir s’appuyer sur le code d’éthique pour qu’il soit l’assise pour baser les décisions cliniques, organisationnelles et de gestion de chacune des organisations du réseau de la santé et des services sociaux du Québec. Il faut à ce moment-ci faire le constat que le code d’éthique, obligatoire, figure au nombre des nombreuses contraintes rencontrées par les organisations. Les établissements doivent passer un processus d’agrément aux trois ans et le code d’éthique n’est pas davantage un élément dynamique retenu à ce processus de validation de normes de qualité. De plus, une revue québécoise spécialisée en gestion de la santé a consacré un numéro complet de 15 articles sur « éthique et comportements » et le code d’éthique y est absent sauf pour deux articles qui s’y attardent spécifiquement. Est-ce une question d’éthique dont il est question par ce code, ou si ce n’est pas davantage de la déontologie, d’autant que le législateur veut avant tout s’assurer de comportements adéquats de la part des employés et des autres personnes qui exercent leur profession. Est-ce qu’un code de conduite ne serait pas plus approprié pour atteindre les fins visées? Cette question est répondue dans ce mémoire qui regarde les concepts d’éthique, de déontologie, de codes, de régulation des comportements. De plus, des analyses détaillées de 35 codes d’éthique actuels de divers établissements et de diverses régions du Québec iv sont présentées. La littérature nous donne les conditions de réussite pour un code et outre l’importance à accorder aux valeurs énoncées dans l’organisation, il est également question des sanctions à prévoir au non-respect de ces valeurs. Elles se doivent d’être claires et appliquées. Enfin, beaucoup d’organisations parlent maintenant de code de conduite et ce terme serait tout à fait approprié pour rejoindre le souhait du législateur qui veut assurer des conduites irréprochables des employés et autres personnes qui y travaillent. C’est la conclusion de ce travail, énoncée sous forme de recommandation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce mémoire a été réalisé dans le cadre d'un séjour de recherche à l'Université d'État des Sciences Humaines de Russie (RGGU), Moscou.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce mémoire se concentre sur le problème de la régression épistémique. Il s’agit d’un problème très important puisqu’il remet en question la possibilité de la justification. Nous nous intéresserons aux détails de ce problème, ainsi qu’aux réponses qui lui sont offertes. Traditionnellement, deux réponses sont concurrentes : le fondationnalisme et le cohérentisme. La première propose d’arrêter la régression à un fondement, alors que la seconde propose de s’intéresser à la cohérence partagée par les croyances. Toutefois, le but de notre mémoire est de présenter et de défendre une troisième solution : l’infinitisme. Introduite dans les années 1990 par Peter Klein, l’infinitisme est une des plus récentes théories de la justification et, malgré son intérêt, elle est encore très peu défendue. Cette théorie propose de résoudre le problème de la régression en basant la justification des croyances sur des séries infinies et non répétitives de raisons. Cette idée est intéressante, car l’infinitisme renverse le problème d’origine, puisque les régressions infinies sont généralement perçues comme étant un problème pour la connaissance et la source du scepticisme. Notre objectif est de montrer que l’infinitisme est la meilleure solution possible au problème de la régression. Pour ce faire, nous faisons la synthèse des principaux arguments pour l’infinitisme. Cela nous permettra de distinguer trois types d’infinitisme pour ensuite retenir un de ces types, une forme impure d’infinitisme, comme étant le meilleur. Finalement, nous confronterons l’infinitisme à ces critiques pour montrer qu’il s’agit d’une théorie de la justification qui est réellement viable.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Avec l’échec des négociations entre les États-Unis et la Corée du Nord, menées depuis le début des années 1990, sur la question du nucléaire, le problème est devenu graduellement l’affaire des pays voisins, tous soucieux de l’avenir de la région du sud-est asiatique. Présentée comme le seul allié de la Corée du Nord, la China a été invitée à participer à des négociations à trois, à quatre (1997-1998), et à six (2003-2007), dans l’espoir de faire entendre raison au régime isolé, mais jusqu’à maintenant, aucune des tentatives n’est parvenue à satisfaire chacun des membres à la table. Alors que la tension monte et que la politique américaine se fait de moins en moins flexible, la Chine quant à elle, continue d’encourager le retour des négociations à six (Six-Party Talks) dans l’optique de dénucléariser la péninsule coréenne, tout en travaillant à maintenir ses liens avec la Corée du Nord. Le fil conducteur de cette présente recherche est d’abord d’essayer de comprendre pourquoi la Chine continue de soutenir la Corée du Nord, fournissant dons alimentaires et financiers. L’idée est donc d’analyser, selon les principes du réalisme néoclassique, la politique étrangère de la Chine. L’hypothèse principale de cette théorie renvoie à l’idée que la distribution du pouvoir dans le système international influence la politique étrangère des États, mais que des variables au niveau de l’état et/ou de l’individu interviennent dans la formulation et l’application de celle-ci. Il est proposé ici que le lien entre l’unipolarité du système international et la politique nord-coréenne de la Chine, est façonné par des variables intermédiaires telles que : a) la perception des leaders de la distribution du pouvoir et de leur place dans le système international; b) l’idéologie du régime politique, et; c) le type d’unité responsable de la prise de décision en politique étrangère. L’analyse de chacune des variables permettra de faire la lumière sur les intérêts politiques et économiques de la Chine dans l’entretien de cette relation avec la Corée du Nord.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Traduction du titre en anglais: Making sense of governance in non-formal education : A critical analysis of the Senegalese faire faire strategy

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Jouée par María Elena Velasco depuis la fin des années 1960, la India María met en scène une indienne « authentique » qui, malgré son statut et ses limitations sociales, dénonce le traitement des institutions auxquelles elle est soumise : les systèmes politique, judiciaire, économique et religieux. Néanmoins, lors des premières projections des films sur le grand écran, la critique portait essentiellement sur les aspects superficiels et a réprouvé la façon dont les indiens et le Mexique étaient représentés, car jugée réactionnaire. Au début des années 1990, des chercheurs ont commencé à étudier ses films en proposant une lecture « négociée » : ils s’intéressent à l’effet humoristique produit sur le public par sa performance et ses aventures, en même temps qu’ils reconnaissent l’ambigüité du personnage et des narrations, tout en soulignant les discours ethnique et de classe. À travers l’analyse de Tonta, tonta pero no tanto (Bête, bête, mais pas trop) de Fernando Cortés (1972), Ni de aquí ni de allá (Ni d’ici ni de là-bas) de María Elena Velasco (1988), et Sor Tequila (Sœur Tequila) de Rogelio González (1977), mon mémoire contribue à cette lecture en étudiant trois sujets : le stéréotype cristallisé dans ce personnage, afin de démontrer comment celui-ci permet une critique de la société mexicaine ; les nouveaux enjeux culturels auxquels le système néolibéral affronte les autochtones ; et la transformation du masculin et du public à travers une construction alternative du féminin.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

"L’auteur Ethan Katsh analyse les problématiques posées par les relations de la communauté virtuelle de l’Internet et son processus en ligne de résolution des conflits. Il explique comment le cyberespace constitue un environnement intégral et indépendant qui développe ses propres règles normatives. L’évolution des normes au sein du cyberespace semble être une conséquence des interactions entre les acteurs, sans intervention législative fondamentale de la part des états. L’auteur trace l’évolution, depuis le début des années 1990, du processus en ligne de résolution des différends, principalement dans le domaine du commerce électronique. L’accroissement rapide des relations commerciales électroniques a entraîné une hausse des litiges dans ce domaine. Dans le cadre de tels litiges, les moyens en ligne de résolution des conflits offrent aux justiciables plus de facilité, de flexibilité et d’accessibilité que les moyens alternatifs traditionnels de résolution des conflits. C’est donc dans ce contexte qu’a été développé le système ""Squaretrade"" qui a pour objectif d’aider la résolution de conflits entre les utilisateurs de ""E-Bay"". Ce système présente l’avantage important d’encadrer et d’uniformiser le processus de résolution en définissant les termes généraux et spécifiques du conflit. L’auteur soutient que la principale fonction d’un tel système est d’organiser et d’administrer efficacement les communications entre les parties. Ainsi, cette fonction préserve le ""paradigme de la quatrième personne"", nécessaire aux processus alternatifs traditionnels de résolution de conflits. Par ailleurs, cette fonction, en tant que partie intégrante du programme informatique, constitue pour les justiciables une alternative intéressante aux règles législatives. Pour l’auteur, l’analyse de ce phénomène soulève des questions importantes concernant la création de normes et leur acceptation par les citoyens. L’auteur analyse par la suite le concept général de la formation des normes dans le contexte d’un environnement non régularisé. Il soutient que les normes émergeantes doivent toujours viser à développer une forme de légitimité auprès des justiciables. Dans le cadre du processus en ligne de résolution des conflits, cette légitimité doit être acquise autant auprès des parties au litige qu’auprès de la population en général. Toutefois, les attentes des parties au litige sont souvent très différentes de celles du public. L’auteur illustre ainsi comment certains processus en ligne de résolution de conflit ne réussissent pas à obtenir une telle légitimité, alors que d’autres s’établissent en tant qu’institutions reconnues. Dans ce contexte, les institutions en ligne de résolution de conflits devront développer leur propre valeur normative. Ainsi, les moyens en ligne de résolution des conflits remettent en question le processus traditionnel de formation des normes et peuvent être considérés comme des éléments d’un nouvel environnement normatif."

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Durant la deuxième moitié du 20e siècle, divers aménagements structurels ont amené l’idéologie du système d’entreprise japonais à être acceptée globalement, non seulement comme un modèle légitime, mais aussi comme un modèle à suivre (et à poursuivre). Figure emblématique de ce système, le « salaryman » – employé masculin régulier des grandes entreprises ou administrations japonaises – s’est imposé au sein de la société japonaise. L’idéologie que véhicule le système d’entreprise a dès lors été interprétée par quelques auteurs comme un discours hégémonique, une image culturellement dominante du travail et de la vie quotidienne au Japon. Aujourd’hui, à la suite d’une conjoncture économique particulière fruit de la crise économique des années 1990, l’image du salaryman s’effrite et son caractère hégémonique tend à se fragmenter pour laisser place à de nouvelles pratiques et à de nouvelles valeurs souvent antagonistes avec les discours et les représentations du travail et de la masculinité qui ont dominé jusqu’alors. Une analyse historique et une enquête de terrain (entrevues semi-directives) nous montreront à la fois pourquoi le salaryman peut être compris comme un discours hégémonique et comment les nouvelles pratiques et représentations des jeunes japonais témoignent du caractère nouvellement fragmentaire de l’image du salaryman en contexte de crise. Ces résultats nous amèneront à considérer plus globalement l’implication des transformations du système d’emploi dans le changement social au Japon.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

CONTEXTE : La mortalité infantile a diminué au Canada depuis les années 1990 et 2000 mais nous ignorons si toutes les classes socioéconomiques ont bénéficié également de ce progrès. OBJECTIFS : La présente étude portait sur les différences entre les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson entre les différents quintiles de revenu des quartiers au Canada de 1991 à 2005. MÉTHODES : Le fichier couplé des naissances vivantes et des décès infantiles au Canada a été utilisé à l’exclusion des naissances survenues en Ontario, au Yukon, dans les Territoires du Nord-ouest et au Nunavut. Les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson ont été calculé par quintile de revenu des quartiers et par période (1991-1995, 1996-2000, 2001-2005). Les rapports de risque (RR) ont été calculés par quintile de revenu et période avec ajustement pour la province de résidence, l’âge de la mère, la parité, le sexe du nourrisson et les naissances multiples. RÉSULTATS : En zone urbaine, pour toute la période étudiée (1991- 2005), le quintile de revenu le plus pauvre avait un risque plus élevé de mortalité néonatale (RR ajusté 1,24; IC 95% 1,15-1,34), de mortalité postnéonatale (RR ajusté 1,58; IC 95% 1,41-1,76) et de mort subite du nourrisson (RR ajusté 1,83; IC 95% 1,49-2,26) par rapport au quintile le plus riche. Les taux de mortalité post néonatale et de mort subite du nourrisson ont décliné respectivement de 37 % et de 57 % de 1991- 1995 à 2001-2005 alors que le taux de mortalité néonatale n’a pas changé de façon significative. Cette diminution de la mortalité postnéonatale et de la mort subite du nourrisson a été observée dans tous les quintiles de revenu. CONCLUSION : Malgré une diminution de la mortalité postnéonatale et du syndrome de mort subite du nourrisson dans tous les quintiles de revenu, les inégalités subsistent au Canada. Ce résultat démontre le besoin de stratégies efficaces de promotion de la santé visant spécifiquement les populations vulnérables. MOTS CLÉS : mort subite du nourrisson; mortalité infantile; statut socioéconomique

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le virus de l'immunodéficience humaine (VIH) est à l’origine d’une infection chronique, elle-même responsable du développement du syndrome d'immunodéficience acquise (SIDA), un état de grande vulnérabilité où le corps humain est à la merci d’infections opportunistes pouvant s’avérer fatales. Aujourd’hui, 30 ans après la découverte du virus, même si aucun vaccin n’a réussi à contrôler la pandémie, la situation s’est grandement améliorée. Conséquemment à l’arrivée de traitements antirétroviraux hautement actifs (HAART) à la fin des années 1990, la mortalité associée au VIH/SIDA a diminué et un plus grand nombre de personnes vivent maintenant avec l'infection. La présente thèse avait pour objectif d’aborder trois situations problématiques, en dépit de l’efficacité reconnue des HAART, plus particulièrement la faible charge virale persistante (LLV) et sa relation avec l’échec virologique, ainsi que les effets de certains antirétroviraux (ARV) sur les fonctions rénale et hépatique. Les objectifs précis étaient donc les suivants : 1) étudier le risque d’échec virologique à long terme chez les patients sous HAART dont la charge virale est indétectable comparativement aux patients affichant une LLV persistante; 2) évaluer sur le long terme la perte de fonction rénale associée à la prise de ténofovir (TDF) 3) étudier sur le long terme l'hyperbilirubinémie associée à la prise d’atazanavir (ATV) et ses autres déterminants possibles. Afin d’atteindre les trois objectifs susmentionnés, une cohorte de 2 416 patients atteints du VIH/SIDA, suivis depuis juillet 1977 et résidant à Montréal, a été utilisée. Pour le premier objectif, les résultats obtenus ont montré un risque accru d’échec virologique établi à >1000 copies/ml d’ARN VIH chez tous les patients qui présentaient une LLV persistante de différentes catégories durant aussi peu que 6 mois. En effet, on a observé qu’une LLV de 50-199 copies/ml persistant pendant six mois doublait le risque d’échec virologique (Hazard ratio (HR)=2,22, Intervalle de confiance (CI) 95 %:1,60–3,09). Ces résultats pourraient modifier la façon dont on aborde actuellement la gestion des patients affichant une LLV, et plus particulièrement une LLV de 50-199 copies/ml, pour laquelle aucune recommandation clinique n’a encore été formulée en raison du manque de données. Pour le deuxième objectif, on a observé une augmentation du risque de perte de fonction rénale de l’ordre de 63 % (HR=1,63; 95% CI:1,26–2,10) chez les patients sous TDF comparativement aux patients traités avec d’autres ARV. La perte de fonction rénale directement attribuable à la prise de TDF, indique que cette perte est survenue au cours des premières années de l’exposition du patient au médicament. D’une perspective à long terme, cette perte est considérée comme modérée. Enfin, pour ce qui est du troisième objectif, on a constaté que l’incidence cumulative d’hyperbilirubinémie était très élevée chez les patients sous ATV, mais que cette dernière pouvait régresser lorsque l’on mettait fin au traitement. L’hyperbilirubinémie à long terme observée avec la prise d’ATV n’a été associée à aucun effet néfaste pour la santé. Dans l’ensemble, la présente thèse a permis de mieux comprendre les trois situations problématiques susmentionnées, qui font actuellement l’objet de débats au sein de la communauté scientifique, et d’éclairer sous un jour nouveau la gestion des patients séropositifs sous traitement médicamenteux.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce mémoire analyse trois réformes majeures de politique sociale en Turquie, en deux domaines: emploi et sécurité social. En utilisant l'approche "Usage de l'Europe", ce mémoire developpe une analyse empirique et apporte une explication théorique de ces changements qui ont été introduits au cours du processus d'adhésion de la Turquie à l'Union européenne. "Les usages de l'Europe" est une approche d'européanisation qui se concentre sur le rôle des acteurs domestiques, au sein des États membres et candidats, ainsi que de leur utilisation des ressources de l'Union européenne. Les études de cas utilisées dans cette thèse démontrent l'introduction de changements au niveau de l'État-providence; ainsi, l'approche originelle est suppléée par des concepts provenant de la littérature sur la politique partisane, les institutions formelles et l'héritage des politiques. Cette recherche utilise la méthode de l'analyse de processus pour suivre la réforme des règlements du travail par la voie de reconstitution des droits individuels des travailleurs et de l'Agence d'emploi en Turquie jusqu'en 2003, ainsi que la transformation du système de sécurité sociale en 2008. Ces trois réformes représentent des changements majeurs tant sur le plan institutionnel que politique en Turquie depuis 2001. Afin de comprendre "les usages de l'Europe" dans ces réformes politiques, l'analyse empirique questionne, si, quand et comment les acteurs turcs ont utilisé les ressources, les références et les développements politiques de l'Union européenne lors de ce processus dynamique de réforme. Les réformes du système de sécurité sociale, des règlements du travail, en plus de la reconstitution de l'Agence d'emploi étaient à l'ordre du jour en Turquie depuis les années 1990. La réforme des règlements du travail ont entraîné l'introduction des accommodements flexibles au travail et une révision de la Loi du travail permettant l'établissement d'une législation de la sécurité d'emploi. La reconstitution de l'Agence d'emploi visait à remplacer la vieille institution défunte par une institution moderne afin d'introduire des politiques d'activation. La réforme de sécurité sociale comprend les pensions de retraite, le système de santé ainsi que l'administration des institutions de sécurité sociale. Les principaux résultats révèlent que la provision des ressources de l'Union européenne en Turquie a augmenté à partir de la reconnaissance de sa candidature en 1999 et ce, jusqu'au lancement des négociations pour son adhésion en 2005; ce qui fut une occasion favorable pour les acteurs domestiques impliqués dans les processus de réformes. Cependant, à l'encontre de certaines attentes originelles de l'approche de "les usages de l'Europe", les résultats de cette recherche démontrent que le temps et le sort de "les usages de l'Europe" dépendent des intérêts des acteurs domestiques, ainsi de leurs stratégies tout au long de ce processus de réforme, plutôt que des phases du processus ou la quantité des ressources fournies par l'Union européenne.