998 resultados para culture et valeurs
Resumo:
L'éducation à la citoyenneté comme forme de socialisation juridique est un moyen parmi d'autres qui nous permet de concevoir un possible dépassement de la «raison paresseuse» dans laquelle sont engagés les modèles politiques occidentaux. Les bases d'un nouveau code moral proposant à la fois une identité individuelle et collective pour le citoyen sont nécessaires. Ainsi, les énergies consacrées à la meilleure formation possible des futurs acteurs de la société québécoise, au partage d'idées et de perceptions dans une perspective contemporaine, ne peuvent être que bénéfiques pour l'avancement et l'avènement d'une société où l'équité coexiste avec la différence. C'est en réfléchissant et en échangeant sur le sujet avec notre entourage que nous avons décidé de concentrer nos recherches dans le domaine de 1'« éducation à la citoyenneté» avec comme contenu le droit. Naturellement, l'analyse à proprement positiviste du droit est ici mise de côté. Comme nous le verrons plus loin, une étude qui aborde la vision que se font les jeunes de l'univers juridique qui les entoure commande plutôt une approche sociologique. Les conclusions tirées de notre projet de recherche contribueront au débat entourant les concepts de citoyenneté, de droits fondamentaux et de responsabilités sociales dans une dynamique d'apprentissage. En tenant compte de la dimension culturelle de la citoyenneté, nous décrirons les différences d'interprétation et de représentation des droits fondamentaux et des responsabilités sociales dans la conscience d'« initiés» et de « non initiés» à une activité de socialisation juridique organisée par le Centre de développement pour l'exercice de la citoyenneté (CDEC), Débats de citoyens. Ce n'est qu'une fois cet exercice complété que nous tenterons d'évaluer le bienfondé et la validité d'une telle approche pédagogique. Mots clés: Éducation, citoyenneté, droits, responsabilités, socialisation, culture, débat, différence.
Resumo:
La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire. Elle réduit le dihydrofolate en tétrahydrofolate, un co-facteur impliqué dans la biosynthèse des purines et du thymidylate. La DHFRh est une cible de choix pour des agents de chimiothérapie comme le méthotrexate (MTX), inhibant spécifiquement l’enzyme ce qui mène à un arrêt de la prolifération et ultimement à la mort cellulaire. Le MTX est utilisé pour le traitement de plusieurs maladies prolifératives, incluant le cancer. La grande utilisation du MTX dans le milieu clinique a mené au développement de mécanismes de résistance, qui réduisent l’efficacité de traitement. La présente étude se penche sur l’un des mécanismes de résistance, soit des mutations dans la DHFRh qui réduisent son affinité pour le MTX, dans le but de mieux comprendre les éléments moléculaires requis pour la reconnaissance de l’inhibiteur au site actif de l’enzyme. En parallèle, nous visons à identifier des variantes plus résistantes au MTX pour leur utilisation en tant que marqueurs de sélection en culture cellulaire pour des systèmes particuliers, tel que la culture de cellules hématopoïétiques souches (CHS), qui offrent des possibilités intéressantes dans le domaine de la thérapie cellulaire. Pour étudier le rôle des différentes régions du site actif, et pour vérifier la présence d’une corrélation entre des mutations à ces régions et une augmentation de la résistance au MTX, une stratégie combinatoire a été dévelopée pour la création de plusieurs banques de variantes à des résidus du site actif à proximité du MTX lié. Les banques ont été sélectionnées in vivo dans un système bactérien en utilisant des milieux de croissance contenant des hautes concentrations de MTX. La banque DHFRh 31/34/35 généra un nombre considérable de variantes combinatoires de la DHFRh hautement résistantes au MTX. Les variantes les plus intéressantes ont été testées pour leur potentiel en tant que marqueur de sélection dans plusieurs lignées cellulaires, dont les cellules hématopoïétiques transduites. Une protection complète contre les effets cytotoxiques du MTX a été observée chez ces cellules suite à leur infection avec les variantes combinatoires. Pour mieux comprendre les causes moléculaires reliées à la résistance au MTX, des études de structure tridimensionnelle de variantes liées au MTX ont été entreprises. La résolution de la structure de la double variante F31R/Q35E lié au MTX a révélé que le phénotype de résistance était attribuable à d’importantes différences entre le site actif de la double variante et de l’enzyme native, possiblement dû à un phénomème dynamique. Une compréhension plus générale de la reconnaissance et la résistance aux antifolates a été réalisée en comparant des séquences et des structures de variantes de la DHFR résistants aux antifolates et provenant de différentes espèces. En somme, ces travaux apportent de nouveaux éléments pour la comprehension des intéractions importantes entre une enzyme et un ligand, pouvant aider au développement de nouveaux antifolates plus efficaces pour le traitement de diverses maladies. De plus, ces travaux ont généré de nouveaux gènes de résistance pouvant être utilisés en tant que marqueurs de sélection en biologie cellulaire.
Resumo:
L’insomnie, une condition fréquemment retrouvée dans la population, se caractérise d’abord par une difficulté à initier ou à maintenir le sommeil et/ou par des éveils précoces le matin ou encore par un sommeil non-réparateur. Lorsqu’elle n’est pas accompagnée par des troubles psychiatriques ou médicaux ou un autre trouble de sommeil et qu’elle perdure plus de 6 mois on parle alors d’insomnie primaire chronique. Selon certains, cette condition serait associée à un état d’hyperéveil caractérisé par une augmentation de l’activité autonome sympathique durant le sommeil et l’éveil. Le baroréflexe est un important mécanisme de contrôle à court terme des fluctuations de la tension artérielle (TA) et de la fréquence cardiaque agissant sur le cœur et les vaisseaux sanguins par l’entremise du système nerveux autonome. On appelle sensibilité baroréceptive (SBR) la capacité du baroréflexe de réagir et de contrôler les fluctuations de TA en modulant le rythme cardiaque. De manière générale, la SBR serait augmentée durant la nuit par rapport à la journée. Aussi, il semblerait que le baroréflexe soit impliqué dans le phénomène de baisse physiologique de la TA pendant la nuit. Or, des données de notre laboratoire ont démontré une augmentation de la TA systolique au cours de la nuit ainsi qu’une atténuation de la baisse nocturne de TA systolique chez des sujets avec insomnie primaire chronique comparé à des témoins bons dormeurs. De plus, il a été démontré que le baroréflexe était altéré de façon précoce dans plusieurs troubles cardiovasculaires et dans l’hypertension artérielle. Or, il semblerait que l’insomnie soit accompagnée d’un risque accru de développement de l’hypertension artérielle. Ces études semblent aller dans le sens d’une altération des mécanismes de régulation de la TA dans l’insomnie. Par ailleurs, une réduction de la SBR serait aussi impliquée dans des états associés à une augmentation de l’activité autonome sympathique. Ainsi, nous nous sommes demandé si le baroréflexe pouvait constituer un des mécanismes de contrôle de la TA qui serait altéré dans l’insomnie et pourrait être impliqué dans l’augmentation de l’activité sympathique qui semble accompagner l’insomnie. Jusqu’à présent, le baroréflexe reste inexploré dans l’insomnie. L’objectif principal de ce mémoire était d’évaluer de façon non-invasive la SBR à l’éveil et en sommeil chez 11 sujets atteints d’insomnie primaire chronique comparé à 11 témoins bons dormeurs. L’évaluation du baroréflexe a été effectuée de façon spontanée par la méthode de l’analyse en séquence et par le calcul du coefficient alpha obtenu par l’analyse spectrale croisée de l’intervalle RR et de la TA systolique. De façon concomitante, les paramètres de la variabilité de l’intervalle RR en sommeil et à l’éveil ont aussi été comparés chez ces mêmes sujets. Aucune différence significative n’a été notée au niveau des index de la SBR entre le groupe d’insomniaques et celui des bons dormeurs, à l’éveil ou en sommeil. Cependant, on observe des valeurs légèrement plus faibles de la SBR chez les insomniaques ayant mal dormi (efficacité de sommeil (ES) < 85%) comparés aux insomniaques ayant bien dormi (ES≥ 85%) à la nuit expérimentale durant l’éveil et en sommeil. Par ailleurs, aucune différence n’a été notée entre le groupe d’insomniaques et celui des bons dormeurs au niveau des paramètres de la variabilité RR considérés (intervalle RR, PNN50, LF et HF en valeurs normalisées). En effet, les insomniaques tout comme les bons dormeurs semblent présenter une variation normale de l’activité autonome en sommeil, telle que représentée par les paramètres de la variabilité RR. Ces résultats préliminaires semblent suggérer que les mécanismes du baroréflexe sont préservés chez les sujets atteints d’insomnie primaire chronique tels que diagnostiqués de manière subjective. Cependant, il est possible qu’une altération des mécanismes du baroréflexe ne se révèle chez les insomniaques que lorsque les critères objectifs d’une mauvaise nuit de sommeil sont présents.
Resumo:
Avec le web, les moteurs de recherche, les blogues et les wikis, la relation à l’information s’est transformée au point où les repères habituels s’émoussent et doivent être redéfinis de fond en comble. Du coup, le travail des archivistes et des bibliothécaires doit l’être tout autant. Riches d’une solide tradition et conscientes des défis posés par la modernité la plus radicale, les sciences de l’information se sont élargies. Mais il ne s’agit plus seulement de conserver et de diffuser le savoir, il s’agit d’en repenser le traitement et l’accès. Conçu par l’École de bibliothéconomie et des sciences de l’information (EBSI) de l’Université de Montréal, cet ouvrage se situe au carrefour de deux grandes traditions, américaine et française, et a pour ambition de fournir les clés du monde des sciences de l’information en se fondant sur des savoirs pratiques et concrets. Les auteurs présentent ici un savoir à la fine pointe des sciences de l’information pour répondre à la complexité des enjeux actuels et futurs. Introduction, bibliographie, index et table des matières de l’ouvrage.
Resumo:
L’expérience de souffrance des vieux, en perte d’autonomie physique, vivant dans un CHSLD comprend deux dimensions : la souffrance et les vieux. Les deux sont liées. L’hypothèse sur le sens de la souffrance tient compte de celui que les vieux ont donné et donnent à leur vie. Le sens de la souffrance dépend de celui de la vie. Selon qu’on est plutôt individualiste, humaniste agnostique ou humaniste religieux, le sens de la souffrance prend une couleur particulière. Tour à tour, le mémoire examine les deux parties du problème de recherche, dresse un portrait des vieux de l’an 2008, propose un fondement théorique au projet de recherche, établit un arrimage de sens entre la souffrance des vieux et le sens de leur vie. La vie des vieux en CHSLD est en discontinuité avec leur existence antérieure : leurs valeurs et leur rythme de vie sont remis en question. Leur présence dans une résidencesubstitut invite à une réflexion sur la place des vieux dans la société individualiste contemporaine et sur l’humanisation des services. Comment concilier individualisme et humanisation ? Comment vivre avec la perte de son autonomie, une souffrance globale, un certain isolement, ... ? Autant de sujets et d’enjeux qui interrogent l’ensemble de la société. Les personnes âgées réclament un entourage empathique, des intervenants dynamiques, des politiques de santé qui font de ces centres de vrais milieux de vie et de soins. Il s’agit d’une responsabilité collective face au mouvement d’exclusion sociale.
Resumo:
Le Web se caractérise de bien des façons, un de ses traits dominants étant son caractère hautement évolutif. Bien que relativement jeune, il en est déjà à sa deuxième génération – on parle du Web 2.0 – et certains entrevoient déjà le Web 3.0. Cette évolution n’est pas uniquement technologique mais aussi culturelle, modifiant le rapport des internautes à cet univers numérique et à l’information qui s’y trouve. Les technologies phares du Web 2.0 – blogues, fils RSS, sites Wikis, etc. – offrent aux utilisateurs du Web la possibilité de passer d’un rôle passif d’observateurs à un rôle actif de créateurs. Le Web que l’on côtoie actuellement en est ainsi un plus participatif, dynamique et collaboratif. Les organisations doivent ainsi sérieusement considérer non seulement le potentiel de ces nouveaux environnements pour les aider dans le cadre de leurs activités, mais aussi la nouvelle cyberculture qu’ils engendrent chez leurs employés, clients et partenaires. Les plateformes du Web 2.0 viennent renforcer le potentiel déjà perçu par les organisations des systèmes d’information Web (SIW) à plusieurs niveaux : comme le partage d’information, l’augmentation de la compétitivité ou l’amélioration des relations avec leurs clients. Les milieux documentaires peuvent, au même titre que d’autres types d’organisations, tirer profit des outils de ce Web participatif et de la nouvelle culture collaborative qui en découle. Depuis quelque temps déjà, les bibliothèques se penchent activement sur ces questions et la communauté archivistique emboîte le pas… « vers une Archivistique 2.0 ? » se demanderont certains. Cet article se propose d’examiner le potentiel du Web 2.0 pour les organisations en général ainsi que plus particulièrement pour la communauté archivistique. Nous nous attarderons dans un premier temps à définir ce qu’est le Web 2.0 et à détailler ses technologies et concepts clés. Ces précisions aideront à mieux comprendre par la suite l’apport possible du Web 2.0 en contexte organisationnel. Finalement, des exemples d’utilisation du Web 2.0 par la communauté archivistique viendront conclure cette réflexion sur le Web 2.0, les organisations et l’archivistique.
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
Héritière de la tradition fantastique borgésienne, imprégnée d’une réalité composée de mythes précolombiens et des résidus industriels de la modernité, et développée à l’ère de la mondialisation, du post-modernisme, des jeux vidéos, du cinéma numérique et d’animation, la tendance cyberpunk latino-américaine est cultivée du Mexique jusqu’en Argentine, en passant par Cuba et d’autres pays souvent méconnus dans le monde de la science-fiction comme le Paraguay et la Bolivie. Pressenti dans les œuvres de certains écrivains canoniques comme Ricardo Piglia, Carmen Boullosa ou Edmundo Paz-Soldán, le cyberpunk se manifeste avec force dans l’écriture de jeunes artistes interdisciplinaires et de collaborateurs assidus des fanzines. Cette adaptation du sous-genre dans un continent où la référence reste encore le réel merveilleux et le réalisme magique, malgré l’apport des générations plus récentes comme celle de « McOndo » ou celle du « Crack », essaie d’élaborer une série de réponses aux questions issues de la conjoncture historique et artistique dans laquelle nous vivons : comment situer l’identité latino-américaine dans la nouvelle cartographie culturelle mondiale à travers une littérature qui cherche à se renouveler par rapport au canon littéraire et à la marginalité de son propre genre? Quelles sont les stratégies d’assimilation et de résistance qu’adoptent des jeunes auteurs latino-américains devant le cyberpunk anglo-américain littéraire et cinématographique? Peut-on parler d’un impact esthétique et philosophique du cyberpunk sur la culture latino-américaine, perçue habituellement comme une consommatrice passive de ces produits culturels et non comme une productrice? Ce travail cherche à parcourir l’ensemble de ces questions à partir d’une réflexion sur les principaux dispositifs constitutifs du cyberpunk – la dystopie et la virtualité – dans les discours (post)identitaires en Amérique Latine. Représentation presque mimétique de l’espace socioculturel et historique latino-américain à travers la violence et la répression politique, militaire, ethnique ou sexuelle, la dystopie est un moyen d’articuler certaines figures spatiales aux mythes nationaux et à la politique identitaire dans le contexte de la mondialisation. Cette dernière réalité socioculturelle, ainsi que l’idéologie esthétique que véhicule celle-ci à travers le cyberpunk, crée un conflit avec ces discours identitaires nationaux, conflit qui est accentué ou dissous par la représentation de la réalité virtuelle. La réalité virtuelle, comprise ici comme la direction que le récit prend pour défaire ou consolider la figure dystopique, mène à réfléchir également sur les enjeux de la (post)identité. Penser à une (post)identité (en gardant bien à l’esprit cette parenthèse) à travers le cyberpunk signifie poser une question sur la résistance au passé identitaire des mythes nationaux, au présent de la mondialisation culturelle, et aux discours post-humanistes qui semblent marquer le futur. À l’appui de travaux sur la dystopie et la réalité virtuelle dans le cyberpunk anglo-américain, ainsi que des études culturelles latino-américaines, je parcourrai un corpus composé des romans écrits entre 1990 et 2005. Ce corpus comprendra La Primera Calle de la Soledad (1993) de Gerardo Horacio Porcayo, Santa Clara Poltergeist (1991) de Fausto Fawcett, Ygdrasil (2005) de Jorge Baradit, et les films argentins No muera sin decirme adónde vas (1992) d’Eliseo Subiela et La sonámbula (1998) de Fernando Spiner. Dans ces oeuvres, la dystopie se configure aux possibilités narratives de la virtualité et traverse des thématiques identitaires comme les mythes sexuels et nationaux, la mémoire et le traumatisme ainsi que les projets utopiques des minorités.
Resumo:
Ce mémoire a pour objectif d’analyser la pertinence d’une culture stratégique particulière, celle de l’Inde. Au moins quatre variables culturelles à dimension sécuritaire – l’identité, les valeurs, les normes et les perceptions – permettent d’expliquer la conception de la sécurité et du pouvoir indiens. L’hypothèse avancée dans ce mémoire est la suivante : à cause de l’influence de la culture stratégique indienne, l’océan Indien est perçu par l’élite indienne comme l’endroit où réside la principale menace à la sécurité de l’Inde. En outre, cette perception particulière de la menace permet de mieux comprendre les ambitions maritimes de l’Inde dans l’océan Indien à l’aube du 21e siècle. Afin de confirmer l’hypothèse, nous analysons l’influence de la culture stratégique indienne sur les approches stratégiques privilégiées par les décideurs Indiens au sein de l’océan Indien. Nous concluons, sur la base de l’étude cas, que l’objectif stratégique de New Delhi est de devenir la puissance maritime dominante de l’océan Indien. Le moyen privilégié est la création d’une marine océanique puissante, capable de maintenir en permanence une escadre en patrouille loin de ses bases navales. Sur le plan théorique, les actions indiennes – qui ont surtout un caractère défensif – sont justifiées par une doctrine de non-ingérence des grandes puissances dans les affaires indiennes, doctrine calquée sur la doctrine Monroe. Selon la doctrine indienne, seules les puissances régionales sont à même de préserver la stabilité dans la région de l’océan Indien. Conséquemment, le Gouvernement indien œuvre à réduire l’ingérence des marines de guerre étrangères au sein de l’océan Indien.
Resumo:
One of the main characteristics of today’s democratic societies is their pluralism. As a result, liberal political philosophers often claim that the state should remain neutral with respect to different conceptions of the good. Legal and social policies should be acceptable to everyone regardless of their culture, their religion or their comprehensive moral views. One might think that this commitment to neutrality should be especially pronounced in urban centres, with their culturally diverse populations. However, there are a large number of laws and policies adopted at the municipal level that contradict the liberal principle of neutrality. In this paper, I want to suggest that these perfectionistlaws and policies are legitimate at the urban level. Specifically, I will argue that the principle of neutrality applies only indirectly to social institutions within the broader framework of the nation-state. This is clear in the case of voluntary associations, but to a certain extent this rationale applies also to cities. In a liberal regime, private associations are allowed to hold and defend perfectionist views, focused on a particular conception of the good life. One problem is to determine the limits of this perfectionism at the urban level, since cities, unlike private associations, are publicinstitutions. My aim here is therefore to give a liberal justification to a limited form of perfectionism of municipal laws and policies.
Resumo:
La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
Ce mémoire explore les modalités culturelles de la participation politique de la salonnière parisienne et célèbre écrivaine Anne-Louise-Germaine Necker, baronne de Staël-Holstein (1766-1817), au cours de la Révolution française (1789-1799). Sur le plan des représentations, il souligne chez Germaine de Staël l’appropriation et la reformulation des normes de genre pour élaborer un rôle politique convenable à une femme d’esprit dans le contexte révolutionnaire. Ce rôle se fondait notamment sur une éthique de l’amitié et un idéal de vertu acquise par la sensibilité et la raison. Son projet constitutionnel, à la fois libéral et élitiste, cherchait à intégrer la contribution des femmes au processus politique à travers la sociabilité polie et la production littéraire. Sur le plan des pratiques, ce mémoire montre comment les outils de réseautage et de communication qu’étaient le salon, la correspondance et la publication fonctionnaient ensemble pour permettre à Staël de se positionner dans un espace sociopolitique et d’y déployer une action. Il considère ces forums comme des éléments constitutifs d’une culture politique révolutionnaire dont Staël sut faire un usage créatif et constructif pour promouvoir ses idées et son parti.
Resumo:
Dès le tournant du XIIIe siècle, les écrivains reprennent l’idée d’une quête du Graal, déjà développée par Chrétien de Troyes avec le Conte du Graal, pour y faire entrer plus amplement les traits d’une idéologie ecclésiastique. Les premières proses du Graal présentent alors une nouvelle façon d’exposer certains idéaux de la chevalerie à travers des convictions religieuses. Dans une approche socio-historique, nous nous sommes d’abord penché sur la figure incontournable du roi Arthur, personnage dont le comportement est la cause de la quête du Graal. Plus particulièrement, dans cette recherche, il est question de découvrir comment la position sociale du chevalier tend à s’élever au-dessus de celle du roi. Partant des différentes fonctions royales pour aller vers la nature et le but des aventures vécues par les chevaliers, nous observons pourquoi et comment les auteurs des premières proses du Graal ont tenté d’adapter l’idéologie chevaleresque à l’idéologie ecclésiastique. Il appert que l’influence des discours politiques de cette période médiévale aura joué un rôle important dans cette nouvelle approche de la chevalerie.