997 resultados para polimeri contenenti porfirina celle fotovoltaiche politiofenipolimeri conduttori
Resumo:
Résumé La démonstration qui est ici à l’œuvre s’apparente, dans une certaine mesure, à celle qu’élabore Amartya Kumar Sen dans 'The Argumentative Indian'. Dans cet ouvrage, Sen discute de l’héritage intellectuel et politique de l’Inde et de la manière dont cette tradition est essentielle pour le succès de la démocratie et des politiques séculières de l’État indien. Pour notre part, nous ne nous intéressons point à l’Inde, mais à la Chine, notamment à l’héritage intellectuel, politique et moral des lettrés confucéens de l’Antiquité chinoise et à la pertinence de revisiter, aujourd’hui, la réflexion confucéenne classique pour mieux penser et fonder les droits humains en Chine. Plus précisément, notre réflexion s’inscrit au sein du débat contemporain, qui a lieu à l’échelle internationale, entourant les soi-disant valeurs asiatiques et les droits humains. Pour les partisans de la thèse des valeurs asiatiques, les valeurs asiatiques seraient associées au modèle de développement dit asiatique, lequel se distinguerait du modèle « occidental » en étant en outre réfractaire aux droits humains. Ces droits ayant une origine occidentale et étant, à maints égards, en rupture avec les valeurs asiatiques, ils ne seraient ni souhaitables en Asie (notamment en Chine) ni compatibles avec les valeurs asiatiques (spécialement avec les valeurs confucéennes). Dans notre thèse, nous réfutons ce point de vue. Par l’entremise d’une analyse de la 'Déclaration universelle des droits de l’homme' de 1948 et d’un examen des quatre textes fondateurs du confucianisme classique que sont : les 'Entretiens' (Lunyu), le 'Mencius' (Mengzi), la 'Grande Étude' (Daxue) et la 'Pratique du Milieu' (Zhongyong), nous démontrons que cette compréhension des choses s’avère injustifiée. Les droits humains ne sont pas incompatibles avec les valeurs confucéennes et leur adoption est souhaitable en Asie (notamment en Chine), tout comme elle l’est en Occident. De fait, la philosophie des droits humains et la pensée confucéenne classique ont de nombreuses affinités conceptuelles, axiologiques et normatives. Loin d’être en rupture, ces univers théoriques convergent, car ils ont tous deux à cœur l’être humain, ses besoins vitaux et son épanouissement au sein de la communauté. Notre démonstration s’appuie, pour une large part, sur l’analyse d’un concept phare de la pensée éthique et politique confucéenne, soit la notion d’humanité ou du sens de l’humain (ren) ainsi que d’une autre notion qui lui est étroitement liée, soit celle de l’homme de bien ou de la personne moralement noble (junzi).
Resumo:
L'objectif principal de ce mémoire est d'évaluer le rôle modérateur de trois traits de personnalité, soit l'estime de soi, le sentiment de cohésion, ainsi que le centre de contrôle interne sur la relation entre les conditions de l'organisation du travail et la consommation d'alcool à risque, ainsi que la consommation de médicaments psychotropes des travailleurs canadiens. Les données sur lesquelles nous nous sommes basés proviennent de l'Enquête Nationale sur la Santé de la Population (ENSP) de Statistique Canada. Celle-ci a été conduite à des intervalles de deux ans, de l’année 1994 jusqu'à l’année 2003, et comprend ainsi cinq cycles longitudinaux. Les analyses multiniveaux que nous avons effectuées nous ont permises d’identifier cinq variables des conditions de l'organisation du travail qui s’associent de manière significative à la consommation d'alcool à risque, soit l’utilisation des compétences qui augmente de 7% le risque de faire partie du groupe de consommation d’alcool à risque par un travailleur, les demandes psychologiques qui augmentent ce risque de 69%, et les travailleurs confrontés à un horaire de travail irrégulier qui consomment 61% plus d’alcool à risque que les travailleurs qui ont un horaire de travail régulier. Inversement, l’insécurité d’emploi réduit de 12% le risque de faire partie du groupe de consommation d’alcool à risque, et les travailleurs bénéficiant d’un soutien social au travail courent 5% moins de risque de consommation d’alcool à risque. Pour ce qui est des médicaments psychotropes, nos analyses multiniveaux nous ont permises d’identifier deux variables des conditions de l’organisation du travail qui y sont associées de manière significative. Il s’agit de l’utilisation des compétences qui augmente de 8% le risque de faire partie du groupe de consommation de médicaments psychotropes, alors que le nombre d’heures travaillées diminue de 1% ce risque. En ce qui concerne les traits de personnalité, l’estime de soi augmente de 17% le risque de consommation d’alcool à risque, alors que le sentiment de cohésion diminue de 1% ce risque. L’estime de soi joue un rôle modérateur faible entre les conditions de l’organisation du travail et la consommation d’alcool à risque, puisque celle-ci diminue de 3% l’effet pathogène des demandes physiques imposées sur les travailleurs sur leur consommation d’alcool à risque. Pour ce qui est des médicaments psychotropes, nos résultats indiquent que l’estime de soi diminue de 4% le risque de consommation de médicaments psychotropes, le centre de contrôle interne diminue de 9% ce risque, et le sentiment de cohésion quant à lui, diminue ce risque de 3%. D’ailleurs, aucun trait de personnalité ne joue un rôle modérateur entre les conditions de l’organisation du travail et la consommation de médicaments psychotropes.
Resumo:
Dans cette étude, nous analysons les principaux problèmes que nous retrouvons lorsque nous utilisons les entrevues sociolinguistiques comme méthode d’analyse pour obtenir des échantillons de l’actuation linguistique authentiques. Cette problématique provient de la nature même de la méthodologie employée en fonction du paradoxe de l’observateur (Labov 1972) et elle impose la nécessité de réfléchir sur les avantages et les désavantages inhérents à l’instrument de recherche utilisé. En ayant ce propos, l’objectif principal qu’on poursuit est celui de donner réponse à une question que surgit lorsqu’on parle de l’entrevue sociolinguistique : Comment pourrait-on obtenir des échantillons de parole de style spontané dans l’observation systématique de l’entrevue? Pour essayer de répondre à cette problématique, on a revu et analysé un échantillon de vingt entrevues semi dirigées (25 heures d’enregistrement) qui font partie du Corpus Oral et Sonore de l’Espagnol Rural (COSER). L’étude des entrevues sociolinguistiques comme méthode scientifique montre, comme principal résultat, que parmi les stratégies utilisées pour essayer de réduire les effets du paradoxe de l’observateur on devrait inclure celle de la tactique de faire parler l’informateur à propos d’un objet qui ait une particulière valeur affective pour lui, pour générer ainsi une déstructuration du schéma formel de l’entrevue et une situation émotionnelle de sorte que l’émotivité neutralise sa conscience linguistique et son discours. De cette façon, l’attention du parlant se concentrera dans l’objet même plutôt que dans sa parole formelle et, de cette manière, on obtiendrait des échantillons de style plus spontané et colloquial.
Resumo:
Depuis la dernière décennie, les outils technologiques et informatiques ont connu un essor considérable dans plusieurs sphères d’activité de la société. L’éducation n’y a pas échappé, et le ministère de l’Éducation, du Loisir et du Sport (MELS) en a d’ailleurs fait une compétence transversale dans le cadre du Programme de formation de l’école québécoise. L’intégration des TIC s’est faite à travers différents moyens, à commencer par les laboratoires informatiques, les ordinateurs à même la salle de classe et, plus récemment, par l’introduction de projets portables où chaque élève et l’enseignant disposent de leur propre ordinateur. Afin d’être mené à terme, ce projet de recherche a été inscrit dans un projet à plus grande échelle, soit celui d’une recherche financée par le Conseil de recherches en sciences humaines du Canada (CRSH), qui a pour objectif d'analyser les obstacles auxquels font face les enseignants dans l'intégration des technologies à l'école. Le présent projet s'est quant à lui attardé plus spécifiquement aux défis technologiques et pédagogiques inhérents aux projets portables. L’étude s'est déroulée en milieu défavorisé, dans une école primaire montréalaise. Une telle intégration demande une planification rigoureuse et un suivi continu afin d’assurer le succès du projet. De plus, il est évident que ce type de projet pose aussi des défis technologiques et pédagogiques particuliers pour les enseignants. À ce sujet, trois catégories de facteurs qui peuvent avoir un impact sur la réussite des projets portables ont été relevées, soit : les facteurs personnels (internes à l’enseignant), les facteurs relatifs au travail (contexte d'enseignement, pratiques pédagogiques, etc.), ainsi que les facteurs relatifs au matériel et à l’infrastructure. À l’intérieur de ce mémoire, différents concepts, dimensions et indicateurs sont donc explicités et mis en relation afin de mieux comprendre les défis technologiques et pédagogiques qui peuvent survenir dans le cadre de la mise en oeuvre de projets portables. Trois enseignantes rattachées à autant de groupes d’élèves ont accepté de participer à une entrevue individuelle et de répondre à un questionnaire. Les échanges par courriel ont aussi été analysés. L'ensemble des données recueillies ont fait l'objet d'analyses qualitatives. Les analyses ont montré que la catégorie de facteurs citée la plus fréquemment était celle des facteurs relatifs au travail avec une forte majorité. Des défis ont toutefois été identifiés pour toutes les dimensions.
Resumo:
Le parcours d’Assia Djebar est frappé du sceau de la multidisciplinarité. L’écrivaine algérienne d’expression française a en effet toujours voué un intérêt particulier à la littérature, mais également aux arts. Son engouement pour ces derniers n’a pas été sans influencer son écriture. Ce fait est a priori remarquable au niveau des nombreuses références explicites (tant intertextuelles qu’interdiscursives) que ses récits font tour à tour au cinéma, à la peinture, à la musique, à la photographie et à la mosaïque. C’est à partir de ces renvois que nous posons l’hypothèse d’une relation aux arts mise à l’œuvre de manière plus implicite dans la prose de Djebar, c’est-à-dire susceptible de définir sa poétique. Il s’agira donc pour nous de mettre au jour des procédés d’écriture qui, dans le récit djebarien, sont aptes à créer ─ moyennant leur déplacement et leur transformation ─ des effets que des techniques en usage dans d’autres arts produisent habituellement. L’intermédialité permet d’envisager ce travail : là où l’intertextualité insiste surtout sur la question des textes ; l’interdiscursivité sur celle du discours ; et l’interartialité sur celle de l’esthétique caractéristique des productions artistiques, l’intermédialité rassemble ces préoccupations en ne négligeant pas de considérer la dimension technique inhérente aux phénomènes de signification, qui prête forme à leur matière sémiotique.
Resumo:
Les politiques éducatives se multiplient à l’échelle des pays industrialisés mais celles-ci semblent rencontrer de graves problèmes d’atteinte de résultats concrets et satisfaisants. La mise en œuvre d’une politique, notamment les stratégies gouvernementales « hybrides » sélectionnées, c’est-à-dire des stratégies d’implantation de politiques qui misent à la fois sur des stratégies « top-down » et aussi « bottom-up », semble être un élément-clé à considérer pour leur efficience (Gather-Thurler, 2000; Van Zanten, 2004; Fullan, 2005, 2007). Or, les connaissances concernant ces stratégies de mise en œuvre sont partielles, encore peu développées et les raisons qui expliquent ces choix politiques se font rares; ce qui rend la production de politiques effectives et durables difficile (Fullan, 2000; Leithwood et Earl, 2000; Van Zanten, 2004). Le Québec a entrepris, en 1997, une réforme à grande échelle de son système d’éducation; réforme qui mise explicitement sur des stratégies gouvernementales « hybrides » pour sa réalisation. Cette étude s’attarde à cette réforme, plus spécifiquement à sa réforme du curriculum au primaire, afin de : 1) retracer les grands moments-clés de la mise en œuvre de la politique associés aux différentes dimensions du concept d’« hybridité »; 2) identifier et décrire les stratégies gouvernementales « hybrides » qui leur sont associées; 3) formuler des hypothèses explicatives provisoires et les valider; 4) élaborer un modèle explicatif et 5) expliciter l’incidence du modèle proposé sur les théories existantes. Cette étude de cas est effectuée par l’entremise de deux formes de cueillette de données complémentaires : une analyse documentaire et des entrevues semi-dirigées. Une analyse documentaire est réalisée à partir des documents formels de l’autorité publique (N=14) et d’une revue de presse, de 1995 à 2003 (N=648). Les entrevues (N=23) visent, pour leur part, à recueillir les propos des : 1) concepteurs et décideurs; 2) opérationnalisateurs; 3) concepteurs-opérationnalisateurs et 4) experts. La combinaison des données recueillies permet d’établir la comparaison entre le processus et la structure (Meny et Thoenig, 1989), le prescriptif et l’effectif, afin de comprendre la vraie dynamique qui a animé le processus de mise en œuvre de la politique étudiée. Ainsi, l’examen du processus de mise en œuvre de la réforme du curriculum québécois du primaire permet de retracer le modèle d’implantation de la politique curriculaire québécoise. Ce modèle d’implantation novateur fait état du fait que des stratégies hybrides non improvisées et exigeantes furent pensées et proposées par les autorités québécoises. Ce modèle d’implantation élaboré permettait de penser que la politique curriculaire québécoise allait, possiblement, permettre d’obtenir des résultats tangibles et durables dans les milieux scolaires. L’analyse de la structure de mise en œuvre révèle, pour sa part, que les stratégies d’implantation qui se sont déployées sur le terrain rejoignaient presqu’intégralement les stratégies « hybrides » initialement prévues. Le processus d’implantation a cependant connu une évolution différente de celle attendue. La mise en œuvre concrète qui s’est vécue sur le terrain fut difficile et hasardeuse, malgré l’approche « hybride » adoptée. Les éléments qui expliquent les difficultés d’implantation vécues sont présentés et analysés dans cette étude.
Resumo:
RÉSUMÉ Forme littéraire développée dès les débuts du IVe siècle, l’hagiographie, plus tard sanctionnée par l’Église catholique romaine, se déploie avec tout le rituel et le décorum requis par le genre institué, dévoilant les modalités du savoir et du croire qui la distingue. Cette forme fixe fut réactivée, contre toute attente, dans une somme étoffée durant la seconde moitié du XXe siècle par le Collège de ‘Pataphysique, aréopage de philosophes, littérateurs et plasticiens, qui n’est pas un conclave d’excentriques, pas davantage qu’un nouvel « isme », mais une institution qui résolument emblématise la Science. Ce réemploi générique de l’hagiographie est caractérisé par une hétérogénéité bien peu canonique s’inscrivant dans une continuité problématique par rapport au sous-texte. Une première traversée du Calendrier inviterait à croire à une entreprise parodique et iconoclaste. La parodie, qui est aussi une imitation, pose un problème de visée. Le second degré de Gérard Genette implique deux grands régimes discursifs : le sérieux (le sérieux proprement dit et le satirique) et le ludique. Ces régimes nous ont été utiles pour arrimer la question de l’humour. Il y a là en somme deux possibilités, soit la parodie sérieuse conduisant à ridiculiser l’hagiographie et le Calendrier des Saints qui seraient sérieusement visés, néantisés, tournés en dérision; soit la parodie ludique, à portée nulle, simple jeu, farce farfelue, « pour rire ». Or, nous avons tenté de démontrer dans ce mémoire que, même s’il y a lieu d’avancer des arguments en faveur de l’un et de l’autre type de parodie, le partage ne fonctionne pas, précisément peut-être parce qu’il est possible de montrer à la fois que c’est sérieux et pas sérieux. Dans un troisième temps, on peut aussi faire la démonstration que le pas-sérieux est sérieux. Les jeux de mots, d’homophonie n’engagent-ils pas le Verbe? L’imitation impossible ne réfléchit-elle pas les imitabile de la Sainte Église? La situation énonciatrice tributaire de l’hagiographie pataphysique est non différentiable d’un souci de didactisme qui place la composante moralisatrice au centre des enjeux discursifs. Elle induit de ce fait des attentes en matière d’ethos consistant à mettre au même diapason une représentation sociale de l’énonciateur et une représentation intradiscursive au ton didactique. Elle adjoint un autre ton, savant celui-là, érudit, qui vient défaire la belle convergence et fait disjoncter la rhétorique du genre. Cette rhétoricité problématique de l’hagiographie pataphysique a été abordée sous l’angle de l’ethos. L’ethos est l’instance de validation par laquelle nous renvoyons non pas au caractère de l’orateur, mais, suivant en cela Dominique Maingueneau, au type de parole engendrée par le discours et qui, en retour, rend ce discours crédible. Que devient cette instance lorsque la visée persuasive du discours est remise en question, que l’ethos se démultiplie de façon hétérogène sans véritablement assurer la cohésion du propos ni garantir sa portée? La parodie posant incidemment un problème de visée, est-ce du côté d’un ethos parodique que se trouve la réponse? Il nous a convenu de mesurer, d’articuler, de déplacer cette postulation. Nous nous sommes saisi, pour les besoins de notre argumentation, d’une discipline historiquement lourde d’investissement théorique, soit la rhétorique. Celle-ci constitue à la fois une méthode de composition d’un discours reposant sur des lieux susceptibles de susciter l’adhésion et l’émulation de l’énonciataire et une méthode d’analyse. Guidé par une définition étendue du texte, traversant les littératures non narrative et narrative, il nous a importé enfin de restituer la pratique cymbaliste à partir d’un corpus qui est resté l’apanage du « seul » pataphysicien. Nous nous sommes ainsi situé dans l’horizon plus global de la réceptivité d’un discours qui évacue l’idéologique, qui jamais ne se laisse saisir tout à fait, ni enferrer par le fétiche du sens au profit des potentialités qu’il recèle, et cela à partir d’axiomes arbitraires soumis à l’unique exigence de cohérence interne.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.
Resumo:
Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.
Resumo:
Ce mémoire est consacré à l’analyse du mensonge chez Kant. Or, comme la Métaphysique des moeurs est subdivisée en deux volets, le premier portant sur le droit et le second sur la moralité proprement dite, nous nous sommes proposé d’envisager le mensonge selon ces deux points de vue, en commençant par le second. En nous appuyant sur les textes de Kant qui envisagent le mensonge comme faute morale, les Leçons d’éthique, la Fondation de la Métaphysique des Moeurs, la Doctrine de la Vertu, nous montrons que Kant condamne moralement le mensonge parce qu’en lui-même, le mensonge constitue la plus grave violation du devoir de l’homme envers lui-même : la sincérité. L’homme qui n’est pas sincère, c’est-à-dire qui dit délibérément le contraire de ce qu’il pense non seulement va à l’encontre de la finalité inhérente à la communication, mais aussi, par le mensonge, l’homme renonce à sa personnalité. En renonçant ainsi à sa personnalité, l’homme cesse d’être un homme véritable, c’est-à-dire celui en qui la pensée et le dit coïncident, il devient un semblant d’homme, c’est-à-dire celui qui délibérément dit le contraire de ce qu’il pense. En s’appuyant sur le texte de Kant qui envisage le mensonge au point de vue du droit, D’un prétendu droit de mentir par humanité, nous avons mis en évidence que l’argument central de Kant est de montrer que toute tentative de tolérer un droit de mentir rendrait la société impossible. C’est qu’un droit de mentir condamnerait à jamais l’humanité à l’état de nature, parce que la confiance qu’exige le contrat originel qui marque l’entrée dans l’état de droit n’aurait plus aucun sens. De même, un droit de mentir ruinerait tous les contrats, qui reposent, pour leur effectivité, sur la confiance. Au fond, un droit de mentir est contraire même au droit. Nous avons montré en conclusion de mémoire en quoi la position de Kant restait encore, de nos jours, actuelle. Une grande partie de ce mémoire a été réservée au texte polémique de 1796 D’un prétendu droit de mentir par humanité. Ayant montré en quoi consiste la position de Kant, contrairement à celle de Constant, nous avons analysé les nombreux commentaires qui ont été consacrés à ce texte polémique, qui opposa Kant et Benjamin Consstant, afin de montrer que l’interprétation de la position de Kant sur le mensonge varie selon qu’on revendique exclusivement sa philosophie morale ou sa philosophie du droit.
Resumo:
Introduction : Les statines ont prouvé leur efficacité dans le traitement des dyslipidémies. Cependant, ces molécules sont associées à des effets secondaires d’ordre musculaire. Puisque ces effets peuvent avoir des conséquences graves sur la vie des patients en plus d’être possiblement à l’origine de la non-observance d’une proportion importante des patients recevant une statine, un outil pharmacogénomique qui permettrait d’identifier a priori les patients susceptibles de développer des effets secondaires musculaires induits par une statine (ESMIS) serait très utile. L’objectif de la présente étude était donc de déterminer la valeur monétaire d’un tel type d’outil étant donné que cet aspect représenterait une composante importante pour sa commercialisation et son implantation dans la pratique médicale courante. Méthode : Une première simulation fut effectuée à l’aide de la méthode de Markov, mais celle-ci ne permettait pas de tenir compte de tous les éléments désirés. C’est pourquoi la méthode de simulation d'évènements discrets fut utilisée pour étudier une population de 100 000 patients hypothétiques nouvellement initiés sur une statine. Cette population virtuelle a été dupliquée pour obtenir deux cohortes de patients identiques. Une cohorte recevait le test et un traitement approprié alors que l'autre cohorte recevait le traitement standard actuel—i.e., une statine. Le modèle de simulation a permis de faire évoluer les deux cohortes sur une période de 15 ans en tenant compte du risque de maladies cardio-vasculaires (MCV) fatal ou non-fatal, d'ESMIS et de mortalité provenant d’une autre cause que d’une MCV. Les conséquences encourues (MCV, ESMIS, mortalité) par ces deux populations et les coûts associés furent ensuite comparés. Finalement, l’expérience fut répétée à 25 reprises pour évaluer la stabilité des résultats et diverses analyses de sensibilité ont été effectuées. Résultats : La différence moyenne des coûts en traitement des MCV et des ESMIS, en perte de capital humain et en médicament était de 28,89 $ entre les deux cohortes pour la durée totale de l’expérimentation (15 ans). Les coûts étant plus élevés chez celle qui n’était pas soumise au test. Toutefois, l’écart-type à la moyenne était considérable (416,22 $) remettant en question la validité de l’estimation monétaire du test pharmacogénomique. De plus, cette valeur était fortement influencée par la proportion de patients prédisposés aux ESMIS, par l’efficacité et le coût des agents hypolipidémiants alternatifs ainsi que par les coûts des traitements des ESMIS et de la valeur attribuée à un mois de vie supplémentaire. Conclusion : Ces résultats suggèrent qu’un test de prédisposition génétique aux ESMIS aurait une valeur d’environ 30 $ chez des patients s’apprêtant à commencer un traitement à base de statine. Toutefois, l’incertitude entourant la valeur obtenue est très importante et plusieurs variables dont les données réelles ne sont pas disponibles dans la littérature ont une influence importante sur la valeur. La valeur réelle de cet outil génétique ne pourra donc être déterminée seulement lorsque le modèle sera mis à jour avec des données plus précises sur la prévalence des ESMIS et leur impact sur l’observance au traitement puis analysé avec un plus grand nombre de patients.
Resumo:
Le traitement de première ligne de l’apnée obstructive du sommeil est l’appareil à pression positive, soit le CPAP, qui est le plus souvent utilisé avec un masque nasal. Certains patients, incapables de tolérer le masque nasal, doivent se tourner vers le masque facial, qui peut parfois requérir une pression supérieure à celle utilisée avec le masque nasal pour éliminer tous les événements respiratoires. Nous supposons que l’ajustement serré du masque facial, dans le but de réduire les fuites, entraîne une pression de recul sur la mandibule; ceci diminuerait le calibre des voies aériennes supérieures, nécessitant donc une pression effective thérapeutique supérieure pour rétablir un passage de l’air. Nos objectifs étaient : 1) de démontrer s’il y avait une différence de pression effective entre le masque nasal et le masque facial, 2) de quantifier la fuite entre les deux masques, 3) d’évaluer l’effet d’une orthèse de rétention mandibulaire neutre (OMN), qui empêche le recul mandibulaire, sur la pression effective des deux masques et 4) d’évaluer s’il existait un lien entre la céphalométrie et les réponses variables des individus. Méthodologie : Lors de cette étude expérimentale croisée, huit sujets (2 femmes, 6 hommes) avec une moyenne d’âge de 56,3ans [33ans-65ans] ont reçu un examen orthodontique complet incluant une radiographie céphalométrique latérale. Ils ont ensuite passé deux nuits de polysomnographie au laboratoire du sommeil en protocole « split-night » où les deux masques ont été portés, seuls, la première nuit, et avec l’OMN, la deuxième nuit. Résultats : Nous avons trouvé que la pression effective thérapeutique était supérieure avec le masque facial comparativement au masque nasal de manière statistiquement significative. Nous avons observé une fuite supérieure avec le masque nasal, ce qui permet de dire que la fuite n’explique probablement pas cette différence de pression entre les deux masques. L’OMN n’a pas donné d’effet statistiquement significatif lorsque combinée au masque nasal, mais il aurait probablement été possible de trouver un effet positif avec le masque facial si le Bi-PAP avait été inclus dans le protocole de recherche. Conclusion : Nos résultats ne permettent pas de confirmer le rôle du recul mandibulaire, causé par la force exercée avec le masque facial, dans l’obtention de pressions supérieures avec ce masque, mais nous ne pouvons toutefois pas éliminer l’hypothèse. Les résultats suggèrent également que ce phénomène est peut-être plus fréquent qu’on ne le croit et qu’il pourrait y avoir un lien avec certains facteurs anatomiques individuels.
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
L’étalement urbain constitue un enjeu de société qui préoccupe tous les acteurs de l’aménagement du territoire. Le développement de superficies urbanisées à la périphérie des villes à des fins résidentielle, industrielle, commerciale et d’infrastructures se caractérise par une faible densité des structures bâties et par une perte de terres agricoles. Les conséquences sont importantes notamment parce que ces pertes sont irréversibles. Ce projet de recherche analyse les tendances actuelles de l’étalement urbain dans la RMR de Montréal et au-delà de celle-ci ainsi que ses impacts sur les territoires agricoles. Il comporte trois objectifs secondaires. Le premier objectif vise à analyser l’importance de la multifonctionnalité de l’agriculture et sa prise en compte dans les stratégies d’aménagement et de revitalisation agricole dans les MRC. Le deuxième objectif vise à établir les liens entre ces stratégies et les pressions urbaines dans la région métropolitaine de Montréal. Les pressions urbaines des 88 municipalités sont analysées en fonction de l’augmentation de la population et des ménages, par le nombre de mises en chantier ainsi que par les demandes de modification de la zone agricole déposées par les municipalités auprès de la CPTAQ entre 2000 et 2009. Le dernier objectif vise à identifier les MRC qui ont développé ces stratégies dans leur schéma d’aménagement et de développement (SAD), pour ensuite comparer les intentions et les actions des MRC par rapport à l’étalement urbain qui se développe concrètement sur leur territoire depuis l’an 2000. Pour ce faire, deux critères ont été retenus : une typologie des stratégies d’aménagement et de revitalisation agricole des SAD et les positions adoptées par les acteurs impliqués dans les demandes de modification. En conclusion, les cinq MRC analysées en détail ont demandé entre 2,1 % et 2,6 % de leur propre zone agricole au cours des dix dernières années, peu importe l’élaboration de leur SAD et les pressions urbaines qu’elles subissent.