981 resultados para Principe de continuité
Resumo:
Certains symptômes sont les indicateurs incontestés des très graves problèmes que connaît l’Église. S’ils existent aussi dans des confessions et des religions diverses, seuls seront examinés ici ceux qui concernent l’Église catholique. Parmi les plus significatifs figurent un fort déclin dans la participation à des activités religieuses comme les célébrations eucharistiques dominicales, surtout chez les jeunes, une pénurie presque catastrophique de prêtres ordonnés, une perte de prestige et d’influence de l’enseignement dispensé par l’Église. Ces symptômes varient en intensité selon les pays, mais les statistiques indiquent qu’ils se multiplient. Nombre de ces problèmes sont attribuables à l’extrême vélocité de changements qui surviennent partout et à l’apparente inaptitude de l’Église à s’adapter, en raison notamment de son attachement à la pensée néo-scolastique et à la tradition tridentine. Cette fidélité absolue à une tradition vieille de quatre cents ans l’empêche de se faire à un environnement en évolution rapide et radicale. Des changements appropriés s’imposent pratiquement partout dans l’Église. Or, pour que ceux-ci soient efficaces et respectueux de la nature propre de l’Église, la tradition est un guide qui ne suffit pas. S’appuyant sur les termes de l’encyclique Ecclesia de Eucharistia, « le moment décisif où elle (l’Église) a pris forme est certainement celui où a eu lieu l’institution de l’Eucharistie, dans la chambre à l’étage », la thèse présentée suit le plus près possible l’interprétation donnée aux paroles de Jésus, ceci est mon corps, telles qu’elles ont été prononcées la première fois. Selon cette évidence, il est permis d’affirmer que les caractéristiques définitoires de l’Église provenant de ces mots sont agape, unité, service. Tel doit être le principe directeur des changements. C’est sur une telle base que sont décrits les secteurs où les changements s’imposent ainsi que les aspects visés. Ces changements comprennent les points suivants : liturgie, sacrements, catéchèse, mystagogie, théologie, structure, gouvernance de l’Église et ses enseignements, évangélisation. Ces secteurs exigent des efforts sérieux dans la préparation des personnes touchées par ces changements et dans l’attention portée à l’exigence primordiale voulant qu’agape, unité et service soient les principes actifs et évidents régissant l’Église.
Resumo:
Dans la perspective de faire disparaître la dichotomie existant entre la santé et la maladie, le concept « santé-dans-la-maladie » (health-within-illness) est apparu dans les écrits infirmiers pour étudier la santé chez les personnes vivant avec une maladie chronique. Or, la recherche sur ce phénomène s’est surtout centrée sur l’expérience de santé (wellness) occultant celle de la maladie (illness). À l’heure actuelle, peu d’études ont été réalisées pour comprendre la coexistence de l’expérience de santé (wellness) et celle de maladie (illness) impliquée dans la réalité quotidienne des personnes vivant avec une maladie chronique. De plus, aucune d’entre elles ne s’est adressée à une clientèle vivant avec la sclérodermie systémique. Ainsi, cette étude avait pour but de décrire et de comprendre l’expérience de la sclérodermie systémique et celle de santé-dans-la-maladie dans le contexte d’adultes vivant avec cette maladie chronique. La perspective disciplinaire de la chercheure, en l’occurrence la philosophie du caring humain de Watson (1979, 1988, 1999, 2006, 2008), a soutenu le processus de recherche. En cohérence avec cette auteure, la méthode qualitative de type phénoménologique existentielle herméneutique élaborée par van Manen (1984, 1997, 2002) a été choisie pour encadrer ce processus. La collecte des données repose principalement sur l’expérience d’adultes québécois vivant avec la sclérodermie systémique, recueillie au moyen de 34 entretiens en profondeur réalisés auprès de 17 participants (14 femmes et trois hommes). Les résultats ont permis d’identifier quatre thèmes pour décrire d’une part, l’essence de l’expérience de la sclérodermie systémique, soit : (a) la souffrance interminable d’un corps malade; (b) la dysharmonie intérieure et relationnelle du soi; (c) le processus d’accommodation et (d) l’heuristique d’accommodation. D’autre part, les deux thèmes suivants ont émergé pour exposer l’essence de l’expérience de santé-dans-la-maladie: (a) la prise de pouvoir d’un nouveau soi et (b) l’harmonie avec l’existence. Un travail de mise en relation de ces deux essences a été effectué afin de développer une conceptualisation de l’expérience de santé-dans-la-maladie dans le contexte d’adultes québécois vivant avec la sclérodermie systémique. Ainsi, elle se conçoit comme « une dialectique dans laquelle le nouveau soi mobilise son pouvoir pour vivre en harmonie avec l’existence et pour s’accommoder à la souffrance interminable, où une dysharmonie intérieure et relationnelle est vécue dans le corps malade ». Les résultats de cette étude permettent de mieux comprendre la souffrance vécue par les personnes ayant la sclérodermie systémique de même que le processus et les stratégies d’accommodation à cette souffrance. Ils mettent également en évidence les moyens utilisés pour exercer un nouveau pouvoir sur leur vie et pour vivre en harmonie dans tous les aspects de leur existence. Enfin, la dialectique de santé-dans-la-maladie proposée dans cette étude souligne le caractère dynamique, continu et subjectif du processus d’intégration impliquant les expériences indissociables de la santé (wellness) et de la maladie (illness). Cette nouvelle conceptualisation de l’expérience de santé-dans-la-maladie, pouvant contribuer au renouvellement des pratiques de soins, suggère également une manière inédite d’exister lorsque la maladie chronique survient, soit celle d’ « être ni en santé, ni malade ».
Resumo:
La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.
Resumo:
Les fichiers sons qui accompagne mon document sont au format midi. Le programme que nous avons développés pour ce travail est en language Python.
Resumo:
Dans le contexte de la mondialisation contemporaine, le développement d’une structure de gouvernance à plusieurs niveaux nous oblige à revoir notre compréhension de la souveraineté de l’État et de l’exercice de la démocratie. Notre objectif consiste à présenter la pensée de David Held au sujet des conséquences de ces transformations de la gouvernance politique sur la théorie démocratique. Dans un premier temps, nous analyserons les conséquences de l’atténuation de la souveraineté de l’État, dorénavant partagée avec diverses organisations supranationales, sur la théorie de l’État démocratique moderne. Nous verrons comment Held répond au déficit démocratique constaté au sein de ces organisations, en adaptant le principe de subsidiarité au système de gouvernance multicouche émergeant, et ce, afin de rétablir la congruence entre les décideurs et les destinataires de leurs décisions, caractéristique de l’activité (libérale) démocratique. Dans un deuxième temps, nous présenterons les fondements normatifs du modèle théorique qu’il préconise pour assurer la démocratisation de ce nouveau système de gouvernance. Nous verrons pourquoi, selon Held, la poursuite de l’idéal démocratique exige aujourd’hui la mise en oeuvre d’une variété de droits, inspirés des valeurs sociales-démocrates, qu’il faut enchâsser dans le cadre constitutionnel de toutes les institutions de gouvernance du monde contemporain. De plus, nous dégagerons les objectifs institutionnels qu’il faut atteindre afin de parvenir à la réalisation d’une social-démocratie mondiale. Nous conclurons avec une brève analyse critique de son interprétation du principe de subsidiarité et de son approche “du haut vers le bas” (top-down) des processus conduisant à la démocratisation des institutions supranationales.
Resumo:
Contexte et objectif. Afin de résorber le problème de la violence en milieu scolaire, de nombreux programmes et partenariats « police-école » ont vu le jour. Malgré la popularité de ces initiatives, les évaluations établissent toutefois que leurs effets sur la violence et la délinquance sont plutôt triviaux. Récemment, le programme de prévention « Unité sans violence » a été implanté dans plusieurs écoles de la région métropolitaine de Montréal et une évaluation préliminaire rapporte que son introduction fut suivie d’une baisse significative de la victimisation. À l’aide d’une approche mixte, l’objectif de ce mémoire est d’explorer la pertinence des concepts du rôle paradoxale et de l’intervention en contexte d’autorité afin de mieux comprendre les interactions entre les partenaires du programme et d’identifier de nouvelles pistes permettant de mieux comprendre les effets des programmes policiers en milieu scolaire. Méthodologie. La recherche repose sur des données qualitatives et quantitatives. D’une part, des entretiens semi-directifs ont été réalisés auprès des intervenants (policiers, enseignants et éducateurs spécialisés) afin de recueillir leur point de vue et expérience par rapport au programme. D’autre part, des questionnaires ont été administrés aux élèves de cinquième et sixième année de 20 écoles, ce qui a permis de documenter leur perception des policiers. Résultats. Les résultats aux entrevues suggèrent que les rôles d’aidant du policier et celui plus répressif s’inscrivent en continuité plutôt qu’en contradiction. Les rôles d’éducateur et de « grand frère » du policier seraient très bien reçus par les élèves. L’expérience des policiers, leur approche empathique et personnalisée ainsi que leur intérêt pour le travail communautaire apparaissent comme des éléments clés du bon déroulement du programme. Les résultats aux questionnaires montrent d’ailleurs que les élèves ont une perception très favorable des policiers. Conclusion. Les concepts de rôle et d’intervention en contexte d’autorité apparaissent comme des éléments clés qui devraient être intégrés à toute recherche évaluative visant à mieux comprendre l’effet des programmes policiers sur la délinquance. De plus, d’autres évaluations quantitatives du programme « Unité sans violence » sont nécessaires pour mieux comprendre l’influence de certaines de ses composantes, soit le renforcement positif, l’étalement du programme tout au long de l’année scolaire, le rôle des enseignants dans la transmission du message et l’exposition continue au programme entre la cinquième et sixième année.
Resumo:
La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
L’objectif de cette thèse est d’élucider l’intention, la pertinence et la cohérence de l’appropriation par Heidegger des concepts principaux de la philosophie pratique aristotélicienne dans ses premiers cours. Notre analyse portera principalement sur les notions clefs d’energeia et de phronēsis. La première section de la thèse est préparatoire : elle est consacrée à une analyse étroite des textes pertinents de l’Éthique à Nicomaque, mais aussi de la Métaphysique, en discussion avec d’autres commentateurs modernes. Cette analyse jette les fondations philologiques nécessaires en vue d’aborder les audacieuses interprétations de Heidegger sur une base plus ferme. La deuxième et principale section consiste en une discussion de l’appropriation ontologique de l’Éthique à Nicomaque que Heidegger entreprend de 1922 à 1924, à partir des textes publiés jusqu’à ce jour et en portant une attention spéciale à Métaphysique IX. Le résultat principal de la première section est un aperçu du caractère central de l’energeia pour le projet d’Aristote dans l’Éthique à Nicomaque et, plus spécifiquement, pour sa compréhension de la praxis, qui dans son sens original s’avère être un mode d’être des êtres humains. Notre analyse reconnaît trois traits essentiels de l’energeia et de la praxis, deux desquels provenant de l’élucidation aristotélicienne de l’energeia dans Métaphysique IX 6, à savoir son immédiateté et sa continuité : energeia exprime l’être comme un « accomplissement immédiat mais inachevé ». L’irréductibilité, troisième trait de l’energeia et de la praxis, résulte pour sa part de l’application de la structure de l’energeia à la caractérisation de la praxis dans l’Éthique à Nicomaque, et du contraste de la praxis avec la poiēsis et la theōria. Ces trois caractéristiques impliquent que la vérité pratique ― la vérité de la praxis, ce qui est l’ « objet » de la phronēsis ― ne peut être à proprement parler possédée et ainsi transmise : plus qu’un savoir, elle se révèle surtout comme quelque chose que nous sommes. C’est ce caractère unique de la vérité pratique qui a attiré Heidegger vers Aristote au début des années 1920. La deuxième section, consacrée aux textes de Heidegger, commence par la reconstruction de quelques-uns des pas qui l’ont conduit jusqu’à Aristote pour le développement de son propre projet philosophique, pour sa part caractérisé par une profonde, bien qu’énigmatique combinaison d’ontologie et de phénoménologie. La légitimité et la faisabilité de l’appropriation clairement ontologique de l’Éthique à Nicomaque par Heidegger est aussi traitée, sur la base des résultats de la première section. L’analyse de ces textes met en lumière la pénétrante opposition établie par Heidegger entre la phronēsis et l’energeia dans son programmatique Natorp Bericht en 1922, une perspective qui diverge fortement des résultats de notre lecture philologique d’Aristote dans la première section. Cette opposition est maintenue dans nos deux sources principales ― le cours du semestre d’hiver 1924-25 Platon: Sophistes, et le cours du semestre d’été 1924 Grundbegriffe der aristotelischen Philosophie. Le commentaire que Heidegger fait du texte d’Aristote est suivi de près dans cette section: des concepts tels que energeia, entelecheia, telos, physis ou hexis ― qui trouvent leur caractérisation ontologique dans la Métaphysique ou la Physique ― doivent être examinés afin de suivre l’argument de Heidegger et d’en évaluer la solidité. L’hypothèse de Heidegger depuis 1922 ― à savoir que l’ontologie aristotélicienne n’est pas à la hauteur des aperçus de ses plus pénétrantes descriptions phénoménologiques ― résulte en un conflit opposant phronēsis et sophia qui divise l’être en deux sphères irréconciliables qui auraient pour effet selon Heidegger de plonger les efforts ontologiques aristotéliciens dans une impasse. Or, cette conclusion de Heidegger est construite à partir d’une interprétation particulière de l’energeia qui laisse de côté d’une manière décisive son aspect performatif, pourtant l’un des traits essentiels de l’energeia telle qu’Aristote l’a conçue. Le fait que dans les années 1930 Heidegger ait lui-même retrouvé cet aspect de l’energeia nous fournit des raisons plus fortes de mettre en doute le supposé conflit entre ontologie et phénoménologie chez Aristote, ce qui peut aboutir à une nouvelle formulation du projet heideggérien.
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
À partir des années 90, parmi les transformations qu’entraine l’effondrement de l’Union soviétique à Cuba et au milieu des redéfinitions de la cubanité, apparaissent des œuvres narratives contre-discursives et actualisées sur la négritude, la race et le racisme. La représentation du Noir dans les romans de cette période prend toute sa signification du fait que se configure alors un champ de discussion dans lequel convergent différentes modalités et perceptions. Notre recherche explore le terrain discursif entourant les définitions de la cubanité et la négritude qui circulent à cette période à Cuba, pour ensuite voir de quelle manière elles se répercutent sur les auteurs et textes littéraires. À travers l’analyse des oeuvres des écrivains Eliseo Altuanga et Marta Rojas, cette thèse reconstruit leurs dialogues avec l’historiographie littéraire cubaine, l’Histoire de l’Ile et les discours plus actualisés quant au débat ethno-racial. Au moyen de visualisations opposées par rapport à l’histoire de Cuba, Altuanga et Rojas élaborent des œuvres et des personnages avec des différences idéoesthétiques marquées. Ainsi, le premier focalisera sur la recherche d’une rupture épistémologique quant à la conception du Noir dans l’imaginaire cubain, soulignant les événements de l’histoire nationale qui considèrent le Noir comme protagoniste, ce qui renforce l’idée d’une continuité dans son état de subalternisation. En ce qui concerne les protagonistes de Rojas, elle fait appel à des mulâtresses pour raconter le processus de transculturation par lequel, à son point de vue, s’est consolidée l’identité culturelle actuelle des Cubains. Suspendue dans un espace d’énonciation intermédiaire entre les premières décennies de la Révolution et la Période spéciale en Temps de Paix, Rojas construit une trilogie romanesque qui s’efforce à signaler la coupure entre les périodes pré- et postrévolutionnaires quant au traitement du Noir.
Resumo:
On se propose dans cet article d'explorer les relations ambivalentes qu'entretient le commerce équitable avec le marché. L'objectif de développement mis en avant par le commerce équitable est-il compromis ou favorisé par le recours aux échanges marchands ? Les militants du commerce équitable semblent très critiques envers la logique marchande, le marché étant souvent présenté comme un lieu d'exploitation des faibles par les forts. En même temps, le principe même du commerce équitable fait de l'échange marchand le moyen privilégié pour sortir de la pauvreté, de l'assistance, et accéder au développement. En fait, le commerce équitable nous permet de redécouvrir différentes formes de marché.
Resumo:
Un des mouvements socio-économiques contemporains les plus anciens sur la scène internationale, le commerce équitable contribue à une meilleure prise en compte des conditions sociales des producteurs des pays en développement dans le commerce international. Au moment où la notion d’équité tend à devenir omniprésente dans nos sociétés, ce mouvement initié par la société civile semble méconnaître le principe de « partage juste et équitable » des ressources génétiques inclus dans la Convention sur la Diversité Biologique (CDB). Cet article étudie l’application différenciée des principes de la CDB par des acteurs du secteur privé, entreprises et labels, et du commerce équitable. Il conclus ainsi à l’opportunité d’une mise à jour des approches développées par le mouvement du commerce équitable qui prenne en compte les enjeux de la valorisation de la biodiversité et des savoirs traditionnels associés.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.