183 resultados para savoir pratique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur la lexicologie, la lexicographie et l’enseignement/apprentissage du lexique. Elle s’inscrit dans le cadre du projet Modélisation ontologique des savoirs lexicographiques en vue de leur application en linguistique appliquée, surnommé Lexitation, qui est, à notre connaissance, la première tentative d’extraction des savoirs lexicographiques — i.e. connaissances déclaratives et procédurales utilisées par des lexicographes — utilisant une méthode expérimentale. Le projet repose sur le constat que les savoirs lexicographiques ont un rôle crucial à jouer en lexicologie, mais aussi en enseignement/apprentissage du lexique. Dans ce mémoire, nous décrirons les méthodes et les résultats de nos premières expérimentations, effectuées à l’aide du Think Aloud Protocol (Ericsson et Simon, 1993). Nous expliquerons l’organisation générale des expérimentations et comment les savoirs lexicographiques extraits sont modélisés pour former une ontologie. Finalement, nous discuterons des applications possibles de nos travaux en enseignement du lexique, plus particulièrement pour la formation des maîtres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avant-propos: La résolution de conflits s’est installée dans les cursus universitaires comme une discipline à part entière sinon comme une orientation au sein de plusieurs sciences sociales. En effet, ce champ d’étude fait de plus en plus l’objet de réflexions en sciences politiques, en sociologie, en anthropologie, etc, et ce, de par l’interdisciplinarité des questionnements qui en relèvent. Toutefois, la dimension religieuse, souvent considérée comme source de conflits, est quasi inexistante lorsqu’il est question d’approches de résolution. Nous nous proposons donc d’examiner la solha, une pratique proche orientale au sein de laquelle le fait religieux est une composante essentielle à la réconciliation escomptée. Note concernant la translittération: Les termes provenant de l’arabe feront l’objet d’une translittération phonétique basée sur le français. Notez que les translittérations en langue française sont différentes de celle en langue anglaise. Par exemple, le terme solha trouvera son équivalent anglais dans le terme sulha (d’où la différence d’orthographe entre le contenu de cette étude et les citations qui proviennent d’articles anglophones). De plus, notez que le genre (féminin, masculin) des termes translittérés reprendra celui de la langue d’origine, l’arabe. Ainsi, solha sera féminin, jaha aussi, etc… Finalement, pour des raisons de clarté, les termes translittérés seront tous en italique dans le texte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Ruah YHWH joue un rôle important dans la transformation créative de l’univers et des entités actuelles; cependant, une réflexion concernant les modalités de ce rôle reste à développer. La théologie processuelle offre une plateforme à partir de laquelle sont examinées diverses facettes des rôles que peut jouer la Ruah YHWH dans un monde où le chaos semble dominer. L’objectif de ce mémoire est justement d’explorer la Ruah YHWH dans son rôle de transformation créative au service, ultimement de l’ordre, de la paix et de l’harmonie dans le monde, les communautés, la vie des entités actuelles, etc. Le Chapitre 1 passe en revue des notions clés de la théologie processuelle. Le concept des “entités actuelles” est d’abord défini. Sont ensuite examinées les différentes phases du devenir d’une entité actuelle. Finalement, les concepts de “créativité” et de “transformation”, dans une perspective de la Ruah YHWH font l’objet d’observations attentives avant d’aborder « trois natures » de Dieu, à savoir primordiale, conséquente, et superjective. Le Chapitre 2 s’intéresse à la péricope centrale de ce mémoire : Juges 13:24-14:20. Le découpage de la structure de cette péricope est basé sur des critères de critique textuelle et d’analyse syntaxique. La première analyse s’attarde aux difficultés que le texte hébreu présente, alors que la deuxième met l’accent sur l’organisation structurelle des propositions grammaticales des versets. Les deux analyses me permettent ensuite de proposer une traduction du péricope. Le Chapitre 3 se veut une application de ce qui a été élaboré au Chapitre 1 sur la péricope analysée au Chapitre 2. Ce troisième chapitre permet de mettre en pratique une approche processuelle originale développée par Robert David dans son livre Déli_l’ ÉCRITURE. Dans la foulée des chapitres qui le précèdent, le Chapitre 4 propose quelques principes herméneutiques contemporains pouvant éclairer le rôle de la Ruah YHWH dans l’avancée créative du monde : vie, amour, et paix.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus de médecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Confrontée à des familles devant faire face à des questions reliées à l'honneur, l'ethnopsychiatrie ne peut faire l'économie de s'interroger sur cette notion. C'est l'un des objectifs de cette thèse qui se donne pour mission, non seulement de réaliser une revue de la littérature sur ce thème, mais aussi de dégager l'intérêt de ce concept pour cette discipline.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le design urbain, dimension de la pratique urbanistique, consiste principalement en la manipulation de la forme urbaine selon une démarche ciblée et encadrée. Les approches sont aussi nombreuses que diversifiées. On peut néanmoins les classer en deux catégories : les approches visant la forme urbaine en tant qu‟objet qui contient l‟organisation formelle de la ville et celles qui visent le travail sur la forme urbaine afin d‟organiser la dynamique urbaine humaine. Les deux types d‟approches soutiennent différentes démarches d‟aménagement qui contribuent à développer la forme urbaine et la dynamique des lieux. Parmi celles-ci se trouve la vision de type empirique, laquelle vise l‟expérience urbaine à l‟échelle du piéton. Les écrits et les théories à ce sujet sont variés et pertinents. La présente recherche porte sur la transposition des prescriptions empiriques dans la planification d‟un projet qui intègre une démarche de design urbain. Au moyen d‟une étude de cas, la Cité multimédia à Montréal, il s‟agit de comprendre plus spécifiquement comment le canevas maître du design urbain, soit l‟espace public, est étudié et reformulé et ce, en accordant une attention particulière pour la dimension empirique du futur aménagement. Quelles sont les balises ou les composantes qui permettent à la dimension empirique de se déployer dans la conception d‟un projet urbain qui vise une reformulation de la forme urbaine?

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le présent mémoire, je revisite l’oeuvre de Foucault à la lumière des analyses qu’il offre entre 1981 et 1984 dans ses derniers cours au Collège de France. À l’encontre de l’avis qui voit une rupture dans la pensée foucaldienne – opinion justifiée par la transition radicale qu’opère Foucault depuis l’étude de la relation entre pouvoir et savoir à l’analyse des techniques de subjectivation dans l’Antiquité – j’illustre qu’il y a continuité et complémentarité entre ses analyses des années 1970 et ses démonstrations des années 1980. Foucault trouve, au fondement de la pratique politique gréco-romaine, une éthique définie comme travail de soi sur soi. Aussi tente-t il, au travers de ses dernières analyses, de réactualiser l’askêsis comme fondement oublié de l’éthique, et l’êthos comme condition d’efficacité de la politique. Si, jusqu’en 1980, Foucault s’intéresse aux mécanismes et aux dispositifs permettant le gouvernement de la population, à partir de 1980, c’est la question du gouvernement de soi comme condition nécessaire du gouvernement des autres qui investit ses analyses. L’objectif de ce mémoire est d’illustrer, à partir de la redéfinition foucaldienne de l’éthique, la présence d’une nouvelle théorie de la résistance dans ses derniers cours au Collège de France. Par voie de conséquence, je propose implicitement des éclaircissements sur la fonction qu’occupent L’Usage des plaisirs et le Souci de soi, ultimes publications de l’auteur, au sein de son oeuvre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire s’intéresse à la relation entre des archéologues et des Atikamekw de la communauté de Wemotaci, située en Haute-Mauricie. Cette relation est abordée sous l’angle de la transmission des savoirs. En effet, archéologues et Amérindiens possèdent des systèmes de connaissances distincts et c’est de la dynamique de rencontre entre ces deux corpus de savoirs dont il est ici question. Contrairement à ce que décrit généralement la littérature, les différences de conceptions à divers niveaux comme le rapport au passé, au territoire ou à l’objet n’empêchent pas une reconnaissance mutuelle des savoirs entre les archéologues et les Atikamekw. Chacun des groupes acquiert et intègre même les connaissances de l’autre selon ses préoccupations et ses besoins. Cette transmission des connaissances ne se limite pas à l’échange entre les archéologues et les Atikamekw, elle a également eu lieu entre les différentes générations amérindiennes. À travers une histoire où se conjuguent colonisation, éducation et sédentarisation, les savoirs des Atikamekw se trouvent au cœur du changement. C’est ainsi que la pratique archéologique peut devenir un moyen pour mettre en valeur des connaissances autochtones en permettant une rencontre intergénérationnelle sur un terrain de fouilles archéologiques. Enfin, dans un contexte où les nations autochtones désirent participer à tout ce qui concerne la protection de leur patrimoine culturel, l’archéologie peut également devenir un outil de réappropriation culturelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En dépit des justifications que l’on a pu donner de la logique du principe, il subsiste une difficulté de taille au niveau de son application. En effet, il n’est pas certain que l’on puisse savoir qu’un risque possible (mais inconnu) est associé à une action donnée. Cette difficulté épistémologique pourrait fonder deux critiques juridiques au principe de précaution : la critique selon laquelle le principe implique un renversement inacceptable de la charge de la preuve ; et la critique qui tient à l’imprécision indépassable des tentatives de formulations juridiques du principe. Notre examen de la pratique du principe de précaution par le Conseil d’Etat relèvera que les décisions juridiques réussissent à délimiter un champ d’application acceptable pour le principe en question. C’est en fin de compte l’analyse des motivations sociales pour la traduction juridique du principe de précaution qui nous permettra de trouver les fondements de son application correcte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ Forme littéraire développée dès les débuts du IVe siècle, l’hagiographie, plus tard sanctionnée par l’Église catholique romaine, se déploie avec tout le rituel et le décorum requis par le genre institué, dévoilant les modalités du savoir et du croire qui la distingue. Cette forme fixe fut réactivée, contre toute attente, dans une somme étoffée durant la seconde moitié du XXe siècle par le Collège de ‘Pataphysique, aréopage de philosophes, littérateurs et plasticiens, qui n’est pas un conclave d’excentriques, pas davantage qu’un nouvel « isme », mais une institution qui résolument emblématise la Science. Ce réemploi générique de l’hagiographie est caractérisé par une hétérogénéité bien peu canonique s’inscrivant dans une continuité problématique par rapport au sous-texte. Une première traversée du Calendrier inviterait à croire à une entreprise parodique et iconoclaste. La parodie, qui est aussi une imitation, pose un problème de visée. Le second degré de Gérard Genette implique deux grands régimes discursifs : le sérieux (le sérieux proprement dit et le satirique) et le ludique. Ces régimes nous ont été utiles pour arrimer la question de l’humour. Il y a là en somme deux possibilités, soit la parodie sérieuse conduisant à ridiculiser l’hagiographie et le Calendrier des Saints qui seraient sérieusement visés, néantisés, tournés en dérision; soit la parodie ludique, à portée nulle, simple jeu, farce farfelue, « pour rire ». Or, nous avons tenté de démontrer dans ce mémoire que, même s’il y a lieu d’avancer des arguments en faveur de l’un et de l’autre type de parodie, le partage ne fonctionne pas, précisément peut-être parce qu’il est possible de montrer à la fois que c’est sérieux et pas sérieux. Dans un troisième temps, on peut aussi faire la démonstration que le pas-sérieux est sérieux. Les jeux de mots, d’homophonie n’engagent-ils pas le Verbe? L’imitation impossible ne réfléchit-elle pas les imitabile de la Sainte Église? La situation énonciatrice tributaire de l’hagiographie pataphysique est non différentiable d’un souci de didactisme qui place la composante moralisatrice au centre des enjeux discursifs. Elle induit de ce fait des attentes en matière d’ethos consistant à mettre au même diapason une représentation sociale de l’énonciateur et une représentation intradiscursive au ton didactique. Elle adjoint un autre ton, savant celui-là, érudit, qui vient défaire la belle convergence et fait disjoncter la rhétorique du genre. Cette rhétoricité problématique de l’hagiographie pataphysique a été abordée sous l’angle de l’ethos. L’ethos est l’instance de validation par laquelle nous renvoyons non pas au caractère de l’orateur, mais, suivant en cela Dominique Maingueneau, au type de parole engendrée par le discours et qui, en retour, rend ce discours crédible. Que devient cette instance lorsque la visée persuasive du discours est remise en question, que l’ethos se démultiplie de façon hétérogène sans véritablement assurer la cohésion du propos ni garantir sa portée? La parodie posant incidemment un problème de visée, est-ce du côté d’un ethos parodique que se trouve la réponse? Il nous a convenu de mesurer, d’articuler, de déplacer cette postulation. Nous nous sommes saisi, pour les besoins de notre argumentation, d’une discipline historiquement lourde d’investissement théorique, soit la rhétorique. Celle-ci constitue à la fois une méthode de composition d’un discours reposant sur des lieux susceptibles de susciter l’adhésion et l’émulation de l’énonciataire et une méthode d’analyse. Guidé par une définition étendue du texte, traversant les littératures non narrative et narrative, il nous a importé enfin de restituer la pratique cymbaliste à partir d’un corpus qui est resté l’apanage du « seul » pataphysicien. Nous nous sommes ainsi situé dans l’horizon plus global de la réceptivité d’un discours qui évacue l’idéologique, qui jamais ne se laisse saisir tout à fait, ni enferrer par le fétiche du sens au profit des potentialités qu’il recèle, et cela à partir d’axiomes arbitraires soumis à l’unique exigence de cohérence interne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le cadre de cette étude, nous nous sommes intéressés aux infirmières soignantes qui possèdent un diplôme d’études collégiales ou un baccalauréat. L’infirmière est celle ayant reçu une formation collégiale et la clinicienne, une formation universitaire de premier cycle. Au niveau législatif, selon que l’infirmière soit titulaire ou non d’un baccalauréat, le champ de pratique autorisé demeure le même. Cependant, l’étendue de la pratique pourrait varier selon la formation reçue et le poste occupé. Cette étude descriptive et interprétative de type qualitatif avait pour but de décrire l’étendue de la pratique des infirmières et des infirmières cliniciennes dans une unité de médecine et de chirurgie et d’identifier les facteurs organisationnels influençant l’étendue de la pratique. Le cadre de référence ayant été utilisé est le cadre d’analyse de l’étendue de la pratique conçu pour le Collège des infirmières autorisées de la Nouvelle-Écosse (CRNNS, 2005). Selon ce cadre, l’étendue optimale de la pratique des infirmières se divise en 4 catégories distinctes, soit le processus de soins infirmiers, les pratiques relationnelles, le leadership ainsi que l’enseignement et le transfert des connaissances. La collecte de données a été conduite au moyen d’entrevues individuelles semi-structurées auprès de 8 informateurs clés soit trois infirmières et trois infirmières cliniciennes d’une unité de médecine et de chirurgie et de deux gestionnaires. Les résultats semblent montrer que les différentes composantes de l’étendue de la pratique sont mobilisées tant chez les infirmières que chez les infirmières cliniciennes interviewées. Toutefois, les résultats semblent montrer que certaines composantes, soit le leadership et le transfert des connaissances, semblent davantage mobilisées chez les infirmières cliniciennes. De plus, l’étude a permis d’identifier les différents facteurs organisationnels qui semblent influencer l’étendue de la pratique des infirmières et des infirmières cliniciennes. La charge de travail semble être le principal facteur d’influence. Nous avons aussi pu constater l’influence certaines composantes reliées à l’environnement de travail et à la composition et aux caractéristiques des équipes de soins.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose de conceptualiser la culture organisationnelle d’un angle nouveau. Mary Jo Hatch (1993), dans son modèle de Cultural Dynamics, soutient que la culture d’une entreprise favorise la modulation de l’identité des individus y travaillant. Partant de cette affirmation, je me questionne à savoir si l’inverse est aussi possible. La culture de l’organisation et l’identité des individus y travaillant peuvent-ils évoluer dans une dynamique de co-construction? Afin d’étudier ce phénomène, j’ai mené une série d’entrevues selon la méthode du récit de vie au sein d’Empire Sports, une chaîne québécoise de boutiques de vente au détail d’articles de sports extrêmes. En me basant sur la théorie des communautés de pratiques, j’ai analysé et interprété les résultats obtenus lors des entrevues. J’arrive à identifier et à préciser ce phénomène de co-construction que j’interprète à l’aide d’un nouveau concept appelé la culture extrême. Comme cette recherche est exploratoire, les conclusions ouvrent la possibilité d’approfondir davantage les connaissances à propos de la culture extrême en l’examinant dans d’autres contextes organisationnels.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.