356 resultados para Difficultés motrices


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les études des effets de l’activité physique sur la cognition humaine et animale ne permettent pas de clarifier si ces effets sont spécifiques au type d’exercice pratiqué et si les gains cognitifs pour un cerveau en développement sont globaux ou exclusifs à certaines fonctions cognitives. Considérant le circuit nerveux entre le cervelet et le cortex préfrontal dorsolatéral, nous croyons qu’un entraînement neuromoteur stimulant les fonctions motrices du cervelet améliorera les fonctions exécutives associées au cortex préfrontal. Comme l’entraînement aérobie a affecté positivement différentes fonctions cognitives dans des études précédentes, nous croyons que ce type d’exercice améliorera les fonctions exécutives et la mémoire à long-terme. Trois classes de sixième année (âge moyen = 11,4 ans) ont été aléatoirement assignées aux groupes neuromoteur (n=22), aérobie (n=19) et contrôle (n=15). Nous nous sommes assurés que l’entraînement neuromoteur ne stimulait aucunement la capacité aérobie et que l’entraînement aérobie n’améliorait aucune habileté motrice. Les entraînements pour les deux groupes expérimentaux consistaient en 30 minutes d’activités par jour d’école pendant les heures de classe, pour 10 semaines ; le groupe contrôle suivait le programme scolaire régulier. Des tests moteurs et cognitifs ont été administrés avant et après l’intervention. Une série d’ANOVAs a révélé que l’entraînement neuromoteur avait amélioré la fluence verbale avec un effet marginal sur la génération de verbe, deux fonctions exécutives associées au circuit fronto-cérébelleux, et que l’entraînement aérobie avait mené à une amélioration distincte de la fluence verbale. Ainsi, nos résultats démontrent que les améliorations des fonctions exécutives sont spécifiques à chaque entraînement pratiqué.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs critiques ont été adressées à Lévinas quant à la difficulté de conjuguer le caractère infini de la responsabilité éthique, qu’il présente comme condition de possibilité de l’expérience, et la mesure de l’obligation envers autrui qui naît inévitablement dans le politique. En effet, la distinction semble si prononcée entre l’obligation éthique transcendante envers l’autre et la logique politique, univers de sens associé à l’ontologie et présenté comme violent et immanent, que l’éthique peut apparaître compromise dès qu’elle est exprimée dans un contexte social. En réponse à ces difficultés, ce mémoire vise à démontrer qu’en dépit de leur opposition fondamentale, l’ordre éthique et l’ordre ontologico-politique font partie d’une structure unique. À la lumière de l’entrée en scène du tiers et de la nécessité de justice qui l’accompagne, l’existence d’un carrefour entre ces couches de significations distinctes, mais interdépendante, peut être illustrée. De fait, la justice constitue un concept amphibologique chez Lévinas qui, participant à la fois de l’éthique et du politique, permet de mettre au jour l’ancrage a priori social de l’éthique. Cette étude présentera des réflexions critiques reliées à la discipline juridique et aux droits de l’homme, qui démontreront comment la pensée de Lévinas non seulement peut, mais doit s’ouvrir à une expression sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Ruah YHWH joue un rôle important dans la transformation créative de l’univers et des entités actuelles; cependant, une réflexion concernant les modalités de ce rôle reste à développer. La théologie processuelle offre une plateforme à partir de laquelle sont examinées diverses facettes des rôles que peut jouer la Ruah YHWH dans un monde où le chaos semble dominer. L’objectif de ce mémoire est justement d’explorer la Ruah YHWH dans son rôle de transformation créative au service, ultimement de l’ordre, de la paix et de l’harmonie dans le monde, les communautés, la vie des entités actuelles, etc. Le Chapitre 1 passe en revue des notions clés de la théologie processuelle. Le concept des “entités actuelles” est d’abord défini. Sont ensuite examinées les différentes phases du devenir d’une entité actuelle. Finalement, les concepts de “créativité” et de “transformation”, dans une perspective de la Ruah YHWH font l’objet d’observations attentives avant d’aborder « trois natures » de Dieu, à savoir primordiale, conséquente, et superjective. Le Chapitre 2 s’intéresse à la péricope centrale de ce mémoire : Juges 13:24-14:20. Le découpage de la structure de cette péricope est basé sur des critères de critique textuelle et d’analyse syntaxique. La première analyse s’attarde aux difficultés que le texte hébreu présente, alors que la deuxième met l’accent sur l’organisation structurelle des propositions grammaticales des versets. Les deux analyses me permettent ensuite de proposer une traduction du péricope. Le Chapitre 3 se veut une application de ce qui a été élaboré au Chapitre 1 sur la péricope analysée au Chapitre 2. Ce troisième chapitre permet de mettre en pratique une approche processuelle originale développée par Robert David dans son livre Déli_l’ ÉCRITURE. Dans la foulée des chapitres qui le précèdent, le Chapitre 4 propose quelques principes herméneutiques contemporains pouvant éclairer le rôle de la Ruah YHWH dans l’avancée créative du monde : vie, amour, et paix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon sujet de recherche traite sur la prononciation de l'espagnol comme langue étrangère chez les élèves québécois, sur leurs difficultés concrètes et lignes de correction qui peuvent leur être attribuées. Dans une première partie plus générale, nous traiterons sur l'enseignement de la prononciation, de la place qu'elle occupe dans l'enseignement d'une langue étrangère. Nous croyons que la prononciation est un aspect de la langue qui a été mis de côté pour mettre en valeur la communication. Si une "mauvaise" prononciation n'entrave pas à la compréhension ou à la communication, elle n'est pas corrigée ni travaillée. Nous pouvons donc nous retrouver avec des étudiants ayant un haut niveau d'espagnol mais dont la prononciation connaît certaines lacunes. Nous déterminerons également ce que nous entendons par "meilleure" ou "mauvaise" prononciation, nous nous interrogerons également sur la pertinence de l'enseignement de la phonétique. Nous nous poserons aussi la question sur la place de la prononciation selon la méthodologie didactique utilisée, et analyserons la quantité et qualité des exercices de prononciation présents ou pas dans les manuels scolaires, et s'ils correspondent aux exigences des documents officiels tels le Cadre commun européenne de référence, ou le Plan curricular de l'institut Cervantès. Dans une deuxième partie nous nous questionnons sur les facteurs qui conditionnent l'apprentissage d'une langue et le perfectionnement de la prononciation dans une langue étrangère, car nous croyons que peut importe l'âge de l'étudiant, il y a toujours place à l'amélioration dans la prononciation. Nous nous interrogeons ensuite sur les tendances générales des francophones lors de leur prononciation de l'espagnol, nous ferons une étude contrastive des phonèmes espagnols et français, puis nous étudierons plus en détail les tendances des élèves québécois, car nous croyons que ces derniers sont dotés de certains atouts en comparaison à d'autres francophones. Dans une troisième partie, nous proposons des exercices visant à améliorer la prononciation chez nos élèves, et afin de vérifier l'efficacité de ces exercices, nous enregistrerons des étudiants ayant bénéficié de ces exercices, et d'autres qui n'y auront pas eu droit. Cette étude comparative cherche à prouver que ces exercices aident réellement et qu'ils, ou d'autres exercices de ce genre, devraient être inclus dans l'enseignement. Le questionnaire dont il s'agit s'attarde principalement au phénomène du [r], que nous croyons être un, ou le son le plus difficile à prononcer en espagnol (autant la vibrante simple comme multiple). Bien entendu, une partie de ce chapitre sera consacrée à l'analyse de résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L’objectif général de la thèse était de caractériser les déficits de reconnaissance mnésique dans la maladie d’Alzheimer et le trouble cognitif léger. La thèse comprend trois articles. Le premier article propose une recension des écrits portant sur les déficits cognitifs dans le trouble cognitif léger, alors que les deux articles suivants rapportent les résultats d’études expérimentales portant sur la reconnaissance. Le but de la première étude empirique était d’évaluer l’impact du type de matériel sur la reconnaissance à long terme et la reconnaissance à court terme dans la maladie d’Alzheimer en comparant l’atteinte pour des stimuli verbaux et musicaux. Nos analyses de groupe ont révélé que les atteintes des personnes avec maladie d’Alzheimer s’étendaient à toutes les épreuves et que les déficits étaient d’une ampleur comparable en reconnaissance musicale et verbale. Les analyses corrélationnelles appuient, bien que partiellement, une certaine spécificité d’atteintes par domaine, particulièrement en reconnaissance à long terme, mais suggèrent également que les deux domaines puissent partager certains mécanismes. L’objectif de la seconde étude était de caractériser les processus utilisés en reconnaissance dans le vieillissement normal et le trouble cognitif léger en fonction de la nouveauté et du type de matériel. L’étude évaluait la recollection et la familiarité à l’aide de la méthode remember/know. Les tâches étaient composées d’items connus et d’items nouveaux faisant partie du domaine verbal ou du domaine musical. Les résultats ont révélé que la recollection était atteinte dans le vieillissement normal et le trouble cognitif léger, mais uniquement pour la reconnaissance de stimuli connus, ce qui est compatible avec le fait que les deux groupes ont de la difficulté à encoder l’information de façon élaborée. D’autre part, la familiarité était compromise dans le vieillissement normal, sans impact additionnel du trouble cognitif léger, et seulement pour la reconnaissance de stimuli inconnus. Cette atteinte peut être associée aux difficultés des aînés dans les tâches d’amorçage perceptif impliquant des items inconnus. Les résultats découlant de ces études s’avèrent pertinents dans une perspective clinique, en plus de pouvoir contribuer à certaines questions d’ordre théorique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur le rôle des organismes communautaires entre 1994 et 2002 dans l’élaboration de politiques pour lutter contre la pauvreté au Québec et en Irlande et ce, dans un contexte de gouvernance. Au cours de années 1980 et 1990, des gouvernements, dont ceux du Québec et de l’Irlande, ont fait appel à des organismes communautaires pour que ceux-ci participent à la gestion des services sociaux ainsi qu’à la formulation des politiques sociales. Cette participation s’est inscrite dans le cadre de nouveaux arrangements politiques, soit des nouvelles formes de gouvernance alors que les gouvernements éprouvaient des difficultés à remédier à l’accroissement des inégalités sociales. Cependant, il demeure difficile de discerner en quoi l’établissement de ces nouvelles formes de gouvernance a façonné le rôle des organismes communautaires dans l’élaboration des politiques pour lutter contre la pauvreté. De plus, les partenariats sociaux en Irlande relèvent d’un processus davantage institué que la concertation au Québec, ce qui a entraîné des différences au plan des mobilisations sociales. L’objectif de cette thèse est donc celui de mieux cerner le lien entre les nouvelles formes de gouvernance et la mobilisation sociale des organismes communautaires dans l’élaboration de politiques pour lutter contre la pauvreté. L’hypothèse mise en avant est que l’efficacité de l’action collective dépend de la manière dont les organismes communautaires s’y prennent pour pallier l’incertitude qui caractérise les modes de gouvernance. Sur le plan théorique, cette thèse mise sur les interactions entre acteurs et, plus particulièrement, sur la formation de réseaux de politiques publiques. Cela implique plus précisément de cerner comment les acteurs coordonnent des activités entre eux et se rallient autour d’un même thème, comme celui de la lutte contre la pauvreté. Lorsque la coordination des activités est forte et que le ralliement autour d’un même thème est important, on parle de coalition de cause. La nécessité de former une coalition se produit dans le contexte d’un champ institutionnel incertain, comme c’est le cas pour les mécanismes de concertation au Québec. Mais le caractère incertain du champ institutionnel entraîne aussi des divergences à l’intérieur de la coalition instaurée à cette occasion, ayant pour effet d’affaiblir la mobilisation sociale. Ainsi, l’interprétation que font les organismes communautaires des nouvelles formes de gouvernance façonne la manière dont ces organismes vont définir la lutte contre la pauvreté et élaborer leurs stratégies. Sur le plan méthodologique, le choix des cas de l’Irlande et du Québec repose dans les différences qui existent en termes de gouvernance et ce, alors qu’ils partagent de fortes similarités. Tant l’Irlande que le Québec sont caractérisés par des économies de marché ouvertes, des régimes d’État-providence de type libéral ainsi que l’emprise, par le passé, de l’Église catholique dans les services sociaux. Cependant, ces deux cas diffèrent en ce qui concerne le rôle de l’État, le système électoral, le statut juridico-politique, le caractère de leur économie et la place occupée par le milieu communautaire par rapport à l’État. Ces différences permettent de rendre compte du moins en ce qui concerne le Québec et l’Irlande, de la manière dont l’action collective découle de la relation entre les stratégies des acteurs et le contexte dans lequel ils se situent. Cette thèse montre comment, dans un processus davantage institué, comme c’est le cas des partenariats sociaux en Irlande, la mobilisation sociale s’avère plus efficace que lorsqu’elle se situe dans le cadre d’un processus moins institué, comme ce qu’on peut observer avec la concertation au Québec. Bien que, dans les deux cas, l’influence du milieu communautaire en matière des politiques sociales demeure mitigée, la mobilisation sociale des organismes communautaires irlandais s’est avérée plus efficace que celle de leurs homologues québécois eu égard de la formulation de politiques pour lutter contre la pauvreté. Au Québec, bien que les organismes communautaires sont parvenus à former une coalition, soit le Collectif pour une loi sur l’élimination de la pauvreté, leur mobilisation s’est trouvée affaiblie en raison de la prédominance de divergences entre acteurs communautaires. De telles divergences étaient aggravées en raison du caractère incertain du champ institutionnel lié à la concertation. En Irlande, bien que les organismes communautaires ont dû faire face à des contraintes qui rendaient difficiles la formation d’une coalition, ceux-ci ont pu néanmoins se mobiliser autrement, notamment en raison de liens formés avec des fonctionnaires dans le cadre des ententes partenariales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude porte sur l’évaluation d’une méthode d’acquisition de la solution de sol présente à l’interface sol-racine, dans la rhizosphère. Cette interface constitue le lieu privilégié de prise en charge par les plantes des contaminants, tels que les métaux traces. Comme les plantes acquièrent ces éléments à partir de la phase liquide, la solution de sol de la rhizosphère est une composante clé pour déterminer la fraction de métaux traces biodisponibles. La microlysimétrie est la méthode in situ la plus appropriée pour aborder les difficultés liées à l’échelle microscopique de la rhizosphère. Ainsi, dans les études sur la biodisponibilité des métaux traces au niveau de la rhizosphère, les microlysimètres (Rhizon©) gagnent en popularité sans, toutefois, avoir fait l’objet d’études exhaustives. L’objectif de cette étude est donc d’évaluer la capacité de ces microlysimètres à préserver l’intégrité chimique de la solution, tout en optimisant leur utilisation. Pour ce faire, les microlysimètres ont été soumis à une série d’expériences en présence de solutions et de sols, où la quantité de solution prélevée et le comportement des métaux traces (Cd, Cu, Ni, Pb, Zn) ont été étudiés. Les résultats montrent que les microlysimètres fonctionnent de façon optimale lorsque le contenu en eau du sol est au-dessus de la capacité au champ et lorsqu’il y a peu de matière organique et d’argile. Les sols sableux ayant un faible contenu en C organique reproduisent mieux le volume prélevé et la solution sous la capacité au champ peut être récoltée. L’utilisation des microlysimètres dans ces sols est donc optimale. Dans les essais en solution, les microlysimètres ont atteint un équilibre avec la solution après 10 h de prélèvement. En respectant ce délai et les conditions optimales préalablement établies (pH acide et COD élevé), les microlysimètres préservent la composition chimique de la solution. Dans les essais en sol, cet équilibre n’a pas été atteint après dix jours et huit prélèvements. Le contenu en matière organique et l’activité microbienne semblent responsables de la modification des concentrations en métaux au cours de ces prélèvements, notamment, dans l’horizon FH où les microlysimètres performent très mal. En revanche, dans l’horizon B, les concentrations tendent à se stabiliser vers la fin de la série de prélèvements en se rapprochant des valeurs de référence. Bien que des valeurs plus élevées s’observent pour les microlysimètres, leurs concentrations en métaux sont comparables à celles des méthodes de référence (extrait à l’eau, lysimètres de terrain avec et sans tension). En somme, les microlysimètres se comportent généralement mieux dans l’horizon B. Même si leur utilisation est plus optimale dans un sol sableux, cet horizon est privilégié pour de futures études sur le terrain avec les microlysimètres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le champ d’application de la Convention de Vienne de 1980 sur la vente internationale de marchandises constitue une question très délicate. En effet, le caractère abstrait et supplétif de ladite Convention a donné naissance à une jurisprudence fort divergente et à une doctrine rarement en accord. Les difficultés d’application de la Convention démontrent clairement les limites de cette dernière à s’adapter aux nouveaux contrats de vente internationale. Ces difficultés sont-elles dues à une mauvaise interprétation des termes de la convention ? Serait-il juste de compléter les lacunes de la Convention de Vienne par d’autres Conventions telles que les règles d’UNIDROIT ou les principes de droit européen des contrats ? Faut-il aller «au-delà» de la Convention de Vienne ? Toutes ces questions doivent être gardées en tête pour bien analyser le champ d’application de ladite Convention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Loi sur le système de justice pénale pour les adolescents est récente en matière de justice des mineurs. Sa mise en vigueur en avril 2003 a précisé et changé les critères de la détermination de la peine. Le présent mémoire vise à mieux cerner ce sur quoi les juges se fondent pour prendre leurs décisions. À cette fin, une analyse de la jurisprudence disponible ainsi que des entrevues avec des juges oeuvrant à la chambre de la jeunesse de Montréal ont été effectuées. L’application des dispositions relatives aux objectifs et aux principes propres à la détermination de la peine a suscité des commentaires de la part des juges et des difficultés ont été soulevées. Des balises ont également été établies par les juges dans le cadre de leur pratique. Ils les suivent pour déterminer les peines. Il en ressort que le système de justice pour mineurs se rapproche du système de justice pour adultes, dont les interventions sont davantage centrées sur l’infraction que sur l’infracteur. Les juges semblent néanmoins accorder une attention particulière pour que ces deux systèmes de justice demeurent différents, et ce malgré le rapprochement constaté. De plus, il ressort qu’un équilibre est recherché entre deux principes directeurs : la proportionnalité de la peine à la gravité de l’infraction et au degré de responsabilité de l’adolescent, ainsi que la réadaptation et la réinsertion sociale de ce dernier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le phénomène de la création dans le cadre d’un discours sur la création – la production littéraire et artistique – ne va pas de soi. La tâche de le circonscrire comme un objet est antinomique : l’expérience du discours est en soi une création. Alors que le langage écrit semble au plus souvent «supprimer» l’auteur, le processus de création implique un «Je» créateur qui pense, qui se transforme, qui vit et dont la pensée s’imbrique à son objet qui, quant à lui, est «supprimé»; car il n’est pas extérieur à la pensée mais en relation avec elle. Ce travail, qui démontre le rapport complexe entre l’objet, la critique, le sujet et le commentaire, se penche donc sur l’«avant», le «pendant» et l’«après» de la création, dans un acte de mémoire, qui découle d’une performance littéraire sur la création. Des forces motrices informes et inconscientes, à la mise en forme jusqu’à la transmission, qui lui redonne un caractère d’informe, la création est en mouvement, comme le savoir est toujours prisonnier d’un «work in progress». Tributaire d’Antonin Artaud, le texte s’inscrit à partir de l’artiste en guise d’archétype existentiel, et s’y réfère constamment pour témoigner de la création sans la détacher de la vie et de ses expériences. Pour accéder au mystère du processus de création, lié à la pensée subjective, inobjectivable et irréductible au discours linéaire, ce travail met l’accent sur les associations de la pensée qui procède, exprimées par un «Je» exemplaire omniprésent, tatoué par l’expérience, mais à la position ambiguë à titre d’auteur. Processus de vie, de pensée et de création sont non seulement entremêlés, mais traversés par le champ du tout autre, historique, mondial et social, en perpétuelle évolution. Le rôle du créateur n’est pas de ne créer qu’à partir des connaissances extérieures à lui, mais à partir de lui-même – de son moi multiple et de sa pensée imprégnée de lectures et de ce qui le traverse et l’habite dans un temps donné – pour aboutir à la mise en forme d’un texte cohérent, d’une gravure particulière de l’esprit en marche vers le savoir, qui se situe toujours dans le devenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les politiques éducatives se multiplient à l’échelle des pays industrialisés mais celles-ci semblent rencontrer de graves problèmes d’atteinte de résultats concrets et satisfaisants. La mise en œuvre d’une politique, notamment les stratégies gouvernementales « hybrides » sélectionnées, c’est-à-dire des stratégies d’implantation de politiques qui misent à la fois sur des stratégies « top-down » et aussi « bottom-up », semble être un élément-clé à considérer pour leur efficience (Gather-Thurler, 2000; Van Zanten, 2004; Fullan, 2005, 2007). Or, les connaissances concernant ces stratégies de mise en œuvre sont partielles, encore peu développées et les raisons qui expliquent ces choix politiques se font rares; ce qui rend la production de politiques effectives et durables difficile (Fullan, 2000; Leithwood et Earl, 2000; Van Zanten, 2004). Le Québec a entrepris, en 1997, une réforme à grande échelle de son système d’éducation; réforme qui mise explicitement sur des stratégies gouvernementales « hybrides » pour sa réalisation. Cette étude s’attarde à cette réforme, plus spécifiquement à sa réforme du curriculum au primaire, afin de : 1) retracer les grands moments-clés de la mise en œuvre de la politique associés aux différentes dimensions du concept d’« hybridité »; 2) identifier et décrire les stratégies gouvernementales « hybrides » qui leur sont associées; 3) formuler des hypothèses explicatives provisoires et les valider; 4) élaborer un modèle explicatif et 5) expliciter l’incidence du modèle proposé sur les théories existantes. Cette étude de cas est effectuée par l’entremise de deux formes de cueillette de données complémentaires : une analyse documentaire et des entrevues semi-dirigées. Une analyse documentaire est réalisée à partir des documents formels de l’autorité publique (N=14) et d’une revue de presse, de 1995 à 2003 (N=648). Les entrevues (N=23) visent, pour leur part, à recueillir les propos des : 1) concepteurs et décideurs; 2) opérationnalisateurs; 3) concepteurs-opérationnalisateurs et 4) experts. La combinaison des données recueillies permet d’établir la comparaison entre le processus et la structure (Meny et Thoenig, 1989), le prescriptif et l’effectif, afin de comprendre la vraie dynamique qui a animé le processus de mise en œuvre de la politique étudiée. Ainsi, l’examen du processus de mise en œuvre de la réforme du curriculum québécois du primaire permet de retracer le modèle d’implantation de la politique curriculaire québécoise. Ce modèle d’implantation novateur fait état du fait que des stratégies hybrides non improvisées et exigeantes furent pensées et proposées par les autorités québécoises. Ce modèle d’implantation élaboré permettait de penser que la politique curriculaire québécoise allait, possiblement, permettre d’obtenir des résultats tangibles et durables dans les milieux scolaires. L’analyse de la structure de mise en œuvre révèle, pour sa part, que les stratégies d’implantation qui se sont déployées sur le terrain rejoignaient presqu’intégralement les stratégies « hybrides » initialement prévues. Le processus d’implantation a cependant connu une évolution différente de celle attendue. La mise en œuvre concrète qui s’est vécue sur le terrain fut difficile et hasardeuse, malgré l’approche « hybride » adoptée. Les éléments qui expliquent les difficultés d’implantation vécues sont présentés et analysés dans cette étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La situation d’un patient trop malade pour une transplantation et qui est maintenu à long terme aux soins intensifs (SI) avec l’aide d’un dispositif d'assistance ventriculaire (DAV) peut évoluer de multiples façons. Malheureusement, plusieurs soignants vivent un malaise lorsque ce patient survit avec des complications, sans possibilité de transplantation cardiaque ni de retour à domicile. Par conséquent, différents buts thérapeutiques sont poursuivis au sein de l’équipe soignante. L’étude avait pour objectifs de cerner les buts poursuivis par les professionnels de la santé œuvrant auprès de ce type de patient, de clarifier les facteurs influençant les buts poursuivis et de mieux connaître les difficultés éprouvées par l’équipe soignante dans l’élaboration d’un but commun. La phénoménologie a été utilisée comme méthodologie de définition de la problématique. L’échantillon comprenait 12 participants représentant les infirmières, médecins et perfusionnistes d'une unité de SI, travaillant auprès de ce type de patient. Chacun des participants a fait l’objet d’une entrevue individuelle, semi-dirigée et enregistrée sur appareil audio. Il leur a d’abord été présenté une vignette à partir de laquelle ont été posées un certain nombre de questions identiques pour tous. Dans leurs réponses à ces questions, les participants ont eu la possibilité de s’exprimer autant sur leur expérience que sur le contexte du phénomène. Une seconde rencontre a été nécessaire afin de valider ou de corriger l’interprétation de ce que chacun avait exprimé durant l’entrevue. L'analyse des données témoigne d’un manque d’harmonie quant au but à poursuivre à l’égard du patient en question. Environ la moitié des participants visent la transplantation, alors que les autres poursuivent d’autres buts comme la sortie des SI, la limitation des traitements ou les soins palliatifs. Les participants sont influencés majoritairement par les volontés du patient, l'absence de mécanisme formel de communication entre eux et les facteurs professionnels tels que : les valeurs, les pratiques et l’environnement, sans oublier les rapports de pouvoir. Un certain nombre de barrières empêchent l’équipe de déterminer un but commun. Pour vaincre ces obstacles et s’entendre sur les buts à poursuivre en équipe, le développement de la communication multidisciplinaire s’impose. Pour y arriver, deux prérequis doivent être développés : l’intention éthique et l’engagement.