670 resultados para f Quelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de stratégies antisyndicales est un phénomène de plus en plus préconisé par l’acteur patronal (Bronfenbrenner, 2009b). Une piste d’explication de cette croissance serait liée à l’idéologie de gestion se basant sur une amertume inhérente à l’idée de partager le pouvoir avec une tierce partie représentant des travailleurs (Dundon et al., 2006). Dans le but de faire régner cette idéologie et de conserver un environnement de travail sans présence syndicale, des multinationales se sont même positionnées ouvertement contre la syndicalisation, que l’on pense à Wal-Mart, Mc Donald’s ou Disney (Dundon et al., 2006). Avec cette puissance que les multinationales détiennent actuellement, il ne fait nul doute qu’elles exercent une influence auprès des dirigeants des plus petites entreprises (Dundon et al., 2006), ce qui pourrait expliquer ce recours accru aux stratégies antisyndicales, que ce soit avant ou après l’accréditation syndicale. Mais qu’en est-il de l’antisyndicalisme de l’acteur patronal en sol canadien? Pour certains, les employeurs canadiens pratiqueraient davantage une stratégie d’acceptation du syndicalisme comparativement à nos voisins du sud à cause notamment de la plus forte présence syndicale historique dans le système des relations industrielles canadien, des tactiques syndicales canadiennes différentes (Thomason & Pozzebon, 1998) et des lois encadrant davantage les droits d’association et de négociation collective (Boivin, 2010; Thomason & Pozzebon, 1998). Des travaux montrent cependant une réelle volonté de la part des employeurs canadiens à avoir recours à des stratégies d’opposition à la syndicalisation (Bentham, 2002; Martinello & Yates, 2002; Riddell, 2001). Selon les auteurs Martinello et Yates (2002), six pour cent (6 %) des employeurs ontariens couverts dans le cadre de leur étude n’auraient adopté aucune tactique pour éviter ou éliminer le syndicat : quatre-vingt-quatorze pour cent (94 %) des employeurs couverts ont ainsi utilisé différentes tactiques pour s’opposer au syndicalisme. C’est donc dire que l’opposition patronale face au mouvement syndical révélée par l’utilisation de diverses stratégies antisyndicales est aussi présente chez les employeurs canadiens. Peu d’études canadiennes et québécoises ont pourtant enrichi la littérature au sujet de ce phénomène. De manière générale, les travaux effectués sur la question, anglo-saxons et surtout américains, font principalement état du type de stratégies ainsi que de leur fréquence d’utilisation et proposent souvent une méthodologie basée sur une recension des décisions des tribunaux compétents en la matière ou l’enquête par questionnaire. Face à ces constats, nous avons visé à contribuer à la littérature portant sur les stratégies antisyndicales et nous avons construit un modèle d’analyse nous permettant de mieux cerner leurs effets sur les travailleurs et les syndicats. Notre recherche se démarque également de la littérature de par les démarches méthodologiques qu’elle propose. Nous avons en effet réalisé une recherche de nature qualitative, plus spécifiquement une étude de cas d’une entreprise multiétablissement du secteur du commerce au détail. Notre modèle d’analyse nous permet de dégager des constats quant aux effets de l’utilisation des stratégies patronales antisyndicales auprès des travailleurs visés et du syndicat visé, que ce soit sur les intérêts individuels, les intérêts collectifs ainsi que sur les intérêts du syndicat tels que proposés par Slinn (2008b). Également, nous cherchions à comprendre dans quelle mesure les stratégies antisyndicales contribuent à diminuer (effet paralysant) ou à augmenter (effet rebond) la propension à la syndicalisation des travailleurs visés par les stratégies, tout en tenant compte de la propension des travailleurs d’autres succursales qui n’étaient pas visés directement par cette utilisation (effet d’entraînement). Pour atteindre nos objectifs de recherche, nous avons procédé en trois phases. La phase 1 a permis de faire la recension de la littérature et de formuler des propositions théoriques à vérifier sur le terrain. La phase 2 a permis de procéder à la collecte de données grâce aux entrevues semi-dirigées réalisées à deux niveaux d’analyse : auprès de représentants syndicaux et de travailleurs. Au cours de la phase 3, nous avons procédé à la retranscription des entrevues effectuées et nous avons analysé les principaux résultats obtenus. La méthode de l’appariement logique (Yin, 2009) a été utilisée pour comparer les phénomènes observés (données issues du terrain) aux phénomènes prédits (constats de la littérature et propositions théoriques). À la suite de la réalisation de la phase 3, nous constatons que la campagne de peur a été celle qui a été la plus utilisée en réaction à la menace de présence syndicale avec les tactiques dites coercitives qui la composent : la fermeture de deux succursales, un discours devant un auditoire captif, la diffusion d’une vidéo interne, etc. De ce fait, un sentiment de peur généralisé (86 % des répondants) s’attaquant aux intérêts collectifs a été perçu à la suite de l’utilisation des tactiques antisyndicales. Par conséquent, nous avons pu observer l’effet de ces tactiques sur les travailleurs visés et sur le syndicat : elles auraient en effet gelé la propension de travailleurs d’autres succursales à se syndiquer (64 % des répondants) et donc freiné la campagne syndicale en cours. Nous constatons également que bon nombre de tactiques ont été déployées à la suite de l’accréditation syndicale en s’attaquant aux intérêts individuels. Mentionnons, pour n’en citer que quelques-uns, que les travailleurs feraient face à une plus forte discipline (72 % des répondants), qu’ils seraient victimes d’intimidation ou de menaces (80 % des répondants) et que ces tactiques provoquèrent des démissions à cause de l’ambiance de travail alourdie (50 % des répondants).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La musique est universelle et le chant est le moyen d’expression musicale le plus accessible à tous. Les enfants chantent spontanément entre un an et un an et demi (Ostwald, 1973). Pourtant, le développement de cette habileté est très peu étudié en neuropsychologie et ce, malgré le fait qu’elle représente une immense source d’informations sur le traitement de la musique par le cerveau. Les études proposées ici visaient à mieux comprendre le développement normal et pathologique des fonctions perceptives et vocales. Dans un premier temps, une étude sur le chant normal chez les enfants de 6 à 11 ans est présentée. Le développement du chant de 79 enfants d’âge scolaire y est analysé de manière systématique et objective. Cette étude se penche plus particulièrement sur l’influence de l’âge ainsi que d’autres facteurs (le genre, la perception musicale, la présence de paroles et la présence d’un accompagnement vocal) sur la qualité du chant. Les jeunes participants ont chanté une chanson familière dans différentes conditions, soit avec et sans paroles, après un modèle ainsi qu’à l’unisson avec ce dernier. Suite à l’analyse acoustique des performances, différentes variables mélodiques et rythmiques telles que le nombre d’erreurs d’intervalles, le nombre d’erreurs de contours, la taille des déviations d’intervalles, le nombre d’erreurs rythmiques, la taille des déviations temporelles et le tempo, ont été calculés. Les résultats montrent que certaines habiletés de base liées au chant se développent toujours après 6 ans. Toutefois, le rythme est maîtrisé plus tôt, et les enfants d’âges scolaires réussissent parfois mieux que les adultes sur le plan rythmique. De plus, il est plus difficile pour les enfants de chanter avec des ii paroles que sur une syllabe et chanter à l’unisson représente un défi plus grand que chanter après un modèle. Par ailleurs, le nombre d’erreurs de contours, d’intervalles et de rythme, de même que la taille des erreurs rythmiques, sont liés à nos mesures de perception musicale. La seconde étude présente le premier cas documenté d’amusie congénitale chez l’enfant. Elle implique l’analyse de la perception musicale et du chant d’une fillette de 10 ans nous ayant été référée par son directeur de chorale. De sévères déficits ont été relevés chez elle et un diagnostic d’amusie congénitale fut posé. En effet, ses résultats aux tests visant à évaluer sa perception musicale indiquent d’importantes difficultés tant sur le plan de la discrimination des différences mélodiques et rythmiques, qu’au niveau de la mémoire des mélodies. La fillette présente des lacunes claires quant à la perception des fines différences de hauteurs. L’analyse des réponses cérébrales en potentiels évoqués suggère que l’enfant souffre de déficits situés tôt au cours des processus de traitement auditif, tel que démontré par l’absence de négativité de discordance (MMN). Le chant de la jeune fille est lui aussi déficitaire, particulièrement en ce qui concerne le nombre d’erreurs d’intervalles et leurs tailles. En conclusion, nos études montrent que les aptitudes pour le chant sont toujours en développement au cours des premières années de scolarisation. Ce développement peut être entravé par la présence d’un déficit lié spécifiquement à la perception musicale. Pour la première fois, l’amusie congénitale, sera décrite chez l’enfant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment pouvons-nous représenter un principe moral universel de manière à le rendre applicable à des cas concrets ? Ce problème revêt une forme aiguë dans la philosophie morale d’Emmanuel Kant (1724-1804), tout particulièrement dans sa théorie du jugement moral, car il soutient que l’on doit appliquer la loi morale « suprasensible » à des actions dans le monde sensible afin de déterminer celles-ci comme moralement bonnes ou mauvaises. Kant aborde ce problème dans un chapitre de la Critique de la raison pratique (1788) intitulé « De la typique de la faculté de juger pratique pure » (KpV 5: 67-71). La première partie de la thèse vise à fournir un commentaire compréhensif et détaillé de ce texte important, mais trop peu étudié. Étant donné que la loi morale, en tant qu’Idée suprasensible de la raison, ne peut pas être appliquée directement à des actions dans l’intuition sensible, Kant a recours à une forme particulière de représentation indirecte et symbolique. Sa solution inédite consiste à fournir la faculté de juger avec un « type [Typus] », ou analogue formel, de la loi morale. Ce type est la loi de la causalité naturelle : en tant que loi, il sert d’étalon formel pour tester l’universalisabilité des maximes ; et, en tant que loi de la nature, il peut aussi s’appliquer à toute action dans l’expérience sensible. Dès lors, le jugement moral s’effectue par le biais d’une expérience de pensée dans laquelle on se demande si l’on peut vouloir que sa maxime devienne une loi universelle d’une nature contrefactuelle dont on ferait soi-même partie. Cette expérience de pensée fonctionne comme une « épreuve [Probe] » de la forme des maximes et, par ce moyen, du statut moral des actions. Kant soutient que tout un chacun, même « l’entendement le plus commun », emploie cette procédure pour l’appréciation morale. De plus, la typique prémunit contre deux menaces à l’éthique rationaliste de Kant, à savoir l’empirisme (c’est-à-dire le conséquentialisme) et le mysticisme. La seconde partie de la thèse se penche sur l’indication de Kant que la typique « ne sert que comme un symbole ». Un bon nombre de commentateurs ont voulu assimiler la typique à la notion d’« hypotypose symbolique » présentée dans le § 59 de la Critique de la faculté de juger (1790). La typique serait un processus de symbolisation esthétique consistant à présenter, de façon indirecte, la représentation abstraite de la loi morale sous la forme d’un symbole concret et intuitif. Dans un premier chapitre, cette interprétation est présentée et soumise à un examen critique qui cherche à montrer qu’elle est erronée et peu judicieuse. Dans le second chapitre, nous poursuivons une voie d’interprétation jusqu’ici ignorée, montrant que la typique a de plus grandes continuités avec la notion d’« anthropomorphisme symbolique », une procédure strictement analogique introduite auparavant dans les Prolégomènes (1783). Nous en concluons, d’une part, que la typique fut un moment décisif dans l’évolution de la théorie kantienne de la représentation symbolique et que, d’autre part, elle marque la réalisation, chez Kant, d’une conception proprement critique de la nature et de la morale comme deux sphères distinctes, dont la médiation s’opère par le biais des concepts de loi et de conformité à la loi (Gesetzmässigkeit). En un mot, la typique s’avère l’instrument par excellence du « rationalisme de la faculté de juger ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Peu d’études ont été faites sur le mouvement dans l’œuvre de Marguerite Duras (1914-1996). Or réécritures et répétitions qui marquent la pratique scripturaire de celle-ci permettent de penser des déplacements, des métamorphoses que cette thèse se propose de lire dans l’accompagnement de penseurs tels que Maurice Merleau-Ponty, Gilles Deleuze, Georges Didi-Huberman, et de manière plus spectrale, mais non moins essentielle, Jacques Derrida, Claude Lévesque et Maurice Blanchot. Le premier chapitre s’intéresse à « la marche-danse de la mendiante », qui prend place dans Le Vice-consul (1966). Le mouvement de perte de la mendiante se donne comme un procès de déterritorialisation sans fin où ne cessent d’opérer métamorphoses et devenirs. Cette dernière entraîne dans son rhizome des lieux où faire l’expérience d’un visible difficilement isolable de sa doublure d’invisible. Des lieux sont ainsi « créés » pour faire du « lieu dansé un espace dansant » (chapitre 2). On ne saurait cependant rendre compte du mouvement sans questionner « les rythmes de la danse » (chapitre 3) dont l’épreuve possède une puissance métamorphosante, particulièrement sensible dans L’Après-midi de monsieur Andesmas (1962). Mais le rythme est aussi ce par quoi s’ouvre le temps. Et le temps durassien plonge son lecteur aussi bien que ses personnages dans un univers où virtuel et actuel ne cessent d’échanger leurs forces. C’est alors la question de l’événement, de sa possibilité dans la rencontre et le crime, qui fait l’objet du « temps qu’entrouvre la danse » (chapitre 4). Dépositaire d’un étrange hiatus qu’elle suscite pour qu’un écart se creuse afin de dire l’événement, cette œuvre rêve finalement, à travers la langue, de l’événement inséparé dans le mouvement perpétuel du sens, dans « la danse du sens » (chapitre 5). Cependant, si le sens peut d’abord apparaître dansant parce qu’instable, il faut admettre qu’on tourne toujours autour de certains mots qui échappent. Quelque chose échappera toujours. C’est ce que le sixième chapitre, « Échappé(e) de la danse », appréhende, alors que le mouvement, qui n’a d’autre finalité que lui-même, inscrit un inachèvement perpétuel dont les réécritures témoignent. Parce qu’elle met en scène des êtres en mouvement dans une œuvre elle-même en mouvement, l’œuvre de Marguerite Duras permet de penser l’être-au-monde en danseur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les archives sont aujourd’hui utilisées et envisagées hors de leur lieu traditionnel qu’est le service d’archives et souvent même hors de l’action des archivistes. Cette thèse de doctorat propose un renversement dialectique benjaminien dans la conception de l’archivistique dont le point central devient l’utilisation des archives définitives plutôt que la production des documents. Les premiers chapitres retracent les différentes compréhensions des archives depuis la création des institutions nationales au 19e siècle jusqu’au renouvellement opéré par certains archivistes se réclamant de la postmodernité à la fin du 20e siècle. Cette histoire des archives et de l’archivistique montre que les archives définitives sont caractérisées au regard du rapport au passé qu’elles permettent et que les archivistes pensent leur objet depuis la question historiographique de l’écriture de l’histoire. Ainsi, deux conceptions générales des archives coexistent aujourd’hui et apparaissent comme essentiellement contradictoires en ce que l’une (traditionnelle) est centrée sur le créateur des documents et le passé compris comme l’ensemble des actes posés par le créateur, tandis que l’autre (postmoderne) se fonde sur les fonctions sociales des archives et sur le rôle de l’archiviste. L’élément commun à ces deux visions est l’absence de prise en charge théorique des utilisateurs et de l’exploitation des documents. Or, en suivant les traces et la pensée de Walter Benjamin, nous proposons de penser la double nature des archives comme documents et comme témoignage tout en articulant cette pensée à l’archive comme modalité d’inscription de soi dans le temps. Il en ressort que les archives peuvent être considérées comme une objectivation du passé relevant d’une temporalité chronologique au cœur de laquelle réside, à l’état latent, l’archive potentiellement libératrice. L’exploitation artistique des archives, telle qu’elle est présentée dans le cinquième chapitre, montre comment la notion d’archives explose. En outre, l’observation de ce type particulier d’exploitation permet de mettre au jour le fait que les archives sont toujours inscrites dans des conditions d’utilisation (contexte, matérialité, dispositif, rapport au public) qui sont autant de conditions d’existence de l’archive. Parmi les questions abordées par les artistes celles de la mémoire, de l’authenticité, des archives comme moyen d’appropriation du monde et comme objet poétique sont alors autant de points d’entrée possibles pour revisiter l’archivistique. Le dernier chapitre synthétise l’ensemble des renouvellements proposés au fil de la thèse de manière implicite ou explicite. Nous y envisageons une temporalité non chronologique où les archives sont un objet du passé qui, saisi par un présent dialectique singulier, sont tournées à la fois vers le passé et vers l’avenir. De nouvelles perspectives sont ouvertes pour l’archivistique à partir des caractéristiques assignées aux archives par les artistes. Finalement, c’est le cycle de vie des archives qui peut être revu en y incluant l’exploitation comme dimension essentielle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à l’opacité interprétative et la faillite du langage auxquelles nous nous heurtons dans l’analyse des œuvres-chocs de Sarah Kane, quelle approche nous permettrait de commenter exhaustivement les formes et les moyens mis en œuvre par la dramaturge pour imprimer sa marque dans l’esprit du spectateur contemporain? Le théâtre postdramatique, paradigme élaboré par Hans-Thies Lehmann, présenterait a priori un dispositif pertinent pour faire lumière sur des problématiques contemporaines cruciales en jeu dans l’œuvre de Kane. Aucunement univoque, car soumis à l’interprétation et à l’engagement du spectateur, le caractère politique des pièces, pourtant spectral, s’avère ici essentiel. Ce spectre politique se laisse percevoir à travers le prisme de la violence et la nécessité du choc semble être son parti pris pour redéfinir le rôle du théâtre dans nos sociétés modernes caractérisées par la circulation massive des images à travers les nouveaux médias. Un lien de coresponsabilité de l’artiste et du spectateur se crée: l’œuvre nous interroge, spectateur/lecteur, sur la part mystérieuse de ce fond de cruauté humaine et sur notre complicité dans l’omniprésence de la violence à travers la consommation de ses produits. Mettant en relief les caractères transgressifs venant bousculer nos affects à travers des références à la « culture d’en bas » et un exercice des limites du spectaculaire centré sur l’obscène et le détournement des codes de la pornographie, cette lecture postdramatique de Cleansed et de Phaedra’s love entend restituer à l’œuvre de Kane son énergie pour un changement qui passe par un éveil des sens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche dresse le portrait d’un nouveau genre sur le Web, la websérie. Il s’agit d’analyser la websérie québécoise afin d’en comprendre les influences, particulièrement les influences télévisuelles. Dans le premier chapitre, les théories de l’intermédialité, de la remédiation et de la convergence sont abordées afin de bien comprendre les différents types d’échanges entre les médias d’aujourd’hui. Dans le second chapitre, une vue d’ensemble, en ce qui a trait à l’histoire de la websérie au Québec, est donnée. Ensuite, quatre caractéristiques principales de la télévision sont analysées : le contexte de réception, la programmation, l’esthétique et la sérialité. Il est ensuite démontré que ces caractéristiques sont également présentes dans la websérie et il est expliqué de quelle manière elles le sont. Finalement, dans le dernier chapitre, des analyses de webséries sont faites afin d’exemplifier les différents liens entre les émissions de télévision et la websérie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche a pour but d’examiner dans quelle mesure l’implication des parents dans le cheminement scolaire de leur enfant est susceptible de modérer la relation entre le désengagement scolaire de l’élève et la détérioration de son rendement scolaire au début du secondaire. L’échantillon est composé de 380 élèves de première et troisième secondaire de la région de Montréal. Lors de cette étude longitudinale, le rendement scolaire a été évalué en première et troisième secondaire. Le niveau de désengagement comportemental et les comportements de soutien parental reliés aux activités scolaires ont été évalués en première secondaire. Les résultats démontrent que les comportements de soutien parental reliés aux activités scolaires constituent un facteur protecteur qui modère la relation entre le désengagement comportemental et le rendement scolaire ultérieur, mais seulement chez les élèves qui avaient initialement un rendement scolaire élevé en secondaire 1. Les résultats obtenus ne permettent toutefois pas de rendre compte du caractère protecteur de l’implication parentale chez les élèves à risque qui présentent un plus faible rendement scolaire en secondaire 1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour exprimer ou définir une idée nouvelle, Derrida détourne souvent le sens d’un mot en se l’appropriant. La relation de Derrida avec les idées est telle que leur transmission passe par un vocabulaire spécifique, notamment l’analyse de l’étymologie (vraie et fausse). Mais quelle est sa conception du mot ? Quelles en sont les implications et les conséquences ? Pour répondre à ces questions, l’approche la plus féconde consiste à suivre au plus près celle que Derrida utilise en abordant la langue par rapport à la grammaire au sens large (c’est-à-dire tout ce qui fait événement dans la langue). En effet, la relation entre le mot et l’idée prend tout son sens dans l’analyse de certaines scènes bibliques, telles celles de la Genèse ou encore du mythe de Babel. Le fameux énoncé inaugural de l’Évangile de Jean, « Au commencement était la parole... », fait retour dans l’œuvre de Derrida, où il connaît plusieurs variations : il mérite examen, dans la perspective d’une déconstruction du logos et des origines de la langue. Le corpus de notre étude porte principalement sur trois textes de Jacques Derrida : « Des tours de Babel » (L’art des confins, PUF, 1979), Schibboleth – Pour Paul Celan (Galilée, 1986) et Donner la mort (Galilée, 1999), ces textes permettant tous une interrogation de l’« intention » divine dans le langage. Notre visée, en privilégiant dans l’œuvre derridienne ces « exemples » bibliques, est d’étudier la démarche de Derrida dans la « création » d’une langue, aspect qui a toujours été inséparable de l’élaboration de sa philosophie et auquel il a accordé la plus grande attention. À terme, ce travail se veut une contribution à la pensée du philosophe, portant sur un aspect capital de son travail et battant en brèche l’idée que son écriture est « absconse » ou « hermétique », alors qu’il y va pour lui de la mise en œuvre de sa manière même de concevoir la langue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réchauffements climatiques associés aux activités anthropiques ont soumis les écosystèmes arctiques à des changements rapides qui menacent leur stabilité à court terme. La diminution dramatique de la banquise arctique est une des conséquences les plus concrètes de ce réchauffement. Dans ce contexte, comprendre et prédire comment les systèmes arctiques évolueront est crucial, surtout en considérant comment les flux de carbone (C) de ces écosystèmes - soit des puits nets, soit des sources nettes de CO2 pour l'atmosphère - pourraient avoir des répercussions importantes sur le climat. Le but de cette thèse est de dresser un portrait saisonnier de l’activité bactérienne afin de déterminer l’importance de sa contribution aux flux de carbone en Arctique. Plus spécifiquement, nous caractérisons pour la première fois la respiration et le recours à la photohétérotrophie chez les microorganismes du golfe d’Amundsen. Ces deux composantes du cycle du carbone demeurent peu décrites et souvent omises des modèles actuels, malgré leur rôle déterminant dans les flux de C non seulement de l’Arctique, mais des milieux marins en général. Dans un premier temps, nous caractérisons la respiration des communautés microbiennes (RC) des glaces de mer. La connaissance des taux de respiration est essentielle à l’estimation des flux de C, mais encore limitée pour les milieux polaires. En effet, les études précédentes dans le golfe d’Amundsen n’ont pas mesuré la RC. Par la mesure de la respiration dans les glaces, nos résultats montrent des taux élevés de respiration dans la glace, de 2 à 3 fois supérieurs à la colonne d'eau, et une production bactérienne jusqu’à 25 fois plus importante. Ces résultats démontrent que la respiration microbienne peut consommer une proportion significative de la production primaire (PP) des glaces et pourrait jouer un rôle important dans les flux biogéniques de CO2 entre les glaces de mer et l’atmosphère (Nguyen et Maranger, 2011). Dans un second temps, nous mesurons la respiration des communautés microbiennes pélagiques du golfe d’Amundsen pendant une période de 8 mois consécutif, incluant le couvert de glace hivernal. En mesurant directement la consommation d'O2, nous montrons une RC importante, mesurable tout au long de l’année et dépassant largement les apports en C de la production primaire. Globalement, la forte consommation de C par les communautés microbiennes suggère une forte dépendance sur recyclage interne de la PP locale. Ces observations ont des conséquences importantes sur notre compréhension du potentiel de séquestration de CO2 par les eaux de l’Océan Arctique (Nguyen et al. 2012). Dans un dernier temps, nous déterminons la dynamique saisonnière de présence (ADN) et d’expression (ARN) du gène de la protéorhodopsine (PR), impliqué dans la photohétérotrophie chez les communautés bactérienne. Le gène de la PR, en conjonction avec le chromophore rétinal, permet à certaines bactéries de capturer l’énergie lumineuse à des fins énergétiques ou sensorielles. Cet apport supplémentaire d’énergie pourrait contribuer à la survie et prolifération des communautés qui possèdent la protéorhodopsine. Bien que détectée dans plusieurs océans, notre étude est une des rares à dresser un portrait saisonnier de la distribution et de l’expression du gène en milieu marin. Nous montrons que le gène de la PR est présent toute l’année et distribué dans des communautés diversifiées. Étonnamment, l’expression du gène se poursuit en hiver, en absence de lumière, suggérant soit qu’elle ne dépend pas de la lumière, ou que des sources de photons très localisées justifie l’expression du gène à des fins sensorielles et de détection (Nguyen et al., soumis au journal ISME). Cette thèse contribue à la compréhension du cycle du C en Arctique et innove par la caractérisation de la respiration et de l’efficacité de croissance des communautés microbiennes pélagiques et des glaces de mer. De plus, nous montrons pour la première fois une expression soutenue de la protéorhodopsine en Arctique, qui pourrait moduler la consommation de C par la respiration et justifier son inclusion éventuelle dans les modélisations du cycle du C. Dans le contexte des changements climatiques, il est clair que l'importance de l’activité bactérienne a été sous-estimée et aura un impact important dans le bilan de C de l'Arctique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est une recherche théorique qui tire son origine du constat selon lequel il est difficile d’analyser la réalisation du projet professionnel des candidats à l’enseignement. Tel est le cas en raison des particularités contextuelles et des pluralités théoriques relatives aux notions de formation et d’insertion. À partir de ce constat, ce mémoire propose un cadre d’analyse permettant de comprendre comment les jeunes enseignants du Québec appréhendent le « rapport entre » leur formation et leur insertion face aux différentes contraintes (i.e. rigidité du système institutionnel de la formation, marché de l’insertion fluctuant et saturé, etc.) et aux ressources disponibles (i.e. programme d’études, cours, etc.) pour réaliser leur projet professionnel. Il repose sur l’hypothèse selon laquelle, pour réaliser leur projet professionnel, les candidats à l’enseignement mobilisent des stratégies afin de négocier les contraintes et ressources de leurs contextes respectifs. Dans cette optique, la démarche de cette recherche théorique s’inscrit dans une perspective interactionniste, telle qu’elle est véhiculée par la tradition de Chicago (Chapoulie, 2001). Quelques postulats sont mobilisés pour baliser les différentes étapes d’élaboration du cadre d’analyse. Le premier postulat considère que le « point de vue » de l’acteur est prépondérant pour comprendre ses conduites (Morrissette, Guignon & Demaziére, 2011). Cela amène à articuler les ancrages théoriques nécessaires à l’élaboration du cadre d’analyse en croisant une sociologie interactionniste avec une sociologie de l’action. Plus particulièrement, les concepts de « définition de la situation » de Thomas (1923) et de la « représentation de soi » de Goffman (1969) sont mis à profit. Les notions de coopération, d’incertitude et de rationalité, tirées du modèle de l’acteur stratégique de Crozier et Friedberg (1981), viennent compléter les assises de la modélisation d’une trame de négociation (Strauss & Baszanger, 1992). Le deuxième postulat considère que les contextes, sont prépondérants pour expliquer les conduites humaines (Abbott, 1999). Ces contextes, dits «éloignés» et «rapprochés» de l’acteur, constituent le « contexte d’action » (Strauss & Baszanger, 1992). Ce faisant, ils influent sur les stratégies mobilisées par l’acteur candidat à l’enseignement. Le troisième postulat considère que le monde social est animé par des processus (re)créés au travers des interactions entre acteurs (Morrissette & Guignon, 2014). Il amène à envisager la formation et l’insertion comme des processus sujets à des redéfinitions continues. Cela conduit à repenser la réalisation du projet professionnel des candidats à l’enseignement sous l’angle du « rapport entre ». Ces trois postulats structurent le cadre d’analyse qui se présente comme une « trame de négociation ». Il est développé pour éventuellement éclairer les stratégies de négociation mobilisées en contexte par les candidats québécois à l’enseignement pour réaliser leur projet professionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lors d’une infection par un pathogène, des lymphocytes T CD8+ naïfs (LTn) spécifiques de l’antigène sont activés, prolifèrent et se différencient en LT effecteurs (LTe). Les LTe produisent différentes cytokines et acquièrent une activité cytotoxique menant à l’élimination du pathogène. Seulement 5 à 10 % des LTe survivront et se différencieront en LT mémoires (LTm), qui sont capables de répondre plus rapidement lors d’une seconde infection par le même pathogène, contribuant au succès de la vaccination. Toutefois, la compréhension de l’ensemble des mécanismes régulant le développement des LTe et des LTm demeure incomplète. Afin de mieux comprendre les signaux requis pour la différenciation des LT CD8+ lors de la réponse immune, nous avons posé deux hypothèses. Nous avons d’abord proposé que différentes cellules présentatrices d’antigène (CPA) fournissent différents signaux au moment de la reconnaissance antigénique influençant ainsi le devenir des LT CD8+. Vu leur potentiel d’utilisation en immunothérapie, nous avons comparé la capacité d’activation des LT CD8+ par les lymphocytes B activés via le CD40 (CD40-B) et les cellules dendritiques (CD). Nous avons montré que l’immunisation avec des CD40-B induit une réponse effectrice mais, contrairement à l’immunisation avec des CD, pratiquement aucun LTm n’est généré. Les LTe générés sont fonctionnels puisqu’ils sécrètent des cytokines, ont une activité cytotoxique et contrôlent une infection avec Listeria monocytogenes (Lm). Nous proposons qu’une sécrétion plus faible de cytokines par les CD40 B ainsi qu’une interaction plus courte et moins intime avec les LT CD8+ comparativement aux CD contribuent au défaut de différenciation des LTm observé lors de la vaccination avec les CD40-B. Ensuite, nous posé l’hypothèse que, parmi les signaux fournis par les CPA au moment de la reconnaissance antigénique, la voie de signalisation Notch influence le développement des LTe, mais aussi des LTm CD8+ en instaurant un programme génétique particulier. D’abord, grâce à un système in vitro, le rôle de la signalisation Notch dans les moments précoces suivant l’activation du LT CD8+ a été étudié. Ce système nous a permis de démontrer que la voie de signalisation Notch régule directement l’expression de la molécule PD-1. Ensuite, grâce à des souris où il y a délétion des récepteurs Notch1 et Notch2 seulement chez les LT CD8+ matures, un rôle de la voie de signalisation Notch dans la réponse immune des LT CD8+ a été démontré. Nos résultats démontrent que suite à une infection avec Lm ou à une immunisation avec des CD, la signalisation Notch favorise le développement de LTe, exprimant fortement KLRG1 et faiblement CD127, destinés à mourir par apoptose. Toutefois, la signalisation Notch n’a pas influencé la génération de LTm. De façon très intéressante, l’expression des récepteurs Notch influence la production d’IFN- en fonction du contexte d’activation. En effet, suite à une infection avec Lm, l’absence des récepteurs Notch n’affecte pas la production d’IFN- par les LTe, alors qu’elle est diminuée suite à une immunisation avec des CD suggérant un rôle dépendant du contexte pour la voie de signalisation Notch. Nos résultats permettent une meilleure compréhension des signaux fournis par les différentes CPA et de la voie de signalisation Notch, donc des mécanismes moléculaires régulant la différenciation des LT CD8+ lors de la réponse immunitaire, ce qui pourrait ultimement permettre d’améliorer les stratégies de vaccination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est connu que les personnes ayant une hémiparésie à la suite d’un accident vasculaire cérébral (AVC) présentent une mise en charge (MEC) asymétrique lors de la station debout et lors du passage assis à debout (PAD). Par contre, peu d’études ont quantifié l’évolution de la MEC avec la réadaptation ou la précision avec laquelle ces personnes sont capables de la juger. L’objectif principal de ce projet était d’étudier l’évolution de la répartition et la perception de MEC en position debout et lors du PAD chez des personnes hémiparétiques en réadaptation fonctionnelle intensive (RFI). Un objectif secondaire était d’identifier les facteurs qui caractérisent les personnes hémiparétiques les plus asymétriques et les plus atteintes dans leur perception. Cette étude a été menée auprès de seize participants. Les résultats ont démontré qu’une asymétrie de répartition de l’appui en faveur du côté non parétique est présente dès les premiers mois après l’AVC et qu’elle persiste malgré la RFI. Chez les personnes avec une atteinte sévère de la fonction motrice, la MEC était plus symétrique pour le PAD que la station debout. En termes de perception, les personnes hémiparétiques étaient capables d’identifier le côté sur lequel ils mettaient plus d’appui mais ils avaient tendance à surestimer l’appui sur le côté parétique et donc à se juger moins asymétriques qu’ils ne l’étaient en réalité. Très peu de changements ont été observés lorsque les données au congé étaient comparées aux données à l’entrée dans l’étude. En réponse à l’objectif secondaire, la fonction motrice du membre inférieur parétique évaluée par le Chedoke et la différence de force des extenseurs entre les genoux étaient les facteurs les plus déterminants de l’asymétrie et de la perception de MEC. Les résultats obtenus constituent donc une étape supplémentaire vers la compréhension de la répartition asymétrique et les troubles de perception de MEC lors de la station debout et le PAD chez les personnes hémiparétiques. Il serait intéressant dans le futur d’explorer davantage les facteurs susceptibles d’influencer l’asymétrie et la perception de MEC et d’objectiver la relation de cause à effet entre ces deux variables en plus de préciser l’effet réel de l’asymétrie sur la stabilité posturale.