26 resultados para théorie de la représentation politiques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Qu'on le déplore ou que l'on s'en félicite, la statistique est présente dans notre vie de tous les jours. Paradoxalement, les compétences pour l'appréhender semblent faire défaut, à tel point que plus d'un militent pour que la statistique fasse partie des compétences minimales de tout citoyen (statistical literacy). Mais au niveau de l'enseignement, de nombreux obstacles apparaissent quant à l'acquisition de ces compétences : ainsi, de multiples recherches ont-elles identifié maints obstacles, que ceux-ci soient d'ordre affectif ou cognitif. Toutefois ces recherches adoptent le point de vue de l'enseignant ou du chercheur et il n'en existe que peu qui se sont interrogées sur la représentation que les étudiants ont de la statistique. Tel est l'objectif général de la présente recherche. Après avoir caractérisé ce qu'est une représentation sociale et abouti à poser "qu'est statistique ce que l'on se donne comme étant statistique", une enquête a été menée en France auprès de 614 étudiants de différentes sections en Sciences humaines et sociales. Il s'en dégage qu'une vingtaine de mots rend compte de la statistique, tels mathématiques, pourcentages, chiffrs et calculs. Cependant, au-dede ce discours commun, des différences apparaissent entre les sections quant aux mots utilisés pour caractériser la statistique : pour certains, les mots utilisés, peu nombreux, assimilent la statistique aux statistiques ; pour d'autres, elle est conçue comme des mathématiques utilisées dans le cadre d'études, de recherches. D'autres discours se distinguent soit par la proximité de la statistique avec la méthodologie du questionnaire, soit par son utilisation professionnelle : la référence aux mathématiques y est alors nettement atténuée. De ces résultats se dégagent des prolongements en termes de recherche (étude longitudinale de la représentation sociale de la statistique), en termes de pédagogie (conditions propices à la problématisation) et en termes de rapport au savoir (thêmata). Cette recherche invite les formateurs et les chercheurs en didactique à faire un pas de côté par rapport à leur propre représentation et à envisager celle potentiellement différente des apprenants ; à côté des chiffrs, il y a aussi des êtres.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur la représentation du curé dans les films La petite Aurore l'enfant martyre (Jean-Yves Bigras, 1952) et Aurore (Luc Dionne, 2005). L'objectif principal est d'identifier l'image que l'on présente du curé dans ces deux oeuvres. L'étude de cette représentation permet de cerner les discours portés par ces deux films à travers le personnage du curé et d'apprécier dans quelle mesure ces discours filmiques témoignent du caractère de la société québécoise à deux époques déterminées, soit les années 1950 et les années 2000. Inscrite dans le champ des études culturelles, la recherche se fonde sur quatre axes théoriques principaux : la représentation, l'interprétation, la mythologie et l'analyse filmique. Les travaux de Stuart Hall, d'Umberto Eco et de Roland Barthes constituent le cadre théorique. L'approche de l'analyse de contenu s'inspire des travaux de Laurence Bardin et l'analyse filmique, de ceux de Jean Mitry, d'Anne Goliot-Lété et de Francis Vanoye, entre autres. La procédure de recherche consiste dans le découpage des éléments constitutifs de chaque film en plans, séquences et extraits, de manière à déconstruire les récits filmiques et à faire émerger les facteurs signifiants susceptibles de permettre de reconstituer le sens à travers la reconstruction du rôle du curé et la caractérisation du personnage dans chacun des films. La démarche d'interprétation s'appuie sur une série de thèmes sous lesquels se classent, en opposition souvent, les attributs des deux personnages, comme l'apparence générale, l'intégration au milieu, l'intellectualité, la figure d'autorité, le conformisme et la responsabilité. L'hypothèse principale formulée dans le cadre de la problématique se trouve validée. La représentation du curé dans le film de 1952 offre une image idéalisée du « bon curé », laquelle est conforme au discours dominant de son époque de production. Dans le film de 2005, on délaisse plutôt l'image idéalisée pour revêtir le curé d'attributs négatifs et le rendre responsable, en grande partie, du drame vécu par Aurore. De plus, les trois hypothèses secondaires ont pu aussi être validées : la représentation du curé en 2005 est liée à une plus grande sensibilité au phénomène de la maltraitance des enfants et au besoin d'en identifier les responsables; le transfert de responsabilité vers le curé semble le reflet de reproches adressés par la société québécoise au clergé pour des fautes du passé et la représentation péjorative du curé de 2005, où l'on insiste sur son caractère froid et distant, ne choque plus personne. Porteuse de plusieurs mythes, dont certains rejoignent les fondements de l'identité québécoise, l'histoire d'Aurore fait partie intégrante du patrimoine culturel. Les relectures de cette triste affaire au fil des ans traduisent aussi les changements qui marquent la société québécoise, en particulier dans son rapport au clergé et à la religion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’annonce d’un diagnostic de cancer a un impact important sur l’individu. En se basant sur des informations sociales, environnementales et personnelles, celui-ci tentera de se représenter la maladie. Cette représentation constitue une grille d’informations cognitives et émotionnelles servant à donner un sens à la maladie et y réagir. Le modèle d’autorégulation de Leventhal propose qu’en fonction de sa représentation de la maladie, un individu mettra de l’avant différentes stratégies d’adaptation; ultimement, ces stratégies auront un impact sur l’issue de la maladie dont le niveau de bien-être. La présente recherche propose de considérer l’avenue tant hédonique qu’eudémonique du bien-être, en y incluant le bien-être subjectif, correspondant aux affects positifs et négatifs et à la satisfaction de vie et le bien-être psychologique correspondant à un état d’épanouissement personnel. L’étude a pour objectif principal de documenter les liens entre les dimensions cognitives et émotionnelles de la représentation de la maladie et les dimensions du bien-être subjectif (avenue hédonique) et le bien-être psychologique (avenue eudémonique). Plus précisément, les hypothèses postulent qu’une représentation plus positive de la maladie a pour effet d’augmenter le bien-être subjectif et psychologique. Les hypothèses postulent que la dimension de la représentation émotionnelle de la maladie joue un rôle médiateur entre les dimensions cognitives de la représentation de la maladie et le bien-être subjectif et psychologique. Pour atteindre ces objectifs, 70 participants âgés entre 31 et 75 ans ayant été atteints de cancer dans les cinq dernières années ont été recrutés. Les données ont été recueillies à l’aide de questionnaires autorapportés : un questionnaire sociodémographique, les versions francophones du Revised Illness Perception Questionnaire (IPQ-R : Moss-Morris et al., 2002), du Positive and Negative Affect Scale (PANAS ; Watson, Clark, & Tellegen, 1988), du Satisfaction with Life Scale (Diener, Emmons, Larsen, & Griffin, 1985) et du The Scales of Psychological Well-Being (Ryff & Essex, 1992). Des analyses statistiques de régressions multiples et de médiation ont été réalisées à l’aide du logiciel Statistical Package for Social Sciences (SPSS). Les résultats indiquent que seulement certaines dimensions de la représentation de la maladie exercent un effet unique sur le bien-être subjectif et/ou psychologique soit le contrôle personnel perçu, la représentation émotionnelle de la maladie, les conséquences perçues de la maladie et le cours aigu/chronique de la maladie. La représentation émotionnelle de la maladie semble exercer un effet médiateur complet entre certaines dimensions cognitives de la représentation de la maladie et les niveaux de bien-être. C’est le cas pour l’identité, le cours aigu/chronique de la maladie, le cours cyclique de la maladie, les conséquences perçues de la maladie et l’efficacité perçue du traitement, lorsque mis en lien avec les affects négatifs. C’est aussi le cas pour l’identité et le cours cyclique de la maladie, lorsque mis en lien avec la satisfaction de vie, et pour le cours cyclique de la maladie et les conséquences perçues de la maladie, lorsque mis en lien avec le bien-être psychologique. Les affects positifs associés au volet affectif du bien-être subjectif ne sont pas affectés par la représentation de la maladie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : À l’aube des études humiennes, Norman Kemp Smith appelait à représenter Hume « suivant toutes ses nombreuses activités », comme s’il pressentait que l’étude de la pensée humienne pouvait s’avérer un labyrinthe dans lesquels les commentaires pouvaient s’égarer et se perdre de vue. Ce pressentiment, on peut le dire aujourd’hui, s’est avéré juste, et il porte avec lui une clé de lecture : pour dépasser la représentation parcellaire, fragmentée et ultimement incohérente d’un Hume kaléidoscopique, le mieux est peut-être de s’intéresser à ses activités. La présente thèse vise à circonscrire la pratique humienne de la philosophie, ou, pourrait-on dire, du travail épistémologique et conceptuel, dans l’espace de son magnum opus, et cela à l’aide d’une clé de lecture : celle du réductionnisme. Si le Traité est une oeuvre que l’on peut qualifier d’empiriste, on ne saurait la lire seulement par ce biais ou par celui de questions localisées, et nous montrons que le projet du Traité ne peut se comprendre qu’en voyant comment Hume tente d’y réduire la et les connaissances à des dépendances ou à des parties de sa propre théorie de la nature humaine. Pour cela, nous procédons via quatre chapitres. D’abord, nous tentons de circonscrire les caractéristiques les plus importantes du projet humien, c’est-à-dire de ce que Hume avait l’intention de développer à travers les contenus particuliers du Traité ; ensuite, nous nous concentrons sur la base dont Hume part et dont il se servira pour accomplir des réductions, base que l’on peut appeler une théorie des perceptions doublée d’une théorie de l’esprit (principes, facultés, relations) ; ces deux théories, couplées à un standard strict pour obtenir le statut de « vraie idée » ou d’idée intelligible, semblent amener de par leurs prémisses assez directement au scepticisme, et c’est pourquoi on traitera du scepticisme avant d’évoquer les aspects « naturalistes » du Traité au-dedes éléments de base de la théorie des perceptions et de l’esprit, soit une manoeuvre qui ne suit pas tout à fait l’ordre humien d’exposition mais nous semble suivre un certain ordre des raisons ; enfin, la quatrième partie nous permettra de passer en revue diverses réductions opérées par Hume, celles qui mènent au scepticisme pyrrhonien mises à part, ce qui nous permettra de voir quelles sont les limites et les problèmes afférents à son réductionnisme particulier. Refondateur, systématique et totalisant dans ses intentions, le Traité suit bien plus qu’un projet simplement empiriste, et on verra que dans la démarche humienne l’empirisme apparaît davantage dans les conclusions qu’au point même de départ. En le lisant comme le lieu et la conséquence d’une orientation que l’on peut dire réductionniste, on peut trouver dans le Traité un fil conducteur qui, en dépit de problèmes plus ou moins importants rencontrés en cours de route, ne se rompt pas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partant de la diversité des compétences des enfants face à l'écrit en entrant en 1re année, nous avons vérifié, si dès la maternelle, une intervention portant directement sur la représentation de la langue écrite, de la clarté cognitive et de la conscience linguistique pouvait favoriser les premiers apprentissages formels (lecture et écriture). L'échantillon auprès duquel a été menée l'expérimentation était constituée de 4 groupes d'enfants de maternelle (5 ans) provenant de milieu socio-économique moyen; 2 de ces groupes ont reçu une stimulation à l'écrit tandis que les autres ont suivi le programme du MEQ. Notre plan d'expérimentation partant des théories de Downing, Fijalkow et Ferreiro s'est déroulé sur une période de neuf mois. L'analyse des résultats nous permet d'avancer que l'intervention sur l'écrit à la maternelle favorise l'accroissement de la clarté cognitive et contribue à élargir leur conscience linguistique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comme l'ont souligné certains critiques, un des aspects essentiels de l'écriture sanantonienne réside dans la mise en scène de l'acte de narration. Dans le but de comprendre l'évolution de l'oeuvre de San-Antonio, l'analyse de cette caractéristique, à travers un corpus de romans parus dans cinq décennies différentes, s'est avérée opportune. L'étude du paratexte réel, d'une part, et de la représentation fictive du paratexte, d'autre part, démontre que cette mise en scène de la narration s'est développée et complexifiée de 1950 à 1980. Par la suite, cette pratique est demeurée, mais a été utilisée avec moins d'emphase. Par ailleurs, l'exploration des possibilités paratextuelles menée par San-Antonio révèle en creux les nombreuses conventions littéraires qui reposent sur le paratexte. Enfin, la mise en évidence de la narration est une sorte de défi au pouvoir de la fiction: la magie du récit opère toujours malgré ces évidents bris du réalisme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche professionnelle porte sur les profils psychomoteurs d'un échantillon de 83 enfants français, garçons et filles de 7, 8 et 9 ans à hauts potentiels intellectuels rencontrant des difficultés pour apprendre à l'école primaire. Elle est mise en oeuvre au moyen d'une méthodologie mixte. Née en France, la psychomotricité est un corpus paramédical qui propose une approche éducative et de remédiation des difficultés d'apprentissage, à partir d'une conception du développement psychomoteur qui considère que les interrelations entre les fonctionnements corporels, les éprouvés émotionnels et les cognitions sont primordiales et qu'elles se réalisent et sont accessibles via l'expérience corporelle globalisante. Ce construit, et les outils d'évaluation qui en découlent, c'est-à-dire le bilan psychomoteur, sont ici mobilisés pour décrire les profils adaptatifs d'enfants à hauts potentiels intellectuels en souffrance pour apprendre. Si les principaux travaux consacrés à ces enfants hors-normes et à leurs développements atypiques évoquent leur sensibilité et fragilité, ils sont trop souvent restreints aux seuls aspects du quotient intellectuel. Les apports de la psychomotricité peuvent donc les compléter. À partir de la description du dialogue tonicoémotionnel, qui inscrit le sujet dans la continuité biologiquepsychologique, l'expérience du corps, sous le double effet de la maturation neuromotrice et du bain environnemental, évolue vers la différenciation des fonctions psychomotrices qui permet la maîtrise gestuelle, la représentation du corps, de l'espace et du temps. Ces descriptions sont cohérentes avec d'autres conceptions multi-référencées qui reconnaissent aux émotions et à leur devenir un rôle important dans le développement, comme la théorie de l'attachement. Elles conduisent au repérage de troubles psychomoteurs. Ceux-ci peuvent friner l'accès aux apprentissages scolaires notamment l'écriture. Ce sont des perturbations de l'équilibre psychocorporel. Par définition et spécifiquement, ils ne répondent pas à une atteinte neurologique et expriment une souffrance psychique. L'analyse centrée sur les variables fournit une vision générale des données collectées. Les corrélations entre les 30 rubriques sont étudiées en les classant par sphères correspondant aux fonctions psychomotrices - motricité - rythme - espace - intégration corporelle - graphomotricité; puis par processus - tonicoémotionnel - sensori-perceptivo-moteur - cognitif - apprentissage explicité. Cette taxonomie éclaire les corrélations et donc les niveaux d'organisation. Ce premier traitement statistique débouche sur a) l'intérêt de la démarche globale en psychomotricité puisque toutes les rubriques étudiées se sont avérées troublées, b) l'apport de la prise en considération des dimensions tonicoémotionnelles, c) l'importance de l'articulation sensori-perceptivo-motrice et d) une confirmation des liens entre les compétences psychomotrices et l'écriture. La seconde étape est une classification hiérarchique ascendante puis une analyse factorielle des grappes. Elle dégage des résultats concernant des différences entre les organisations internes de ces enfants sous-réalisateurs, à partir des poids respectifs des facteurs 1) de la dyspraxie et de la dysgraphie, 2) de l'hyperactivité et de l'anxiété avec impulsivité et difficultés graphiques, 3) des troubles de la motricité large et fine et de l'expression émotionnelle, 4) des troubles spatiaux, 5) des troubles visuopraxiques et de l'intégration corporelle floue, 6) des troubles diffus et légers et 7) des troubles du rythme. Ainsi les cinq grappes sont décrites de manière dynamique comme caractérisées par 1) de bonnes compétences scripturales, des difficultés légères mais aussi des perturbations du tonus musculaire, 2) des tendances dysgraphiques pour des enfants maladroits et inquiets mais aussi avec des compétences préservées, qui se différencient 3) d'enfants franchement dysgraphiques avec des difficultés à se situer et manier les informations relatives à l'espace et au rythme, 4) d'enfants également dysgraphiques mais aussi hyperactifs, anxieux et manquant de référence spatio-temporelle, et 5) de sujets qui dysgraphiques, dyspraxiques, émotifs ont des tendances hyperactives et des incertitudes visuopraxiques. Ainsi à partir de la référence holistique-interactionniste, ces résultats confirment l'intérêt des approches globales et multi-référencées pour explorer les profils des enfants dont le développement n'est pas harmonieux et qui se trouvent confrontés à des difficultés pour apprendre dans le cadre scolaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nombreuses sont les recherches qui traitent de la participation des membres en coopérative, tantôt du point de vue historique et sociologique, tantôt du point de vue économique. Parfois, on s'interroge sur l'effervescence de la participation, parfois on questionne l'affaissement de la participation chez les membres coopérateurs. Cette étude en sera donc une de plus, mais elle se veut différente car elle s'attaque aux racines mêmes du problème, soit l'opportunité de participation offerte aux membres par l'entreprise. Comme cette recherche se situe à l'ère de la carte de paiement, ceci nous &M'aime à justifier le choix de cette année précise, 1984, laquelle voit s'opérer l'action des guichets automatiques et les changements d'habitudes des membres à travers cette nouvelle technologie. Nous nous situons aujourd'hui à une époque charnière, celle qui tranche avec les services aux membres, dits de type conventionnel (épargne, crédit, services auxiliaires) et celle qui emprunte au développement informatique et qui transforme les services, les habitudes, la participation des membres. De nouveaux services permettent désormais au membre de la Caisse populaire d'opérer la plupart de ses transactions sept (7) jours par semaine et ce, hors caisse populaire, c'est-à-dire hors entreprise. Alors, que devient l'association dans ce contexte? Si on s'entend pour dire qu'une coopérative réunit deux (2) réalités, c'est-à-dire l'association et l'entreprise, comment peut-on parler de coopérative si l'association ne "s'exprime" plus, ne "s'articule" plus par rapport à l'entreprise? A notre avis, ces deux (2) réalités doivent toujours s'y retrouver, sans quoi on ne peut parler de véritable coopérative, les clients de banque en font autant. C'est dans cette optique donc, que nous abordons la problématique de la participation. Nous croyons en définitive, que si l'entreprise favorise l'intégration du membre et à sa structure et à son organisation, que ces nouveaux lieux pourront être source de participation nouvelle. Avant d'élaborer le profil des chapitres qui composeront cette étude, il nous apparaît important de signaler que lorsque nous parlerons de coopérative d'épargne et de crédit, de conseils, de commission, de dirigeants, membres, association et entreprise, nous ferons exclusivement référence au concept "Caisse populaire Desjardins". Ceci dit, au départ, nous tenterons un rapprochement entre la théorie et la réalité participative, puis nous considérerons la diversité du phénomène participatif et du développement possible dont il peut faire l'objet. Enfin, nous aborderons l'hypothèse avancée. Dans un second chapitre, nous examinerons la méthode utilisée, ce qui nous mènera au chapitre suivant qui lui traitera des résultats détaillés, venant vérifier la question du départ. Enfin, nous considérerons une dernière fois l'hypothèse et cette fois à la lueur de la caisse de demain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[...]L'objectif précis de la présente recherche est d'observer si une caractéristique du développement psychologique des individus - la différenciation psychologique - exerce une influence sur les préférences interpersonnelles que se manifestent entre eux des élèves dans le cadre de quelques-unes de leurs activités sociales sur les lieux de leur institution d'enseignement. Il s'agit plus particulièrement de vérifier si la différenciation psychologique constitue une caractéristique individuelle associée au statut sociométrique - établi selon un critère de popularité - d'élèves québécois francophones, de niveau secondaire IV, observés en situation de travail en équipe lors d'une classe de français et lors d'une classe de physique. Une autre situation qui est considérée dans la présente recherche concerne les relations sociales entre des élèves à la cafétéria, à l'heure du repas. Dans toutes ces situations d'interaction sociale, nous nous intéressons donc à étudier le rôle particulier d'une caractéristique individuelle susceptible d'influencer la désirabilité sociale de l’individu. L'idée de considérer la variable qu'est la différenciation psychologique comme étant particulièrement importante dans cette recherche découle de deux raisons principales. La première de ces raisons se rapporte au fait que la théorie qui est rattachée à cette variable, la théorie de la différenciation psychologique, a déjà suscité l'intérêt d'un grand nombre de recherches dans les domaines de l'étude de la personnalité et des comportements interpersonnels et qu'il existe aussi à ce sujet quelques travaux sur l'étude de l'attirance interpersonnelle dans des classes d'élèves. Pour cette raison, nous pouvons tenter ici de pousser plus loin la démarche entreprise par d'autres chercheurs. La seconde raison concerne le fait qu'il s'agit d'une variable psychologique dont la relation a déjà été étudiée en regard de quelques matières d'enseignement scolaire et aussi en regard de la mesure de l'intelligence. Des recherches effectuées dans le domaine scolaire révèlent par exemple que la mesure de la différenciation psychologique peut servir à estimer quel sera le rendement académique des élèves quant aux matières d'enseignement faisant appel à des habiletés d'analyse et de raisonnement mathématique. [...]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Facebook joue un rôle déterminant dans la montée fulgurante en popularité des RSN sur Internet. Tout le fonctionnement de la plateforme repose sur la connexion aux comptes des autres membres. La popularité de Facebook doit beaucoup au partage public et réciproque des informations personnelles de ses usagers. Ce type de renseignement était jusqu’à présent réservé aux personnes appartenant à un cercle restreint de proches et d’intimes. Toutefois, les listes de contact des utilisateurs Facebook ne sont pas uniquement constituées d’amis proches, mais plutôt d’un ensemble de relations interpersonnelles – formé de connaissances, de collègues, d’anciens camarades de classe, etc. Les membres Facebook divulguent ainsi souvent leur intimité à un auditoire qui peut être qualifié de public en raison de sa taille et de sa diversité d’origine. Les recherches quantitatives sur le sujet sont nombreuses, néanmoins le point de vue de réels utilisateurs des réseaux sociaux numériques est très peu connu. Cette étude exploratoire vise les expressions visibles de l’intimité sur les réseaux sociaux numériques, tels que Facebook, et s’intéresse plus particulièrement à l’apparition d’une nouvelle forme d’intimité exclusive aux réseaux sociaux numériques. Pour ce faire, 15 entretiens individuels ont été menés auprès d’une population à forte utilisation de Facebook : les étudiantes universitaires de 18 à 24 ans. À l’aide des notions d’espace public, d’espace privé, d’intimité, d’extimité et de visibilité, ce mémoire explore la représentation que l’utilisateur se fait de l’envahissement du territoire de l’intimité par les réseaux sociaux. On y explique l’apparition d’une possible nouvelle forme d’intimité – engendré par les réseaux sociaux numériques – grâce au mouvement des frontières entre les espaces privés et publics. Selon les résultats présentés dans ce mémoire, les utilisateurs Facebook emploient un certain nombre de stratégies pour se protéger des effets négatifs de la diffusion de leur vie privée, tout en divulguant suffisamment d’information pour assurer l’entretient de leur relation avec leurs amis. Leur vie privée est donc publique, mais seulement pour leurs propres réseaux. L’intimité sur Facebook s’affiche aisément, selon des degrés déterminés par la communauté d’utilisateurs, alors qu’elle reste cachée dans la vie de tous les jours.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notre étude s’intéresse à la représentation que des étudiants universitaires provenant du nord de l’Italie se font des formes dialectales et des langues minoritaires parlées dans leur région. Notre objectif premier étant de fait, à ce stade de nos recherches, de dégager les représentations que des jeunes citadins instruits se font d’objets linguistiques qui constituent, si nous nous plaçons dans une optique diglossique, la variante basse. Nous pourrions en d’autres termes parler d’une concurrence inégale dans laquelle se trouvent deux langues où nous admettons que l’italien constitue la variété haute et où les dialectes ou langues minoritaires auraient en commun d’être associés à la variété basse.