32 resultados para Théorie de la sécession comme droit de réparation

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

De 1900 à 1966, Lionel Groulx, prêtre, historien, écrivain, conférencier, professeur, a signé 176 textes d'une vingtaine de pseudonymes différents. Le premier chapitre du mémoire résume d'abord les positions théoriques qu'ont adoptées des chercheurs comme Genette, Laugaa et Jeandillou en ce qui concerne la pseudonymie. Le récit de l'aventure pseudonyme de Groulx commence au deuxième chapitre, alors que le jeune professeur du College de Valleyfield, surtout pour éviter les représailles de son évêque, recourra à la pseudonymie pour signer des textes patriotiques. En 1915, Groulx quitte Valleyfield pour Montréal. Dès 1917, il collabore à l'Action française, dont il devient le directeur en 1920. Sans contredit, l'étude de la pseudonymie de Groulx de 1917 a 1929 prouve qu'il est bel et bien "L'Homme à tout faire" de la revue, comme le démontre le troisième chapitre. Le quatrième et dernier chapitre analyse la période 1930 à 1966. [Résumé abrégé par UMI]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les chercheurs spécialisés en droit ont souvent pris pour modèle la méthodologie de la recherche inspirée des différentes sciences humaines. Or, les réflexions élaborées par certains historiens sur leur propre méthodologie, plus particulièrement celles qui ont été livrées par Paul Veyne dans son ouvrage "Comment on écrit l’histoire", sont aussi très éclairantes pour toute personne qui s’interroge sur la méthodologie de la recherche en droit. Selon cet auteur, et paradoxalement, "l’histoire n’a pas de méthode" et les historiens "racontent des événements vrais qui ont l’homme pour acteur". Transposées au domaine du droit, ces affirmations libéreraient en quelque sorte le chercheur d’une quête d’une méthodologie "scientifique" tout en le soumettant à une exigence, celle de décrire des événements vrais. La transposition est-elle possible? L’épistémologie historique est-elle pertinente pour les juristes? Voilà les questions que l’auteur abordera dans l’article qui suit.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[...] D'une façon globale, il semble donc exister trois grandes tendances dans le domaine de la formation : 1. une personnalisation de la formation pour l'apprenant ; 2. un rapprochement de la formation vers l'étudiant ; 3. une individualisation de la formation. On entend par personnalisation de la formation le fait que le contenu des cours est de plus en plus adapté aux caractéristiques propres des groupes visés et à leurs besoins. Le rapprochement de la formation vers l'étudiant signifie que plus que jamais, on tente de déplacer la formation vers l'apprenant plutôt que de déplacer celui-ci vers une classe qui ne reflète pas son milieu de travail. Quant à l'individualisation de la formation, cela veut dire que l'étudiant aura, dans un avenir proche, un accès de plus en plus individuel à la formation ; il pourra communiquer avec le formateur lorsqu'il désirera obtenir sa formation. La mise sur pied de centres de formation utilisant la vidéoconférence en salle comme outil de communication par des établissements d'enseignement, tels que l'Université du Tennessee (14 sites de vidéoconférence), le consortium d'éducation de l'Illinois de l'ouest (29 sites), l'école Escambia du comté d'Escambia en Floride (8 sites) et l'Université du Kentucky (7 sites) aux États-Unis, confirment ou nous incitent à croire que ces tendances sont fondées. Ainsi, devant ces nouvelles possibilités et réalités, les entreprises et les établissements d'enseignement doivent réévaluer leurs méthodes de formation à distance. La formation à distance peut-elle bénéficier de ces développements technologiques ? Pourrait-elle utiliser un outil de communication telle que la vidéoconférence pour dispenser des programmes de formation à distance ? Il apparaît donc qu'il faut évaluer la possibilité d'employer la vidéoconférence en salle pour dispenser des programmes de formation à distance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bon nombre d'étudiants choisissent les sciences (santé ou pures) au collégial afin d'ouvrir grandes les portes des professions d'avenir. À leur arrivée en première session au collégial, pour bien des étudiants, beaucoup d'espoirs sont déçus et il s'ensuit des conséquences telles que l'échec, l'abandon et le changement de programmes. Le phénomène des échecs et des abandons n'est pas nouveau. Plusieurs recherches en ont traité. Il est toutefois d'actualité puisque les dernières statistiques révélées par le ministère de l'Enseignement supérieur et de la Science indiquent qu'on doit intervenir afin d'augmenter le taux de diplômation des étudiants au collégial, celui-ci n'étant que de 65%. Dans les recherches actuelles on a fait ressortir plusieurs facteurs influençant la réussite scolaire. […] Face à cette situation, il devient important de chercher d'autres solutions dans le cadre de cette recherche. À cette fin, nous poursuivons deux objectifs spécifiques. Notre premier objectif est de présenter un certain nombre de programmes et de guides d'éducation à la carrière et d'en faire ensuite l'analyse afin de dégager des solutions intéressantes pour les étudiants en sciences du collège de Sherbrooke. C'est ce que nous verrons au prochain chapitre. Notre second objectif est d'élaborer une série d'activités d'éducation à la carrière adaptées à notre clientèle de sciences. Nous ne les expérimenterons toutefois pas dans le cadre de cette étude.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Bibliothèque du Code civil de Charles-Chamilly de Lorimier et Charles-Albert Vilbon, parue au cours de la seconde moitié du XIXe siècle, demeure un des ouvrages de référence marquants de la production juridique québécoise. Les artisans de cet ouvrage présentent le droit civil comme un héritage du passé. L’oeuvre, par sa valorisation des anciens auteurs, propose une lecture du Code civil qui s’inscrit dans la tradition. En même temps, elle se révèle un outil adapté à la transformation que connaît alors la pratique du droit. La Bibliothèque constitue un témoin éloquent de l’évolution de la culture juridique québécoise.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les prostaglandines sont des médiateurs lipidiques impliqués dans de nombreux processus physiologiques et pathologiques. De récentes évidences dans la littérature ainsi que de notre laboratoire ont fait ressortir le fait que la PGD2 pourrait être impliquée dans le contrôle du métabolisme osseux. Mes travaux de doctorat ont été effectués selon cette hypothèse et ont déterminé l’effet de la PGD2 sur la différenciation des cellules souches mésenchymateuses et des précurseurs ostéoclastiques, en plus d’étudier le rôle de cette prostaglandine dans la réparation des fractures chez l’homme. De plus, j’ai étudié l’internalisation et la désensibilisation des récepteurs de la PGD2, DP et CRTH2. D’un point de vue moléculaire, mes résultats démontrent un patron d’internalisation et désensibilisation différent pour les 2 récepteurs de la PGD2. Bien que la cinétique d’internalisation de ces récepteurs soit la même, l’internalisation de DP est régulée par les arrestines 2 et 3, la GRK2 et la PKC, alors que l’arrestine 3, les GRK2, 5 et 6, PKC et PKA régulent celle de CRTH2. L’internalisation de DP et CRTH2 est réduite par la co-expression de Rab4 et Rab11 respectivement, ce qui suggère des systèmes de recyclage différents. En analysant la signalisation de ces récepteurs, nous avons découvert que la GRK2 régule la signalisation de DP, alors que les 3 GRKs étudiées, soient les GRK2, 5 et 6 régulent la signalisation de CRTH2. Nous avons également démontré que les récepteurs de la PGD2 ont des effets différents sur la différenciation des CSMs humaines. En effet, la différenciation adipocytaire est augmentée de façon significative par la PGD2 et cet effet est dû à l’activation du récepteur PPAR-γ par un métabolite de la PGD2. L’activation du récepteur DP diminue l’adipogenèse alors que CRTH2 n’y joue pas de rôle significatif. Cependant, CRTH2 augmente significativement la différenciation des CSM en ostéoblastes, alors que l’activation de DP l’inhibe. Mes travaux ont montré que la PGD2 module l’ostéoclastogenèse et la résorption osseuse en abaissant l’expression de gènes impliqués dans celles-ci. En effet, les gènes NFATC1, RANK et CathK sont fortement régulés à la baisse par l’activation des récepteurs de la PGD2. Pour terminer, nous avons identifié l’axe de la PGD2 comme étant important lors du remodelage osseux chez l’homme. En comparant une cohorte de patients ayant une fracture osseuse à des contrôles, nous avons découvert que la production de PGD2 et l’expression d’une de ses synthétases sont significativement plus élevées que chez les contrôles. Parallèlement, la production de PGE2 ne diffère pas entre les groupes indiquant que l’augmentation de PGD2 n’est pas due à l’inflammation non spécifique causée par la fracture. De plus, l’augmentation de synthèse de PGD2 corrèle avec l’augmentation de la BAP, un marqueur clinique de formation osseuse. J’ai donc démontré que la PGD2, par l’entremise de l’activation de CRTH2, est un médiateur lipidique important pour la physiologie osseuse et que son activation pourrait favoriser l’anabolisme osseux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nombreuses sont les recherches qui traitent de la participation des membres en coopérative, tantôt du point de vue historique et sociologique, tantôt du point de vue économique. Parfois, on s'interroge sur l'effervescence de la participation, parfois on questionne l'affaissement de la participation chez les membres coopérateurs. Cette étude en sera donc une de plus, mais elle se veut différente car elle s'attaque aux racines mêmes du problème, soit l'opportunité de participation offerte aux membres par l'entreprise. Comme cette recherche se situe à l'ère de la carte de paiement, ceci nous &M'aime à justifier le choix de cette année précise, 1984, laquelle voit s'opérer l'action des guichets automatiques et les changements d'habitudes des membres à travers cette nouvelle technologie. Nous nous situons aujourd'hui à une époque charnière, celle qui tranche avec les services aux membres, dits de type conventionnel (épargne, crédit, services auxiliaires) et celle qui emprunte au développement informatique et qui transforme les services, les habitudes, la participation des membres. De nouveaux services permettent désormais au membre de la Caisse populaire d'opérer la plupart de ses transactions sept (7) jours par semaine et ce, hors caisse populaire, c'est-à-dire hors entreprise. Alors, que devient l'association dans ce contexte? Si on s'entend pour dire qu'une coopérative réunit deux (2) réalités, c'est-à-dire l'association et l'entreprise, comment peut-on parler de coopérative si l'association ne "s'exprime" plus, ne "s'articule" plus par rapport à l'entreprise? A notre avis, ces deux (2) réalités doivent toujours s'y retrouver, sans quoi on ne peut parler de véritable coopérative, les clients de banque en font autant. C'est dans cette optique donc, que nous abordons la problématique de la participation. Nous croyons en définitive, que si l'entreprise favorise l'intégration du membre et à sa structure et à son organisation, que ces nouveaux lieux pourront être source de participation nouvelle. Avant d'élaborer le profil des chapitres qui composeront cette étude, il nous apparaît important de signaler que lorsque nous parlerons de coopérative d'épargne et de crédit, de conseils, de commission, de dirigeants, membres, association et entreprise, nous ferons exclusivement référence au concept "Caisse populaire Desjardins". Ceci dit, au départ, nous tenterons un rapprochement entre la théorie et la réalité participative, puis nous considérerons la diversité du phénomène participatif et du développement possible dont il peut faire l'objet. Enfin, nous aborderons l'hypothèse avancée. Dans un second chapitre, nous examinerons la méthode utilisée, ce qui nous mènera au chapitre suivant qui lui traitera des résultats détaillés, venant vérifier la question du départ. Enfin, nous considérerons une dernière fois l'hypothèse et cette fois à la lueur de la caisse de demain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un étudiant qui aborde la production d'un mémoire de maîtrise en théologie court le risque de se perdre dans le dédale de la multiplicité des angles d'analyse associée à la complexité de son objet de recherche. La confessionnalité scolaire recouvre des enjeux importants et son actuelle remise en question s'avère d'autant plus délicate qu'une partie de la population sent bien sourdre là-dessous la confrontation de différents modèles culturels, systèmes de valeurs, conceptions du monde, de la personne et de la vie. C'est la conjonction de deux institutions très influentes qui est remise en question, la collaboration de l'école et de l'Église pour former la jeunesse du Québec. Dans le contexte de la discussion publique autour du projet de restructuration scolaire parrainé par le ministre de l'Éducation, la confessionnalité apparaît comme un aspect important du défi complexe que représente l'élaboration du projet éducatif de l'école québécoise. Diverses approches sont donc légitimes et pertinentes: la théologie, l'histoire, la sociologie, le droit, la politique, l'économie, la statistique, l'éthique, la pédagogie, l'approche pragmatique, etc… Quel que soit le point de vue adopté, le choix d'un cadre théorique s'impose pour éclairer ne serait-ce qu'un aspect d'une telle recherche. Puisqu'il n'y a pas d'éducation possible sans une certaine conception de l'homme, j'ai choisi l'axe anthropologique pour déterminer mon étude des fondements de la confessionnalité scolaire. Par conséquent, il s'agit d'une analyse critique de l'idéologie à la fois éducative et catholique, développée explicitement ou enveloppée implicitement dans le document « Dimension religieuse et projet scolaire », premier de la série « Voies et impasses » du Comité catholique du Conseil supérieur de l'éducation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[...]L'objectif précis de la présente recherche est d'observer si une caractéristique du développement psychologique des individus - la différenciation psychologique - exerce une influence sur les préférences interpersonnelles que se manifestent entre eux des élèves dans le cadre de quelques-unes de leurs activités sociales sur les lieux de leur institution d'enseignement. Il s'agit plus particulièrement de vérifier si la différenciation psychologique constitue une caractéristique individuelle associée au statut sociométrique - établi selon un critère de popularité - d'élèves québécois francophones, de niveau secondaire IV, observés en situation de travail en équipe lors d'une classe de français et lors d'une classe de physique. Une autre situation qui est considérée dans la présente recherche concerne les relations sociales entre des élèves à la cafétéria, à l'heure du repas. Dans toutes ces situations d'interaction sociale, nous nous intéressons donc à étudier le rôle particulier d'une caractéristique individuelle susceptible d'influencer la désirabilité sociale de l’individu. L'idée de considérer la variable qu'est la différenciation psychologique comme étant particulièrement importante dans cette recherche découle de deux raisons principales. La première de ces raisons se rapporte au fait que la théorie qui est rattachée à cette variable, la théorie de la différenciation psychologique, a déjà suscité l'intérêt d'un grand nombre de recherches dans les domaines de l'étude de la personnalité et des comportements interpersonnels et qu'il existe aussi à ce sujet quelques travaux sur l'étude de l'attirance interpersonnelle dans des classes d'élèves. Pour cette raison, nous pouvons tenter ici de pousser plus loin la démarche entreprise par d'autres chercheurs. La seconde raison concerne le fait qu'il s'agit d'une variable psychologique dont la relation a déjà été étudiée en regard de quelques matières d'enseignement scolaire et aussi en regard de la mesure de l'intelligence. Des recherches effectuées dans le domaine scolaire révèlent par exemple que la mesure de la différenciation psychologique peut servir à estimer quel sera le rendement académique des élèves quant aux matières d'enseignement faisant appel à des habiletés d'analyse et de raisonnement mathématique. [...]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé: Le rapport entre la morale et la politique est un des plus vieux problèmes et des plus durables que s’est posé la philosophie morale, la philosophie politique, et plus récemment la philosophie du droit. Pour certains, la Morale, au sens large, doit guider les actions humaines dans toutes les sphères d’activité et les individus devraient ainsi, au mieux de leur capacité, chercher à se conformer à ses exigences. Dans ce cas, il ne peut y avoir de dilemme moral entre les exigences normatives issues de l’univers politique et les exigences, prétendument universelles, de la Morale. En contrepartie, d’autres suggèrent que l’on peut être justifié d’enfreindre, à certains moments, les exigences que l’on considère comme morales dans la vie « ordinaire » étant donné le caractère adversatif de la politique. Le dilemme se présente, ainsi, comme une tension entre deux normativités qui suggèrent une distinction entre ce qui relève du public et ce qui relève du privé. C’est en voulant répondre à ce dernier problème que s’est développé une littérature qui porte au cœur de sa conception le problème de la justification morale d’une action politique qui est moralement condamnable. Dans son ensemble, ce mémoire s’intéresse à analyser comment la littérature portant sur le problème des mains sales traite la question du couple conceptuel public – privé. Nous soutenons, qu’en retenant la possibilité d’une réelle distinction entre ces deux univers à normativités différentes, l’hypothèse qu’il y a effectivement une tension entre le domaine privé et le domaine public, qui ne peut totalement se soumettre aux exigences de la morale étant donné les particularités de l’action politique. Ceci étant dit, nous désirons nuancer une telle prise de position qui fait écho aux écrits de Machiavel. Ainsi, nous soutiendrons que cette distance entre le public et le privé est bien réelle, cependant, elle ne se présente pas aussi radicalement. Plutôt, elle se présente comme une distinction qui est liée à l’enjeu de l’évaluation, du jugement moral, faite par les individus qui sont hors de la politique et de ceux étant à l’intérieur de la politique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’extrémité des chromosomes linéaires est une structure nucléoprotéique très conservée chez les organismes eucaryotes. Elle est constituée du télomère et des régions sous-télomériques répétées (STR) qui sont placées en amont du télomère. Chez la levure bourgeonnante, on trouve deux types de télomère, les télomères XY’ et les télomères X, qui se distinguent par la nature des STR positionnées en amont des répétitions télomériques. Le télomère et les STR sont liés par pas moins de dix protéines qui vont participer au maintien et à la régulation de l’extrémité chromosomique nécessaires à la stabilité du génome. Le télomère protège ainsi le chromosome de dégradations ou encore de fusions avec d’autres chromosomes. Le maintien de la taille du télomère est assuré par la télomérase, une transcriptase inverse, qui permet l’ajout de répétitions pour pallier leur perte lors de la phase de réplication durant le cycle cellulaire. Lorsque la télomérase est absente, deux types particuliers de cellules, les survivants de type I et les survivants de type II, peuvent maintenir leurs télomères grâce aux mécanismes de recombinaison homologue. Chez l’humain, les répétitions télomériques sont également liées par un certain nombre de protéines nécessaires au maintien de la stabilité de l’extrémité chromosomique. L’implication des télomères dans les processus de cancérisation, de vieillissement, mais également dans des maladies congénitales fait de cette structure un pivot dans le domaine de la recherche fondamentale. Dans 10 % des cas de cancers, l’allongement n’est pas dû à une réactivation de la télomérase comme c’est en général le cas, mais est inhérent à des processus de recombinaison homologue, comme chez la levure. Les homologies de séquences, de protéines, mais aussi de mécanismes de régulation des télomères avec les cellules humaines, font de S. cerevisiae un excellent modèle d’étude. Cette thèse se divise en trois chapitres. Les deux premiers traitent de l’interaction du complexe yKu avec les télomères de type XY’ dans le chapitre 1 puis de son interaction avec les télomères de type X dans le chapitre 2. Le chapitre 3 traite du comportement d’un type de survivant chez S. cerevisiae. Le chapitre 1 porte donc sur l’analyse des sites de liaison aux télomères XY’ du complexe yKu par la technique de ChEC in vivo. yKu intervient dans de nombreux processus de régulation des télomères, mais aussi dans un mécanisme de réparation des cassures double-brin de l’ADN (DSBs), la NHEJ (Non homologous end-joining). Les résultats présentés dans cette partie appuient un modèle dans lequel yKu aurait plusieurs sites de liaison aux télomères et dans les répétitions télomériques interstitielles. Nous supposons que la liaison du complexe se ferait lors de la formation d’une cassure de type « one-sided break » générée à la suite du passage de la fourche de réplication à l’intérieur des répétitions télomériques. Le chapitre 2 est également une étude des sites de liaison par la technique de ChEC in vivo du complexe yKu, mais cette fois-ci aux télomères X. Les observations faites dans cette partie viennent corroborer les résultats du chapitre 1 de la liaison de yKu à la jonction entre le télomère et les STRs, de plus elle met en évidence des interactions potentielles du complexe avec les éléments X laissant supposer l’existence d’un potentiel repliement du télomère sur la région sous-télomérique chez la levure. Enfin, le chapitre 3 est axé sur l’étude du comportement des survivants de type I, des cellules post-sénescences qui maintiennent leurs télomères par un processus de recombinaison homologue, le mécanisme de BIR (break-induced replication) en l’absence de télomérase. Les survivants de type I présentent une croissance lente liée à un arrêt du cycle cellulaire en phase G2/M qui dépend de la protéine de contrôle Rad9, dont l’activité est en général induite par des cassures double-brin. Ce chapitre a permis d’apporter des précisions sur la croissance lente probablement inhérente à un berceau télomérique très restreint chez ce type cellulaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : À l’aube des études humiennes, Norman Kemp Smith appelait à représenter Hume « suivant toutes ses nombreuses activités », comme s’il pressentait que l’étude de la pensée humienne pouvait s’avérer un labyrinthe dans lesquels les commentaires pouvaient s’égarer et se perdre de vue. Ce pressentiment, on peut le dire aujourd’hui, s’est avéré juste, et il porte avec lui une clé de lecture : pour dépasser la représentation parcellaire, fragmentée et ultimement incohérente d’un Hume kaléidoscopique, le mieux est peut-être de s’intéresser à ses activités. La présente thèse vise à circonscrire la pratique humienne de la philosophie, ou, pourrait-on dire, du travail épistémologique et conceptuel, dans l’espace de son magnum opus, et cela à l’aide d’une clé de lecture : celle du réductionnisme. Si le Traité est une oeuvre que l’on peut qualifier d’empiriste, on ne saurait la lire seulement par ce biais ou par celui de questions localisées, et nous montrons que le projet du Traité ne peut se comprendre qu’en voyant comment Hume tente d’y réduire la et les connaissances à des dépendances ou à des parties de sa propre théorie de la nature humaine. Pour cela, nous procédons via quatre chapitres. D’abord, nous tentons de circonscrire les caractéristiques les plus importantes du projet humien, c’est-à-dire de ce que Hume avait l’intention de développer à travers les contenus particuliers du Traité ; ensuite, nous nous concentrons sur la base dont Hume part et dont il se servira pour accomplir des réductions, base que l’on peut appeler une théorie des perceptions doublée d’une théorie de l’esprit (principes, facultés, relations) ; ces deux théories, couplées à un standard strict pour obtenir le statut de « vraie idée » ou d’idée intelligible, semblent amener de par leurs prémisses assez directement au scepticisme, et c’est pourquoi on traitera du scepticisme avant d’évoquer les aspects « naturalistes » du Traité au-dedes éléments de base de la théorie des perceptions et de l’esprit, soit une manoeuvre qui ne suit pas tout à fait l’ordre humien d’exposition mais nous semble suivre un certain ordre des raisons ; enfin, la quatrième partie nous permettra de passer en revue diverses réductions opérées par Hume, celles qui mènent au scepticisme pyrrhonien mises à part, ce qui nous permettra de voir quelles sont les limites et les problèmes afférents à son réductionnisme particulier. Refondateur, systématique et totalisant dans ses intentions, le Traité suit bien plus qu’un projet simplement empiriste, et on verra que dans la démarche humienne l’empirisme apparaît davantage dans les conclusions qu’au point même de départ. En le lisant comme le lieu et la conséquence d’une orientation que l’on peut dire réductionniste, on peut trouver dans le Traité un fil conducteur qui, en dépit de problèmes plus ou moins importants rencontrés en cours de route, ne se rompt pas.