962 resultados para jeu en ligne
Resumo:
La sialylation des N-glycanes du fragment Fc des immunogobulines G (IgG) est une modification peu fréquente des IgG humaines. Pourtant, elle est l’objet de beaucoup d’attention depuis que deux articles fondateurs ont été publiés, qui montrent l’un que la sialylation des IgG diminue leur capacité à déclencher la cytotoxicité cellulaire dépendant de l’anticorps (ADCC), et l’autre que les IgG sialylées en α2,6 seraient la fraction efficace des IgG intraveineuses (IgIV) anti-inflammatoires. Les anticorps monoclonaux thérapeutiques, qui sont le plus souvent des IgG recombinantes produites en culture de cellules de mammifère, connaissent depuis la fin des années 90 un succès et une croissance phénoménaux sur le marché pharmaceutique. La maîtrise de la N-glycosylation du Fc des IgG est une clé de l’efficacité des anticorps monoclonaux. Si les IgG sialylées sont des molécules peu fréquentes in vivo, elles sont très rares en culture cellulaire. Dans cette étude, nous avons développé une méthode de production d’IgG avec une sialylation de type humain en cellules CHO. Nous avons travaillé principalement sur la mise au point d’une stratégie de production d’IgG sialylées par co-expression transitoire d’une IgG1 avec la β1,4-galactosyltransférase I (β4GTI) et la β-galactoside-α2,6-sialyltransférase I (ST6GalI). Nous avons montré que cette méthode permettait d’enrichir l’IgG1 en glycane fucosylé di-galactosylé mono-α2,6-sialylé G2FS(6)1, qui est le glycane sialylé présent sur les IgG humaines. Nous avons ensuite adapté cette méthode à la production d’IgG présentant des profils de glycosylation riches en acides sialiques, riches en galactose terminal, et/ou appauvris en fucosylation. L’analyse des profils de glycosylation obtenus par la co-expression de diverses combinaisons enzymatiques avec l’IgG1 native ou une version mutante de l’IgG1 (F243A), a permis de discuter des influences respectives de la sous-galactosylation des IgG1 en CHO et des contraintes structurales du Fc dans la limitation de la sialylation des IgG en CHO. Nous avons ensuite utilisé les IgG1 produites avec différents profils de glycosylation afin d’évaluer l’impact de la sialylation α2,6 sur l’interaction de l’IgG avec le récepteur FcγRIIIa, principal récepteur impliqué dans la réponse ADCC. Nous avons montré que la sialylation α2,6 augmentait la stabilité du complexe formé par l’IgG avec le FcγRIIIa, mais que ce bénéfice n’était pas directement traduit par une augmentation de l’efficacité ADCC de l’anticorps. Enfin, nous avons débuté le développement d’une plateforme d’expression stable d’IgG sialylées compatible avec une production à l’échelle industrielle. Nous avons obtenu une lignée capable de produire des IgG enrichies en G2FS(6)1 à hauteur de 400 mg/L. Cette étude a contribué à une meilleure compréhension de l’impact de la sialylation sur les fonctions effectrices des IgG, et a permis d’augmenter la maîtrise des techniques de modulation du profil de glycosylation des IgG en culture cellulaire.
Resumo:
Cette thèse se propose de comparer exhaustivement trois systèmes de divination par voie de tirage au sort qui ont été contemporains dans l’antiquité tardive. À l’aide d’une analyse rigoureuse des thèmes évoqués, des stratégies rhétoriques employées, du vocabulaire présent et des probabilités d’obtention des réponses offertes, plusieurs points communs ressortent. Les énoncés positifs et négatifs se veulent, dans tous les cas, équilibrés et ils optent souvent pour des variantes temporelles afin de tempérer les prédictions. Lorsqu’ils ne s’appliquent pas à des questions spécifiques, ils misent sur l’imaginaire des consultations littéraires qui allie proverbes et éléments épiques, sans toutefois déroger des thèmes communs liés aux préoccupations quotidiennes des consultants. La rhapsodomancie s’inscrit dans cette mouvance et prouve à quel point l’épopée est une source propice à l’élaboration de systèmes oraculaires, sans jamais que le contexte narratif et littéraire des vers sélectionnés n’entre en jeu.
Resumo:
Le risque de développer un problème de jeu chez les personnes atteintes de la maladie de Parkinson (MP) est de plus en plus documenté. Un type de médicament visant à contrôler les symptômes moteurs, l’agoniste dopaminergique, serait l’un des principaux facteurs liés à son développement. Par le biais d’une synthèse narrative présentée dans le chapitre 3, les mécanismes neurobiologiques et les autres facteurs en lien sont discutés. Un important constat ressort toutefois : l’étude des habitudes de jeu de ces patients est pratiquement absente. Ce constat est surprenant puisque la littérature sur le jeu regorge d’informations à prendre en considération dans le développement de ce trouble, telles que les types de jeu pratiqués, les montants dépensés, les raisons pour jouer et la présence de proches. Le deuxième article consiste donc à répondre à cette lacune relevée en faisant le portrait de leurs habitudes de jeu. Vingt-cinq personnes souffrant de la MP ont été recrutées et parmi celles-ci, quinze ont joué dans les six derniers mois. L’examen de leurs habitudes de jeu révèle que les jeux préférés sont la loterie et la machine à sous et qu’elles ont, en majorité, débuté la pratique de ces jeux avant l’établissement du diagnostic de la MP. Les patients sont moins intéressés à jouer aux machines à sous comparativement à un échantillon de joueurs âgés de plus de 55 ans mais, en contrepartie, ce jeu est celui auquel les plus grands montants étaient dépensés chez les participants qui ont rapporté avoir développé un problème de jeu. Les participants jouent pour le plaisir ou pour gagner de l’argent, mais des raisons non répertoriées, liées à leur maladie, ont été relevées. Ces patients n’ont pas recours à des proches aidants pour les aider dans la pratique de leur jeu favori et ces derniers ont manifesté leur méconnaissance de la pratique de jeux de hasard et d’argent des participants. Parmi l’ensemble des participants rencontrés, trois d’entre eux se sont révélés être des joueurs à risque. En plus de jouer aux machines à sous, des croyances erronées et des motivations spécifiques à jouer ont été relevées chez ces derniers. La réflexion découlant de ces résultats pourra stimuler la recherche dans l’étude des variables psychosociales en lien avec le développement d’un problème de jeu chez ces patients.
Resumo:
«Halal/ » : une prescription de la religion musulmane qui circonscrit ce qui est permis, mais surtout un marché en croissance exponentielle. Le marché du halal pèse près de 700 milliards de dollars de chiffre d’affaires annuel et intéresse 1,6 milliard de musulmans dans le monde (Bel Hadj, 2015). Entre 2014 et 2015, les dépenses alimentaires du monde musulman ont affiché une progression de 4,3% en atteignant 1158 milliards de dollars soit 16,7% des dépenses alimentaires de la planète . Ces dépenses dépasseront la barre symbolique des 2000 milliards de dollars d’ici 2025. En France, le marché est en constante croissance à deux chiffres (entre 17 à 20 % les cinq dernières années), il est estimé à 5,5 et 7 milliards d’euros par an .Face à l’évidence de l’ampleur et du potentiel du marché du halal dans le monde et en particulier en France, plusieurs tentatives d’élucidation du phénomène sont avancées. En observant de près les pratiques marketing, nous constatons un «déni» total des origines religieuses et une préférence pour la carte du purement ethnique. La recherche, quant à elle, reste fragmentée. Si dans certaines disciplines on préfère encore parler d’un phénomène purement religieux, d’autres tiennent encore à l’étiquette communautaire. Ce flou persiste avec la vision monochrome et surtout cloisonnée entre plusieurs domaines d’études. La recherche dans la discipline du comportement du consommateur, qu’elle s’intéresse à l’essence de la proscription religieuse ou qu’elle se focalise sur la dimension ethnique, n’investigue pas automatiquement toutes les raisons pour lesquelles un individu respecte les règles du halal. La sociologie semble être la discipline qui a su arpenter les chemins les plus sinueux pour tenter d’apporter plus de compréhension à ce phénomène qui ne cesse de prendre de l’envergure et d’attirer les controverses les plus acerbes. C’est aussi la discipline qui a su capturer l’évolution des générations d’immigrants et a su exprimer la complexité de l’expression alimentaire de la deuxième génération mais aussi le défi que relève la communauté maghrébine à cohabiter avec la stigmatisation. Cette deuxième génération d’«immigrants» maghrébins qui n’ont jamais immigré, décide de «manger pour croire » en «se nourrissant de nostalgie » pour une culture qu’ils vivent par procuration à défaut de pouvoir s’intégrer entièrement dans la société française. Il devenait pour nous fondamental de considérer cette pratique alimentaire dans une perspective plus large qui favorise l’élan de l’engagement et de la revendication identitaire affichée. Dans cette voie, et dans la ligne directrice des travaux en sociologie qui ont été notre principale inspiration tout au long de ce travail, notre projet s’inscrit dans une volonté de saisir cette consommation à travers un héritage à la fois culturel, migratoire, familial et une trajectoire propre à chaque individu. Pour arriver à cette fin, nous avons privilégié l’enquête par questionnaire (432 observations) auprès des immigrants de deuxième génération habitant la région parisienne. Pour l’analyse, nous avons opté pour les méthodes des équations structurelles, avec l’ambition de démêler la toile d’araignée à la fois culturelle, sociale et personnelle sans s’enliser dans les a priori, les polémiques et les partis pris. Pour ce faire, nous avons, tout au long de ce travail abordé le halal sous l’angle d’un fait religieux comportant de multiples facettes, à la fois collectives et individuelles, conservatrices et modernistes, désintéressées ou engagées. Nos résultats confirment cette relation de conviction étroite avec la consommation halal. Outre la religion, construit de prédilection des principales recherches en comportement du consommateur, le présent travail doctoral confirme les apports de certaines valeurs (sécurité, stimulation/hédonisme) de l’acculturation mais aussi de la socialisation alimentaire. Cette dernière a cristallisé l’impact de la composante comportementale de l’apprentissage sur la consommation, mais a surtout révélé l’impact de la composante affective sur cet apprentissage. Du côté de l’acculturation, seul l’attachement à la culture hôte a prouvé son influence négative sur la consommation alimentaire halal. Les polémiques récurrentes qui collent au halal nous ont également suggéré la voie de la confiance en la certification, qui a elle aussi confirmé qu’il s’agit désormais d’un phénomène de conscience, de revendication mais aussi d’un engagement responsable du consommateur pour harmoniser ce qu’il incorpore avec ce qu’il est.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
Les résultats de la cinquième réalisation de l’étude de TIMSS en 2011 montrent la présence d’un faible rendement des élèves iraniens en mathématiques par rapport à la moyenne internationale. Plusieurs facteurs peuvent être à la source de ce faible rendement : programmes d’études, caractéristiques de l’école, qualité des ressources éducatives fournies à l’école ou accessibles aux élèves hors de l’école, etc. (Mullis et coll., 2009; 2012; Coleman et coll., 1966). Ce mémoire est une tentative d’identifier les points faibles probables du contenu géométrique du manuel scolaire de mathématiques de 8e année de l’Iran, en considérant les exigences de TIMSS 2011. Dans cette perspective, cette recherche se focalise sur trois axes d’analyse : la répartition des contenus géométriques dans le manuel des mathématiques, la manière de présenter les concepts et les niveaux de raisonnement exigés par les problèmes du test et par les activités du manuel. L’analyse des résultats obtenus nous a permis de constater plusieurs divergences. Au niveau de la présence des connaissances géométriques, 9 % des connaissances nécessaires à la résolution des questions de TIMSS 2011 sont absentes du manuel. Quant à la présentation des connaissances, 27 % des connaissances sont présentées implicitement dans les manuels. L’utilisation de la grille d’analyse du niveau de raisonnement exigé par les tâches géométriques (Tanguay, 2000), montre que le manuel manque d’exercices mettant en jeu le développement des expériences mentales (35 %). Selon la théorie de Van Hiele (1959), l’insuffisance d’expériences nécessaires pour le développement de la pensée géométrique aux niveaux visuel, descriptif et analytique influencera la construction des concepts et la réussite dans la résolution des problèmes.
Resumo:
Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
L'objet d'étude de cette recherche était l'enseignement de la grammaire au 2e cycle du primaire. Les chercheuses ont constaté un écart considérable du nombre de notions prescrites par le Programme de formation de l'école québécoise (2001) entre la 2e année du 1 er cycle et la 1 re année du 2e cycle. De plus, dans les manuels scolaires du 2e cycle, une grande majorité des nouveaux savoirs essentiels était abordée dans ceux de la 1re année de ce cycle. L'année suivante, peu de nouvelles notions sont travaillées. Ce qui explique que plusieurs élèves éprouvent des difficultés d'apprentissage en grammaire dès le début du 2e cycle. Afin d'améliorer cette situation, les notions de grammaire pourraient être travaillées différemment de ce que proposent les manuels puisque le Programme de formation (2001) est conçu sur deux ans. L'objectif des chercheuses était donc de bien outiller les enseignants pour travailler la grammaire du 2e cycle d'une façon différente. Pour ce faire, la création d'un jeu éducatif qui tient compte de la différenciation pour l'enseignement de la grammaire au 2e cycle pouvait être un bon outil.
Resumo:
Cette étude identifie les représentations du rôle professionnel d'éducatrice en éducation psychomotrice. Le rôle professionnel d'éducatrice se définit comme un processus de prise de décisions concernant l'enfant, l'organisation de l'environnement et le jeu. Les représentations sont constituées de deux systèmes : les croyances et les processus cognitifs. Trois étudiantes respectivement inscrites en première, en troisième et en cinquième session ont participé à une entrevue semi-dirigée portant sur le rôle professionnel d'éducatrice en éducation psychomotrice. Les modèles de rôles maternel, thérapeutique et instructionnel (Katz, 1970) sont à la base de l'analyse des croyances alors que le diagnostic, la conception, la planification et le guide identifient les quatre processus cognitifs du rôle professionnel d'éducatrice (Saracho, 1988). Une analyse qualitative des verbatims des entrevues a permis d'isoler les croyances et les processus cognitifs. Par la suite, les représentations du rôle professionnel d'éducatrice se sont précisées de la présence des modèles de rôles dans l'utilisation des processus cognitifs. Selon cette étude, les quatre processus cognitifs du rôle professionnel apparaissent chez chacun des sujets. Les sujets prennent principalement des décisions concernant l'enfant. Par contre, les décisions touchant l'organisation de l'environnement et le jeu sont peu présentes. Par ailleurs, les trois sujets appliquent les modèles de rôles maternel, instructionnel et thérapeutique dans chaque processus cognitif du rôle professionnel d'éducatrice. Toutefois, de façon générale, les sujets tendent vers l'orientation intellectuelle du modèle de rôle instructionnel dans le diagnostic, la conception et la planification. De plus, tous les sujets présentent l'orientation intellectuelle du modèle instructionnel dans le guide. Cependant, l'orientation académique du modèle instructionnel apparaît dans le diagnostic, la conception et la planification des sujets de troisième et de cinquième session. Cette étude ouvre la voie à la recherche sur l'enseignement et l'apprentissage des processus cognitifs et des croyances compatibles avec le rôle professionnel d'éducatrice. De plus, ces représentations devenant explicites permettent aux formatrices d'éducatrice de porter une évaluation diagnostique autant en formation initiale qu'en formation continue. Cette recherche contribue à définir un «corpus» de savoirs propre aux éducatrices en Techniques d'éducation en services de garde dans le cadre d'une pédagogie basée sur le cognitivisme.
Resumo:
Problématique La réduction du taux de placement d'enfants en milieu substitut et la mise en place de solutions de rechange constituent depuis la fin des années 80 des préoccupations de première importance pour le Ministère de la santé et des services sociaux (MSSS) du Québec. Différents groupes de travail (Conseil des affaires sociales, 1990; Groupe de travail pour les jeunes, 1991; Groupe de travail sur l'application des mesures de protection de la jeunesse, 1991; Groupe de travail sur l'évaluation de la loi de la protection de la jeunesse, 1992) ont été mis sur pied et mandatés par le MSSS pour étudier les aspects législatifs et structurels des services offerts aux jeunes québécois présentant des difficultés d'adaptation et à leurs parents. Un consensus se dégage des différents rapports produits par ces comités: il faut prévenir le plus possible le placement d'enfants en milieu substitut et rationaliser son utilisation. Cette recommandation unanime a amené le MSSS à mandater un cinquième comité pour étudier les mesures alternatives au placement; il s'agit du comité consultatif sur le développement de solutions de rechange en matière de placement d'enfants (1994). Une des cinq recommandations formulées par ce comité dans son rapport final est que des études soient prioritairement réalisées pour mieux connaître les dimensions entourant le placement des enfants en milieu substitut, dont, entre autres, le portrait des enfants placés, leurs besoins et les caractéristiques de leur famille. En ce qui concerne les études réalisées jusqu'à maintenant portant sur les facteurs sociaux, familiaux et personnels des enfants associés au placement, il ressort, selon Pauzé, Déry et Toupin (1995) que ces études présentent des limites méthodologiques importantes: absence de groupes comparatifs, utilisation d'instruments d'évaluation non standardisés et non prise en compte de variables telles que l'âge et le sexe des enfants. Ces auteurs soulignent également que les résultats des études recensées ne sont pas directement applicables à la réalité des jeunes québécois placés en milieu substitut puisque la majorité de ces études a été réalisée dans des contextes sociaux, politiques et juridiques qui diffèrent parfois de façon considérable de ceux qui existent Québec. Ces auteurs recommandent donc, à l'instar de Roberge (1994) du Service de l'évaluation des politiques et des programmes (Direction générale de l'évaluation et de la planification du Ministère de la santé et des services sociaux), que des études rigoureuses sur le plan scientifique soient menées pour mieux connaître les différentes clientèles desservies par les services de placement au Québec. La présente recherche s'inscrit précisément dans cette lignée. L'objectif de notre étude vise à identifier les problèmes psychologiques associés au placement d'enfants (âgés de 6 à 11 ans) en centre de réadaptation pour jeunes en difficulté d'adaptation (CRJDA). De façon plus spécifique, nous comparerons, sur la base des problèmes psychologiques qu'ils présentent, des enfants placés en CRJDA à des enfants suivis par les services externes de ces mêmes CRJDA puis à des enfants de la population générale. Nous espérons ainsi mieux cerner les problèmes psychologiques présentés par les enfants bénéficiant d'un placement en CRJDA afin, espérons-nous, de mieux répondre aux besoins présentés par ces jeunes. Enfin, il est important de mentionner que la présente étude s'inscrit dans une recherche plus vaste portant sur les variables associées au placement d'enfants (âgés de 6 à 11 ans) en milieu substitut.
Resumo:
Ce mémoire aborde la question de l'entraînement au poste de travail des jeunes et nouveaux employés non spécialisés, à savoir : «Quels sont les modèles d'entraînement utilisés dans la grande industrie estrienne pour favoriser l'adaptation des nouveaux employés à leur poste de travail?» Au cours de cette recherche exploratoire, l'auteur tente de comprendre la dimension éducative entre les cadres de première ligne et les jeunes et nouveaux employés non spécialisés. Par le biais d'entrevues semi-directives, il a recueilli des données chez ces deux populations et les a ensuite analysées de manière qualitative en s'inspirant de l'approche de Miles et Huberman (1984). Les résultats obtenus permettent à l'auteur de croire qu'il n'existe pas de systématisation dans l'entraînement des jeunes et nouveaux employés non spécialisés dans les trois grandes industries estriennes concernées. Les résultats ont plutôt démontré la présence de moments d'instruction spontanés et circonstanciels.
Resumo:
Nombre de professeurs en soins infirmiers ont dû se pencher d'une façon plus ou moins formelle sur l'intérêt manifesté par les étudiants pour leurs stages cliniques. Pour nous, cette préoccupation est grande et constitue le centre de notre réflexion. Que la formation ait lieu dans un collège ou à l'université, le programme comporte pour tous des cours théoriques et des stages cliniques. Ces étudiants, ayant choisi librement la profession d'infirmiers et d'infirmières, nous amènent à penser que leur intérêt pour les cours spécifiques à la profession serait plus marqué. Toutefois, nous avons observé chez certains d'entre eux des comportements infirmant cette allégation. Par exemple: ils n'exécutent et ne lisent que ce qui est prévu dans le syllabus; ils questionnent rarement; ils répondent par un oui ou un non aux interrogations du professeur; ils rendent des travaux peu explicites; ils manifestent de l'empressement à quitter le champ clinique; ils ne collaborent guère avec le personnel; enfin, ils prennent peu d'initiatives permises. Nous avons déjà identifié certains facteurs susceptibles d'influencer l'intérêt des étudiants. Mentionnons entre autres, la spécialité concernée, les exigences du stage, la forme d'évaluation, le personnel de l'institution, le professeur. Dans cette recherche, nous ne retiendrons que le dernier facteur cité en raison de la diversité de son influence. Parce qu'il est personne ressource et modèle, parce qu'il assure le lien entre le milieu et les étudiants et par sa présence continue auprès d'eux, le professeur devient pour nous l'élément central de cette influence. Plusieurs caractéristiques du professeur entrent en jeu dans ses relations avec les étudiants, mais celles qui nous préoccupent plus particulièrement se regroupent dans les attitudes interpersonnelles. Cette étude se propose donc de démontrer la relation qui peut exister entre certaines de ces attitudes et l'intérêt des étudiants pour les stages cliniques. Nous étudierons cette relation en nous appuyant sur une théorie pertinente à notre choix et sur des recherches entreprises dans ce domaine. Suite à la délimitation du problème, nous formulerons une hypothèse; laquelle sera vérifiée par les données recueillies auprès des étudiants infirmiers. Au terme de cette étude, nous analyserons ces résultats et nous nous pencherons sur les implications qu'elle entraîne dans le domaine de l'éducation et de la recherche.