30 resultados para Diète faible en sodium
Resumo:
Le tournant du siècle marque les véritables débuts de la médecine dite préventive. En effet, la révolution pasteurienne donne naissance à l'hygiène qui permet désormais aux médecins d'envahir de nouveaux champs auxquels ces derniers accordaient peu d'intérêt dans le passé. Parmi ces nouveaux champs, on retrouve l'obstétrique et la puériculture. C'est la mortalité infantile qui justifie cette intrusion et qui conduit les médecins-hygiénistes à intervenir auprès des femmes en ce qui a trait à leur fonction maternelle. Comme l'ensemble des pays industrialisés de cette époque, le Québec possède un taux de mortalité infantile fort élevé, constat qui conditionne les médecins à encadrer par différents moyens la maternité. On assiste durant cette période, qui s'étend de la fin du dix-neuvième siècle et qui va jusqu'au milieu du vingtième, à l'élaboration progressive d'un discours auquel se rattache un ensemble de prescriptions touchant directement les femmes en tant que mères. C'est ainsi que s'établit peu à peu une norme pour la femme qui consiste à consulter systématiquement un médecin durant la période de la grossesse, ainsi qu'après l'accouchement, pour permettre le suivi médical de la mère et du nourrisson et ce, toujours dans le but premier de diminuer la mortalité infantile. Cependant, pour des raisons financières ou relevant simplement de la tradition, plusieurs femmes refusent de consulter un médecin, du moins en d'autres temps qu'au moment précis de l'accouchement…
Resumo:
Les porteurs de l’apolipoprotéine E ε4 (APOE4) sont à risque accru de développer un déclin cognitif et/ou des maladies cardiovasculaires comparativement aux non-porteurs. Ceci serait partiellement attribuable à un débalancement dans le métabolisme de l’acide docosahexaénoïque (DHA), un acide gras (AG) polyinsaturé oméga-3 qui joue un rôle crucial dans la santé du cerveau et du cœur. La consommation d’une diète riche en AG saturés et la présence de surpoids pourraient exacerber ce débalancement puisque ces facteurs modifient l’homéostasie du DHA. Des données préliminaires suggèrent que la consommation d’un supplément à haute dose de DHA, sur le long terme, permettrait de rétablir l’homéostasie de cet AG chez les porteurs de l’APOE4. L’objectif de la première étude était d’évaluer la réponse plasmatique à un supplément de DHA chez des participants consommant une diète riche en AG saturés, et ce, en fonction de l’indice de masse corporelle (IMC) et du statut de porteur de l’APOE4. Cette étude a démontré une interaction génotype x IMC sur la réponse plasmatique de l’acide arachidonique (AA) et du DHA au supplément. De plus, les porteurs de l'APOE4 étaient de plus faibles répondeurs au supplément de DHA comparativement aux non-porteurs, mais seulement chez les participants en surpoids. L’objectif de la seconde étude était d’évaluer si une diète riche en DHA pendant huit mois permet de rétablir les niveaux de DHA dans le foie de souris porteuses de l’APOE4 et d’évaluer si les transporteurs hépatiques d’AG sont impliqués dans ce rétablissement. Les résultats ont démontré que sous une diète contrôle, les concentrations hépatiques d’AA et de DHA étaient plus élevées chez les souris APOE4 comparativement aux souris APOE3 et que le transporteur d’AG hépatiques FABP1 est impliqué. Par contre, chez les souris ayant consommé la diète riche en DHA, les niveaux d’AA et de DHA étaient similaires entre les génotypes. Ceci suggère qu’une supplémentation à long terme en DHA pourrait rétablir l’homéostasie de l’AA et du DHA chez les porteurs de l’APOE4. Puisque le DHA est impliqué dans la santé du cerveau et du cœur, la consommation de hautes doses de DHA chez les porteurs de l’APOE4 pourrait contribuer à diminuer leur risque de développer un déclin cognitif et/ou des maladies cardiovasculaires mais cette association devra être évaluée dans des études ultérieures.
Resumo:
Les producteurs d’aluminium sont des acteurs majeurs dans l’économie du Québec. Le métal gris est apprécié pour sa légèreté et sa résistance à la corrosion. Bien qu’il possède des qualités indéniables, sa production consomme une quantité considérable d’électricité. L’amélioration de l’efficacité énergétique du procédé est donc primordiale d’un point de vue économique et environnemental. L’étude du contact électrique entre le carbone et la fonte à l’intérieur de l’ensemble cathodique fait partie de la liste des paramètres pour optimiser la consommation énergétique de la cellule Hall-Héroult. Ce contact doit offrir une résistance minimale au passage du courant nécessaire pour la réaction d’électrolyse. Au cours du temps, la qualité du contact se dégrade en raison de la transformation physique et chimique des matériaux. Cette thèse se concentre sur l’étude de la dégradation chimique de la surface de la fonte. La première partie étudie la pénétration des composés chimiques provenant du bain d’électrolyse à l’intérieur du bloc de carbone. Le gonflement sodique suit généralement la diffusion du sodium, un sous-produit de la réaction cathodique, et du bain. Le gonflement causé par le sodium a été mesuré directement à l’aide de LVDT alors que la diffusion du bain électrolytique a été déterminée par microtomographie à rayons X. La seconde partie évalue le mécanisme de la dégradation du contact électrique entre le carbone et la fonte. Des travaux en laboratoire ont été réalisés pour quantifier l’impact des paramètres d’opération. Les résultats obtenus ont été comparés par la suite à des échantillons industriels provenant de deux technologies pour évaluer leur degré de dégradation. Un modèle numérique a été calibré à partir de ces résultats pour estimer l’effet de la dégradation de la fonte sur la chute de voltage cathodique. Les résultats démontrent que les paramètres d’opération de la cellule d’électrolyse ont des effets sur la vitesse de pénétration des espèces chimiques dans le bloc de carbone. Un bain plus riche en sodium ou une densité de courant cathodique plus élevée augmente la vitesse de pénétration. La présence d’une nappe d’aluminium au démarrage de l’électrolyse au contraire divise le gonflement et la pénétration du bain de moitié. La vitesse de dégradation de la fonte suit la même tendance. De plus, une augmentation de température de 50 °C provoque une fusion partielle de la surface de la fonte. Ces résultats intégrés au modèle numérique montre que la dégradation du contact entre le carbone et la fonte augmente la chute de voltage cathodique mais aussi change la distribution du courant à la surface du bloc de carbone. La détermination du mécanisme de dégradation de la fonte par des essais en laboratoire combinée avec la pénétration des espèces chimiques constitue l’apport original de cette thèse et ceci permet d’éclaircir le processus d’évolution de ce contact électrique sous condition d’opération.
Resumo:
La question de l'intégration des jeunes au monde du travail est considérée de plus en plus importante dans notre société. En effet, de nombreuses recherches se sont attardées au problème de l'emploi chez les jeunes et plus précisément de leur transition entre le monde scolaire et le marché du travail. Plusieurs raisons sont à l'origine de cette difficulté d'insertion professionnelle des jeunes; mentionnons entre autres leur faible niveau de scolarité et leur manque d'habiletés professionnelles pour faire face au marché du travail qui est très mouvant. Certains disent qu'un investissement personnel dans l'éducation peut faciliter l'intégration au marché du travail. Mais qu'en est-il pour ceux qui ne peuvent capitaliser dans ce type d'investissement parce qu'ils éprouvent des difficultés d'adaptation et d'apprentissage les empêchant d'accéder à l'obtention du Diplôme d'Études Secondaires (D.E.S.), du Diplôme d'Études Professionnelles (D.E.P.) ou du Certificat d'Études Professionnelles (C.E.P.)? Nous constatons que parmi le nombre de jeunes qui désirent accéder à un emploi, certains d'entre eux n'y arrivent pas car ils ne possèdent pas les habiletés professionnelles requises même pour occuper des emplois non spécialisés. Nous voulons par cette recherche identifier et cerner les habiletés professionnelles nécessaires à l'exercice d'emplois et d'occupations non spécialisés afin de mieux préparer au travail les jeunes en difficulté d'adaptation et d'apprentissage et de leur assurer ainsi une plus grande réussite de leur insertion professionnelle. Dans la première partie de cette recherche, nous présentons la situation des jeunes sur le marché du travail, plus particulièrement ceux qui éprouvent des difficultés d'adaptation et d'apprentissage. Nous tenterons de montrer l'importance de la relation entre les habiletés professionnelles et le développement de carrière du jeune pour une insertion professionnelle dite réussie et par la suite, nous analyserons le programme des cheminements particuliers de formation des jeunes de 16 à 18 ans en insertion sociale et professionnelle afin d'apporter éventuellement des recommandations et de suggérer des outils pédagogiques susceptibles d'augmenter l'employabilité et l'adaptabilité de ces jeunes sur le marché du travail. Nous conclurons cette partie en précisant la pertinence de cette étude ainsi que les objectifs de recherche que nous désirons atteindre. Dans la deuxième partie, nous présentons la méthodologie que nous avons adoptée pour atteindre et réaliser nos objectifs de recherche. Nous mentionnerons entre autres l'échantillon choisi, l'instrument de recherche et le déroulement de l'expérience. Et pour terminer, les données obtenues seront présentées dans la troisième partie de cette recherche.
Développement des bétons autoplaçants à faible teneur en poudre, Éco-BAP: formulation et performance
Resumo:
Abstract : Although concrete is a relatively green material, the astronomical volume of concrete produced worldwide annually places the concrete construction sector among the noticeable contributors to the global warming. The most polluting constituent of concrete is cement due to its production process which releases, on average, 0.83 kg CO[subscript 2] per kg of cement. Self-consolidating concrete (SCC), a type of concrete that can fill in the formwork without external vibration, is a technology that can offer a solution to the sustainability issues of concrete industry. However, all of the workability requirements of SCC originate from a higher powder content (compared to conventional concrete) which can increase both the cost of construction and the environmental impact of SCC for some applications. Ecological SCC, Eco-SCC, is a recent development combing the advantages of SCC and a significantly lower powder content. The maximum powder content of this concrete, intended for building and commercial construction, is limited to 315 kg/m[superscript 3]. Nevertheless, designing Eco-SCC can be challenging since a delicate balance between different ingredients of this concrete is required to secure a satisfactory mixture. In this Ph.D. program, the principal objective is to develop a systematic design method to produce Eco-SCC. Since the particle lattice effect (PLE) is a key parameter to design stable Eco-SCC mixtures and is not well understood, in the first phase of this research, this phenomenon is studied. The focus in this phase is on the effect of particle-size distribution (PSD) on the PLE and stability of model mixtures as well as SCC. In the second phase, the design protocol is developed, and the properties of obtained Eco-SCC mixtures in both fresh and hardened states are evaluated. Since the assessment of robustness is crucial for successful production of concrete on large-scale, in the final phase of this work, the robustness of one the best-performing mixtures of Phase II is examined. It was found that increasing the volume fraction of a stable size-class results in an increase in the stability of that class, which in turn contributes to a higher PLE of the granular skeleton and better stability of the system. It was shown that a continuous PSD in which the volume fraction of each size class is larger than the consecutive coarser class can increase the PLE. Using such PSD was shown to allow for a substantial increase in the fluidity of SCC mixture without compromising the segregation resistance. An index to predict the segregation potential of a suspension of particles in a yield stress fluid was proposed. In the second phase of the dissertation, a five-step design method for Eco-SCC was established. The design protocol started with the determination of powder and water contents followed by the optimization of sand and coarse aggregate volume fractions according to an ideal PSD model (Funk and Dinger). The powder composition was optimized in the third step to minimize the water demand while securing adequate performance in the hardened state. The superplasticizer (SP) content of the mixtures was determined in next step. The last step dealt with the assessment of the global warming potential of the formulated Eco-SCC mixtures. The optimized Eco-SCC mixtures met all the requirements of self-consolidation in the fresh state. The 28-day compressive strength of such mixtures complied with the target range of 25 to 35 MPa. In addition, the mixtures showed sufficient performance in terms of drying shrinkage, electrical resistivity, and frost durability for the intended applications. The eco-performance of the developed mixtures was satisfactory as well. It was demonstrated in the last phase that the robustness of Eco-SCC is generally good with regards to water content variations and coarse aggregate characteristics alterations. Special attention must be paid to the dosage of SP during batching.
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.
Resumo:
Alors que la pratique de redresser les états financiers pour les rendre conformes à la méthode de l'impôt exigible semble répandue parmi les analystes financiers, les organismes de normalisation en Amérique du Nord s'attachent à la formule d'application de la méthode du report intégral d'impôt. De son côté, la présente étude vise à contribuer au débat, toujours en cours, entre cette dernière méthode et celle de l'impôt exigible. Conséquemment, la première hypothèse posée est à l'effet que le contenu informationnel de la méthode du report d'impôt intégral et fixe, en vigueur au Canada, est plus grand que celui de la méthode de l'impôt exigible. Selon la deuxième hypothèse, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ont un contenu informationnel. Ces deux hypothèses sont testées empiriquement en s'intéressant, plus spécifiquement, aux réactions individuelles d'un échantillon d'utilisateurs d'états financiers, lors d'une expérimentation en laboratoire utilisant un devis intra-groupes. Au total, 152 questionnaires ont été reçus, dont 119 pour les comptables agréés du secteur industriel et affaires de la région de Montréal et 33 pour les membres de l'Association des analystes financiers de Montréal. Les résultats permettent de conclure que la méthode du report d'impôt intégral et fixe implique un contenu informationnel plus grand que la méthode de l'impôt exigible. Toutefois, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ne montrent un contenu informationnel, d'une façon statistiquement significative, que pour une des variables dépendantes de l'expérimentation. Globalement, les résultats semblent démontrer la nécessité d'un certain degré de répartition des impôts et indiquer un besoin de renseignements complémentaires sur les écarts temporaires. De plus, on peut raisonnablement avancer que les résultats appuient le SFAS No 109 du FASB, promulgué en 1992 aux États-Unis, exigeant la méthode dite de l'actif et du passif. Les résultats mitigés de l'expérimentation en laboratoire et surtout la diversité des réponses, aux mesures directes explicites et implicites de l'utilisation des informations sur les écarts temporaires, semblent confirmer qu'il y a également une très grande diversité dans la façon de considérer ces dernières informations en pratique. La présente étude soulève plusieurs avenues de recherches dont celle, apparaissant particulièrement prometteuse, sur les écarts temporaires causés par les différences entre l'amortissement comptable et fiscal, mais cette fois-ci, en contexte de décroissance d'une entreprise. On peut donc conclure que la comptabilisation des impôts est loin d'avoir fini de faire couler de l'encre...
Resumo:
Cette étude de clientèle avait comme premier objectif de décrire les caractéristiques personnelles et familiales pour l'ensemble des jeunes qui séjournent en foyer de groupe au Centre jeunesse de l'Estrie. Le deuxième objectif de cette étude était de d'identifier les caractéristiques personnelles et familiales des jeunes des foyers de groupe inscrits au programme des familles d'accueil associées. Les jeunes qui ont participé à cette étude ont été recrutés dans les trois foyers de groupe du Centre jeunesse de l'Estrie. La proportion des jeunes qui ont accepté de participer est de 88%. Au total, 22 jeunes soit 15 adolescents et 7 adolescentes âgés entre 12 et 17 ans ont été rencontrés dans le cadre d'une entrevue structurée pour répondre à nos questionnaires. Différents types de questionnaires ont été utilisés pour évaluer les caractéristiques sociofamiliales et personnelles de ces jeunes. Ces questionnaires portaient sur la composition de la famille, les relations parents-enfant (qualité de la relation, fréquence des contacts, soins et surprotection reçus), la violence conjugale, la présence de problèmes avec la justice, de consommation d'alcool ou de drogue chez les membres de la famille, les problèmes de comportement des jeunes, leur consommation d'alcool et de psychotropes, leur cheminement scolaire, leur histoire de placement, la composition de leur réseau social de soutien, la présence d'idéations suicidaires, d'abus sexuels et la violence qu'ils ont subie par les pairs et les adultes. Les principaux résultats obtenus nous apprennent que ces jeunes ont en moyenne 14,8 ans. La proportion de garçons placés en foyer de groupe est plus élevée (68,2%) que la proportion de filles (31,8%). La moitié des jeunes (50%) perçoivent présenter des troubles de comportements extériorisés (agirs délinquants, comportements agressifs). La proportion des jeunes qui présentent des troubles intériorisés (retrait social, complaintes somatiques, anxiété et dépression) est presque aussi élevée (45,5%). Cette constatation nous amène à nous préoccuper de l'importance accordée à ce type de troubles dans le suivi clinique des jeunes puisque ces troubles passent souvent inaperçus lorsqu'ils sont accompagnés d'agirs délinquants ou agressifs chez le jeune ou chez les autres jeunes du foyer de groupe. De plus, 31,8% des jeunes perçoivent présenter des troubles de comportements intériorisés et extériorisés. Du côté de la consommation de psychotropes, 95,2% des jeunes avouent en avoir déjà fait usage au cours de leur vie. De ce nombre, 65% des jeunes avouent en consommer sur une base occasionnelle et seulement 33,3% avouent en consommer sur une base régulière. Par ailleurs, ces jeunes ont un faible réseau social de soutien; ils ont en moyenne 6,3 personnes autour d'eux réparties dans 2,8 catégories. Les caractéristiques du passé des jeunes placés en foyer de groupe révèlent qu'ils ont vécu des événements lourds de conséquence. Tout d'abord, l'âge moyen des jeunes au premier placement est de 9,5 ans. Ils ont cumulé en moyenne 53,6 mois en milieux substituts et ils ont connu 6,1 milieux différents. La proportion des jeunes ayant des idéations suicidaires s'élève à 40,9%. Parmi les adolescentes interrogées, 71,4% ont vécu au moins un épisode d'abus sexuel. Une proportion de 40,9% des jeunes rapportent avoir subi de la violence d'une intensité importante (score de 10 points sur une possibilité de 20) de la part des adultes qui se sont occupés d'eux. Aussi, ces jeunes ont un passé scolaire empreint d'échec: 86,4% des jeunes ont doublé au moins une armée scolaire. De plus, ces jeunes fréquentent un centre de jour depuis 35,8 mois en moyenne. Enfin, 71,4 % des jeunes ont le projet de compléter au moins leurs études secondaires. L'étude des caractéristiques familiales nous apprend que la plupart des jeunes (81,8%) ont maintenu un contact fréquent avec au moins un parent. La moitié des jeunes désignent leur mère dans leur réseau social de soutien. En fait, les jeunes ont une meilleure relation avec leur mère qu'avec leur père. La relation avec leur père est soit détériorée ou absente pour la majorité des jeunes. Cependant, la qualité de la relation avec la mère est passable. En fait, la moitié des répondants (52,6%) ont reçu dans leur enfance des soins insatisfaisants de la part d'au moins un parent et ils ont aussi subi de la surprotection (80%) c'est-à-dire du contrôle, de l'intrusion ou du maintien de comportements dépendants de la part de leur parent. Enfin, la majorité des jeunes (68,2%) proviennent d'une famille non traditionnelle (soit monoparentale ou recomposée). Une proportion de 52,4% des jeunes ont été témoins assez fréquemment de violence conjugale. De plus, les familles de ces jeunes comptent au moins un membre de la famille aux prises avec des problèmes de justice (68,2%) et des problèmes de consommation de drogues (45,5%). Le deuxième objectif de cette étude visait à identifier les caractéristiques plus spécifiques d'un sous-groupe de jeunes qui participent déjà au nouveau projet de familles d'accueil associées. Quatre jeunes (groupe 2) avaient été ciblés à cause de leur difficulté d'insertion dans un milieu plus normalisant. Ces jeunes ont cumulé plusieurs échecs de placement vers des familles d'accueil. Les caractéristiques qui les distinguent des autres jeunes qui ne participent pas au programme (groupe 1) sont essentiellement liées à leur histoire de placement. Tout d'abord, ils étaient beaucoup plus jeunes au moment du premier placement (groupe 1= 10,8 ans, groupe 2= 3,8 ans). Ils ont connu 9 milieux substituts différents alors que les autres n'en ont connu que 5,4. Ils ont séjourné 105 mois en milieux substituts comparativement aux autres jeunes qui ont cumulé en moyenne 42,2 mois en milieux substituts. Aussi, la proportion du temps passé en milieux substituts au cours de leur vie est plus élevée (61,4%) chez les jeunes inscrits au programme que chez les autres jeunes des foyers de groupe qui ne sont pas inscrits dans ce programme (23,6%).
Resumo:
[…] À l'aide de ce travail, je désire produire ou identifier dans une recherche, les attentes ou les besoins des enseignants en supervision, de façon à développer un vrai contexte adéquat de relation d'aide, c'est-à-dire d'expression et de satisfaction de besoins mutuels. Dans une époque où tous les intervenants du monde de l'éducation (lire ici États Généraux) ont manifesté un besoin éminent de superviser dans le but d'améliorer la qualité de l'enseignement à l'école primaire et secondaire, il deviendrait très avantageux de connaître les besoins et les réticences de chacun en matière de supervision pédagogique, afin d'en tirer des lignes de force permettant de rendre cette supervision dite essentielle, efficace et désirée de tous.
Resumo:
Les objectifs de ce mémoire sont, d'une part, de vérifier la perception du soutien social face au réseau des pairs et face à la famille chez les élèves en difficultés d'apprentissage et les décrocheurs au secondaire. D'autre part, cette étude cherche à vérifier les différences entre les filles et les garçons. Un échantillon de 115 adolescentes et adolescents provenant de la polyvalente St-Jérôme de la région des Laurentides sont les sujets à l'étude (45 filles et 70 garçons). Parmi ceux-ci, on dénombre trois groupes. Tout d'abord, on retrouve les élèves faisant partie d'un groupe d'insertion sociale et professionnelle au marché du travail et présentant un retard scolaire d'au moins deux ans (groupe I. S. P. M. T.) (n=37). Un deuxième groupe est constitué d'élèves ayant doublé une année et présentant un retard scolaire d'une année (groupe des doubleurs) (n=32). Enfin, un dernier groupe comprend des élèves fréquentant le secondaire trois et faisant partie du cheminement régulier (groupe régulier) (n=46). Les sujets ont été évalués avec le Questionnaire de perception du soutien social face au réseau des pairs et face à la famille (traduction du Perceived Social Support From Friends and From Family (PSS-Fr, PSS-Fa) (Procidano & Heller, 1983). Une analyse de la variance (ANOVA) révèle un effet principal au niveau du groupe. L'analyse post-hoc (Tuckey A-LSD) indique que les élèves du groupe des doubleurs (difficultés légères d'apprentissage) présentent une perception du soutien social significativement plus élevée face au réseau des pairs que les élèves du groupe I. S. P. M. T. (difficultés graves d'apprentissage) (F = 3,558, p < ,05). Toutefois, le groupe I. S. P. M. T. ne se distingue pas du groupe régulier. L'interprétation des résultats permet de considérer les variables troubles du comportement et habiletés sociales pouvant jouer un rôle déterminant auprès du groupe des doubleurs. L'effet d'interaction de l'ANOVA (Sexe X Décrochage) infirme la deuxième hypothèse. À titre exploratoire, nous avons introduit, dans le cadre des analyses, la variable groupe. L'effet d'interaction à trois dimensions de l'ANOVA (Sexe X Groupe X Décrochage) indique que les décrocheuses du groupe I. S. P. M. T. présentent, d'une façon significative, la perception du soutien social face au réseau des pairs la plus élevée (F = 5,936, p < ,01). Afin d'expliquer ce résultat, l'interprétation permet de mettre en lumière les différences concernant les relations interpersonnelles et le rôle du réseau des pairs chez les filles et les garçons. Enfin, les décrocheurs présentent une perception du soutien social face à la famille significativement plus faible que les décrocheuses (F = 10,784, p < ,001). Ce résultat amène un aspect nouveau dans la compréhension de la problématique du décrochage scolaire par l'entremise, une fois de plus, des différences entre les filles et les garçons en ce qui a trait à la famille.