40 resultados para Diète maternelle faible en sodium


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les expériences avec l'écrit que vit l'enfant à l'âge préscolaire permettent à ce dernier d'acquérir un certain nombre d'habiletés en lecture et en écriture (Cunningham, 2008 ; Justice et Piasta, 2011). Ces expériences sont d'autant plus fructueuses qu'elles sont vécues dans le cadre d'interactions positives avec un adulte significatif (Clingenpeel et Pianta, 2007). À cet égard, certaines études montrent les bienfaits d'interactions positives avec l'enseignante et les résultats scolaires (Baker, 2006 ; Hamre et Pianta, 2001), mais encore peu montrent l'impact d'une relation enseignante-élève de qualité sur les résultats en lecture-écriture spécifiquement. Cette étude vise donc à mieux comprendre les liens entre les habiletés en lecture-écriture et la qualité de la relation enseignante-élève en début de scolarisation au Québec. Nos analyses corrélationnelles ont montré un lien légèrement significatif entre les scores de la qualité de la REE et les résultats en lecture-écriture (extraction phonologique, production de mots orthographiques, mémorisation/écriture de mots, etc.). Nos résultats sont discutés à la lumière des études déjà menées à ce sujet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ: Toute variété différentiable $M$ admet une métrique dite métrique riemannienne.\\ En définissant $\mathbb{H}=\lbrace z\in\mathbb{C}: Im(z)>0\rbrace$, on peut munir de $\mathbb{H}$ d'une métrique riemannienne $ds^{2}=\frac{dzd\bar{z}}{(Im(z))^{2}}=\frac{dx^{2}+dy^{2}}{y^{2}}$.\\ Muni de cette métrique, $\mathbb{H}$ est une variété riemannienne à la quelle on associe le fibré tangent, $T\mathbb{H}$ ainsi que le fibré unitaire tangent, $T^{1}\mathbb{H}$. Les éléments de $T^{1}\mathbb{H}$ peuvent être exprimés, de façon bijective, en termes des éléments du groupe PSL(2,$\mathbb{R}$) dont l'action sur $T^{1}\mathbb{H}$ est transitive et libre.\\ La métrique définie sur $M$ (en particulier sur $M=\mathbb{H}$) permet de définir sur $TM$ (en particulier sur $T^{1}\mathbb{H}$) une métrique connue sous le nom de métrique de Sasaki.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les producteurs d’aluminium sont des acteurs majeurs dans l’économie du Québec. Le métal gris est apprécié pour sa légèreté et sa résistance à la corrosion. Bien qu’il possède des qualités indéniables, sa production consomme une quantité considérable d’électricité. L’amélioration de l’efficacité énergétique du procédé est donc primordiale d’un point de vue économique et environnemental. L’étude du contact électrique entre le carbone et la fonte à l’intérieur de l’ensemble cathodique fait partie de la liste des paramètres pour optimiser la consommation énergétique de la cellule Hall-Héroult. Ce contact doit offrir une résistance minimale au passage du courant nécessaire pour la réaction d’électrolyse. Au cours du temps, la qualité du contact se dégrade en raison de la transformation physique et chimique des matériaux. Cette thèse se concentre sur l’étude de la dégradation chimique de la surface de la fonte. La première partie étudie la pénétration des composés chimiques provenant du bain d’électrolyse à l’intérieur du bloc de carbone. Le gonflement sodique suit généralement la diffusion du sodium, un sous-produit de la réaction cathodique, et du bain. Le gonflement causé par le sodium a été mesuré directement à l’aide de LVDT alors que la diffusion du bain électrolytique a été déterminée par microtomographie à rayons X. La seconde partie évalue le mécanisme de la dégradation du contact électrique entre le carbone et la fonte. Des travaux en laboratoire ont été réalisés pour quantifier l’impact des paramètres d’opération. Les résultats obtenus ont été comparés par la suite à des échantillons industriels provenant de deux technologies pour évaluer leur degré de dégradation. Un modèle numérique a été calibré à partir de ces résultats pour estimer l’effet de la dégradation de la fonte sur la chute de voltage cathodique. Les résultats démontrent que les paramètres d’opération de la cellule d’électrolyse ont des effets sur la vitesse de pénétration des espèces chimiques dans le bloc de carbone. Un bain plus riche en sodium ou une densité de courant cathodique plus élevée augmente la vitesse de pénétration. La présence d’une nappe d’aluminium au démarrage de l’électrolyse au contraire divise le gonflement et la pénétration du bain de moitié. La vitesse de dégradation de la fonte suit la même tendance. De plus, une augmentation de température de 50 °C provoque une fusion partielle de la surface de la fonte. Ces résultats intégrés au modèle numérique montre que la dégradation du contact entre le carbone et la fonte augmente la chute de voltage cathodique mais aussi change la distribution du courant à la surface du bloc de carbone. La détermination du mécanisme de dégradation de la fonte par des essais en laboratoire combinée avec la pénétration des espèces chimiques constitue l’apport original de cette thèse et ceci permet d’éclaircir le processus d’évolution de ce contact électrique sous condition d’opération.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette étude de cas analyse l'intervention éducative d'un enseignant du primaire qui a mis en oeuvre un dispositif didactique et pédagogique intégrant de façon systématique l'informatique scolaire à une pédagogie du projet dans le but de mieux répondre aux besoins liés à l'apprentissage d'élèves provenant d'un milieu socioéconomiquement faible.Cette étude longitudinale (1998-2001) fait ressortir l'impact de l'agir professionnel sur la réussite scolaire. La problématique de notre recherche s'inscrit dans la foulée de la réforme en cours, dont l'une des visées est de contrer le retard scolaire au primaire et le risque d'échec et d'abandon scolaire précoce au secondaire. Quatre dimensions éclairent l'implémentation du dispositif: l'équité sociale, les changements épistémologiques, une orientation vers la socialisation et le rôle des TIC pour soutenir le développement des compétences transversales. Le cadre conceptuel s'appuie sur une perspective socioconstructiviste cohérente avec la théorie de l'anthropologie culturelle de Vygotsky (1978) pour qui l'apprentissage ne se fait pas seul, mais avec l'aide de pairs plus avancés en contexte de cognition située. La médiation de l'enseignant, par sa réflexion en action , en synchronie avec les besoins immédiats de ses élèves, établit le lien entre enseignant et apprenants, pour qu'ils puissent développer un esprit d'initiative, ainsi que la responsabilité et l'autonomie pour assumer leurs apprentissages. Une méthodologie mixte interreliant des méthodes qualitatives et quantitatives a exigé un recueil de données sur des dimensions descriptives et évaluatives. Des données de deuxième ordre, issues d'une recherche FCAR (98-NT-004), ont permis de dégager des caractéristiques spécifiques à la planification, à la gestion de classe et aux comportements de l'"enseignant-cible" en contexte de pédagogie du projet. Les résultats obtenus par les 23 élèves aux examens sommatifs de 6e année témoignent de l'efficacité de l'intervention. La présente étude pourrait avoir des retombées en tant que modèle pour d'autres chercheurs intéressés à étudier l'impact des TIC comme matériel didactique. Sur le plan de la pratique, ce type d'intervention serait un moyen efficace pour contrer le décrochage scolaire chez les élèves en mobilisant leurs capacités de s'adapter avec succès à leur environnement, malgré les facteurs de risque qui pourraient les inhiber.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La question de l'intégration des jeunes au monde du travail est considérée de plus en plus importante dans notre société. En effet, de nombreuses recherches se sont attardées au problème de l'emploi chez les jeunes et plus précisément de leur transition entre le monde scolaire et le marché du travail. Plusieurs raisons sont à l'origine de cette difficulté d'insertion professionnelle des jeunes; mentionnons entre autres leur faible niveau de scolarité et leur manque d'habiletés professionnelles pour faire face au marché du travail qui est très mouvant. Certains disent qu'un investissement personnel dans l'éducation peut faciliter l'intégration au marché du travail. Mais qu'en est-il pour ceux qui ne peuvent capitaliser dans ce type d'investissement parce qu'ils éprouvent des difficultés d'adaptation et d'apprentissage les empêchant d'accéder à l'obtention du Diplôme d'Études Secondaires (D.E.S.), du Diplôme d'Études Professionnelles (D.E.P.) ou du Certificat d'Études Professionnelles (C.E.P.)? Nous constatons que parmi le nombre de jeunes qui désirent accéder à un emploi, certains d'entre eux n'y arrivent pas car ils ne possèdent pas les habiletés professionnelles requises même pour occuper des emplois non spécialisés. Nous voulons par cette recherche identifier et cerner les habiletés professionnelles nécessaires à l'exercice d'emplois et d'occupations non spécialisés afin de mieux préparer au travail les jeunes en difficulté d'adaptation et d'apprentissage et de leur assurer ainsi une plus grande réussite de leur insertion professionnelle. Dans la première partie de cette recherche, nous présentons la situation des jeunes sur le marché du travail, plus particulièrement ceux qui éprouvent des difficultés d'adaptation et d'apprentissage. Nous tenterons de montrer l'importance de la relation entre les habiletés professionnelles et le développement de carrière du jeune pour une insertion professionnelle dite réussie et par la suite, nous analyserons le programme des cheminements particuliers de formation des jeunes de 16 à 18 ans en insertion sociale et professionnelle afin d'apporter éventuellement des recommandations et de suggérer des outils pédagogiques susceptibles d'augmenter l'employabilité et l'adaptabilité de ces jeunes sur le marché du travail. Nous conclurons cette partie en précisant la pertinence de cette étude ainsi que les objectifs de recherche que nous désirons atteindre. Dans la deuxième partie, nous présentons la méthodologie que nous avons adoptée pour atteindre et réaliser nos objectifs de recherche. Nous mentionnerons entre autres l'échantillon choisi, l'instrument de recherche et le déroulement de l'expérience. Et pour terminer, les données obtenues seront présentées dans la troisième partie de cette recherche.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La lecture constitue certainement le domaine que l'école privilégie le plus au niveau des apprentissages scolaires. En fait c'est sur l'écrit que vont reposer tous les autres apprentissages scolaires (mathématiques, sciences, etc... ) et c'est pourquoi, dans le contexte actuel de l'école, il nous apparaît nécessaire de faciliter les premiers pas de l'apprentissage lexique en recourant à des programmes préventifs. À partir de l'étude des troubles d'apprentissage naît, la notion de maturité pour apprendre à lire. Celle-ci est d'abord associée à l'âge mental. Par la suite, elle est liée à d'autres facteurs tels que l’acuité visuelle, auditive et articulatoire, aux méthodes d'apprentissage, au développement social et émotionnel, etc. Vers les années 40, A.J. Barris lance l'idée de programmes de "Reading readiness" ou de préparation à l'apprentissage de la lecture. À partir de cette idée, une autre fait son apparition, soit l'importance de l’expérience chez l'enfant pour le préparer à un quelconque apprentissage. Cette expérience se développe au sein de la famille et de la classe maternelle au moyen de la sensori-motricité et de l'apport des facteurs instrumentaux. Pour arriver à trouver des variables reliées directement à la réussite en apprentissage lexique, les chercheurs utilisent les tests déjà en place ou en créent d'autres. Ainsi, ils essaient de trouver des corrélations entre des épreuves et la réussite en lecture. Enfin, la théorie américaine de l'enfant ayant des troubles d'apprentissage, "the learning disabled", contribue à l'essor de la prédictivité de ces difficultés par des tests et·leur prévention par différents exercices. Ce même mouvement de prévention se retrouve en Europe au niveau de l'apprentissage lexique. Pour nous, en explorant la conception de l'apprentissage lexique à travers différents auteurs, de sa préparation par l'apport des pré-requis et en examinant les notions d'aptitude à apprendre à lire et des difficultés reliées à cette préparation, nous nous sommes attardé à l'importance des pré-requis face au succès en apprentissage de la lecture. C'est à partir d'opinions et de découvertes de différents auteurs sur la nécessité de préparer les enfants à l'apprentissage, que nous avons décidé de présenter un projet de recherche mettant l'accent sur la nécessité des pré-requis à l'apprentissage lexique. Nous avons retenu parmi ces pré-requis ceux que l'on qualifie de facteurs instrumentaux.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le tournant du siècle marque les véritables débuts de la médecine dite préventive. En effet, la révolution pasteurienne donne naissance à l'hygiène qui permet désormais aux médecins d'envahir de nouveaux champs auxquels ces derniers accordaient peu d'intérêt dans le passé. Parmi ces nouveaux champs, on retrouve l'obstétrique et la puériculture. C'est la mortalité infantile qui justifie cette intrusion et qui conduit les médecins-hygiénistes à intervenir auprès des femmes en ce qui a trait à leur fonction maternelle. Comme l'ensemble des pays industrialisés de cette époque, le Québec possède un taux de mortalité infantile fort élevé, constat qui conditionne les médecins à encadrer par différents moyens la maternité. On assiste durant cette période, qui s'étend de la fin du dix-neuvième siècle et qui va jusqu'au milieu du vingtième, à l'élaboration progressive d'un discours auquel se rattache un ensemble de prescriptions touchant directement les femmes en tant que mères. C'est ainsi que s'établit peu à peu une norme pour la femme qui consiste à consulter systématiquement un médecin durant la période de la grossesse, ainsi qu'après l'accouchement, pour permettre le suivi médical de la mère et du nourrisson et ce, toujours dans le but premier de diminuer la mortalité infantile. Cependant, pour des raisons financières ou relevant simplement de la tradition, plusieurs femmes refusent de consulter un médecin, du moins en d'autres temps qu'au moment précis de l'accouchement…

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Abstract : Although concrete is a relatively green material, the astronomical volume of concrete produced worldwide annually places the concrete construction sector among the noticeable contributors to the global warming. The most polluting constituent of concrete is cement due to its production process which releases, on average, 0.83 kg CO[subscript 2] per kg of cement. Self-consolidating concrete (SCC), a type of concrete that can fill in the formwork without external vibration, is a technology that can offer a solution to the sustainability issues of concrete industry. However, all of the workability requirements of SCC originate from a higher powder content (compared to conventional concrete) which can increase both the cost of construction and the environmental impact of SCC for some applications. Ecological SCC, Eco-SCC, is a recent development combing the advantages of SCC and a significantly lower powder content. The maximum powder content of this concrete, intended for building and commercial construction, is limited to 315 kg/m[superscript 3]. Nevertheless, designing Eco-SCC can be challenging since a delicate balance between different ingredients of this concrete is required to secure a satisfactory mixture. In this Ph.D. program, the principal objective is to develop a systematic design method to produce Eco-SCC. Since the particle lattice effect (PLE) is a key parameter to design stable Eco-SCC mixtures and is not well understood, in the first phase of this research, this phenomenon is studied. The focus in this phase is on the effect of particle-size distribution (PSD) on the PLE and stability of model mixtures as well as SCC. In the second phase, the design protocol is developed, and the properties of obtained Eco-SCC mixtures in both fresh and hardened states are evaluated. Since the assessment of robustness is crucial for successful production of concrete on large-scale, in the final phase of this work, the robustness of one the best-performing mixtures of Phase II is examined. It was found that increasing the volume fraction of a stable size-class results in an increase in the stability of that class, which in turn contributes to a higher PLE of the granular skeleton and better stability of the system. It was shown that a continuous PSD in which the volume fraction of each size class is larger than the consecutive coarser class can increase the PLE. Using such PSD was shown to allow for a substantial increase in the fluidity of SCC mixture without compromising the segregation resistance. An index to predict the segregation potential of a suspension of particles in a yield stress fluid was proposed. In the second phase of the dissertation, a five-step design method for Eco-SCC was established. The design protocol started with the determination of powder and water contents followed by the optimization of sand and coarse aggregate volume fractions according to an ideal PSD model (Funk and Dinger). The powder composition was optimized in the third step to minimize the water demand while securing adequate performance in the hardened state. The superplasticizer (SP) content of the mixtures was determined in next step. The last step dealt with the assessment of the global warming potential of the formulated Eco-SCC mixtures. The optimized Eco-SCC mixtures met all the requirements of self-consolidation in the fresh state. The 28-day compressive strength of such mixtures complied with the target range of 25 to 35 MPa. In addition, the mixtures showed sufficient performance in terms of drying shrinkage, electrical resistivity, and frost durability for the intended applications. The eco-performance of the developed mixtures was satisfactory as well. It was demonstrated in the last phase that the robustness of Eco-SCC is generally good with regards to water content variations and coarse aggregate characteristics alterations. Special attention must be paid to the dosage of SP during batching.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Considérant que l’acte de lire consiste à la fois au décodage et à la compréhension d’un message, il est apparu important d’explorer le lien entre ces composantes de la lecture, et ce, dès le préscolaire, afin d’orienter le dépistage et l’intervention auprès des enfants à risque. La recension des écrits permet de constater que les processus utilisés par le lecteur expert sont probablement aussi utilisés par le pré-lecteur entrant à la maternelle. Pour mieux connaître les relations existantes entre les habiletés liées au décodage et celles liées à la compréhension, une entrevue a été réalisée auprès de 61 participants entrant à la maternelle et des analyses corrélationnelles ont suivi ces entrevues. Les résultats confirment que le pré-lecteur utilise les mêmes processus que le lecteur et qu’il y a une corrélation entre les performances en décodage et en compréhension seulement lorsque la maîtrise des rimes est incluse dans le score global du décodage.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Des études états-uniennes et canadiennes révèlent diverses situations d'homophobie (Taylor, Peter, McMinn, Elliott, Beldom, Ferry, Gross, Paquin et Schachter, 2011) en milieu scolaire. Au Québec, une étude récente a également montré que les élèves lesbiennes, gays et bisexuels des deux sexes (LGB) font face à l'intimidation, au harcèlement, aux insultes et à la discrimination dans les écoles (Chamberland, Émond, Bemier, Richard, Petit, Chevrier, Ryan, Otis et Julien, 2011). Les victimes d'intimidation et de discrimination manifestent des difficultés psychologiques (diagnostiquées ou non) telles que des troubles de l'humeur (tristesse, dépression, idéations ou tentatives de suicide), des troubles anxieux ou encore une faible estime d'eux-mêmes. De plus, ces élèves se sentent mal à l'aise à l'école, ont de la difficulté à se concentrer en classe et vont même jusqu'à manquer des cours, des journées de classe ou encore décrocher du système scolaire (Chamberland, Émond, Julien, Otis, et Ryan, 2011). Compte tenu de la situation problématique des élèves LGB dans les écoles, nous avons voulu identifier les liens entre les connaissances relatives aux rôles et comportements sexuels ainsi qu'aux réalités des jeunes LGB ou perçus comme tels du futur personnel enseignant tant québécois que colombien et leur attitudes envers l'homosexualité et bisexualité. Notre hypothèse à cet égard est que la tolérance face à la diversité sexuelle est en partie fonction des connaissances des personnes sur la question. Pour réaliser notre recherche, nous avons construit un questionnaire à partir des travaux de Kinsey (1948, 1953) sur le comportement sexuel humain, de Bein (1974, 1981) sur le rôle sexuel, de la littérature sur le vécu des jeunes LGB et de Herek et McLemore, (2011) sur les attitudes envers l'homosexualité. Nous avons effectué des analyses descriptives pour identifier les connaissances des participants et participantes ainsi que leurs attitudes envers la diversité sexuelle. Nous avons en outre procédé à des analyses de corrélations pour examiner la force des liens entre les connaissances et les attitudes. Nous avons enfin comparé les résultats obtenus en Colombie et au Québec à l'aide de tests t. Les résultats obtenus confirment notre hypothèse sur la relation entre connaissances et attitudes et révèlent un manque de connaissances sur les trois sujets testés, des attitudes ni tout à fait hostiles ni tout à fait positives dans les deux sous-échantillons, colombien et québécois. Cette étude pourra donc contribuer à améliorer la formation du personnel enseignant, en incluant des cours portant sur la diversité, sexuelle notamment, de façon à favoriser l'éclosion d'attitudes positives chez ce dernier et contribuer ainsi à rendre l'école plus sécuritaire pour les élèves LGB et à favoriser leur réussite scolaire. Cette recherche est pionnière par certains de ses aspects et apporte de nouvelles informations utiles pour comprendre les phénomènes humains autour desquels s'articulent les attitudes envers la diversité sexuelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.