927 resultados para Diète maternelle faible en sodium
Resumo:
The biodistribution of sodium pertechnetate, the most used radiopharmaceutical in nuclear medicine, has not been studied in details after bariatric surgery. The objective was to investigate the effect of Roux-en-Y gastric bypass (RYGB) on biodistribution of sodium pertechnetate (Na99mTc-) in organs and tissues of rats. Methods: Twelve rats were randomly divided into two groups of 6 animals each. The RYGB group rats were submitted to the Roux-en-Y gastric bypass and the control group rats were not operated. After 15 days, all rats were injected with 0.1mL of Na99mTc- via orbital plexus with average radioactivity of 0.66 MBq. After 30 minutes, liver, stomach, thyroid, heart, lung, kidney and femur samples were harvested, weighed and percentage of radioactivity per gram (%ATI/g) of each organ was determined by gama counter Wizard Perkin-Elmer. We applied the Student t test for statistical analysis, considering p<0.05 as significant. Results: Significant reduction in mean %ATI/g was observed in the liver, stomach and femur in the RYGB group animals, compared with the control group rats (p<0.05). In other organs no significant difference in %ATI/g was observed between the two groups. Conclusion: This work contributes to the knowledge that the bariatric surgery RYGB modifies the pattern of biodistribution of Na99mTc
Resumo:
De nos jours, les séries télévisées américaines représentent une part incontournable de la culture populaire, à tel point que plusieurs traductions audiovisuelles coexistent au sein de la francophonie. Outre le doublage qui permet leur diffusion à la télévision, elles peuvent être sous titrées jusqu’à trois fois soit, en ordre chronologique : par des fans sur Internet; au Québec, pour la vente sur DVD en Amérique du Nord; et en France, pour la vente sur DVD en Europe. Pourtant, bien que ces trois sous titrages répondent aux mêmes contraintes linguistiques (celles de la langue française) et techniques (diffusion au petit écran), ils diffèrent dans leur traitement des dialogues originaux. Nous établissons dans un premier temps les pratiques à l’œuvre auprès des professionnels et des amateurs. Par la suite, l’analyse des traductions ainsi que le recours à un corpus comparable de séries télévisées françaises et québécoises permettent d’établir les normes linguistiques (notamment eu égard à la variété) et culturelles appliquées par les différents traducteurs et, subsidiairement, de définir ce que cache l’appellation « Canadian French ». Cette thèse s’inscrit dans le cadre des études descriptives et sociologiques. Nous y décrivons la réalité professionnelle des traducteurs de l’audiovisuel et l’influence que les fansubbers exercent non seulement sur la pratique professionnelle, mais aussi sur de nouvelles méthodes de formation de la prochaine génération de traducteurs. Par ailleurs, en étudiant plusieurs traductions d’une même œuvre, nous démontrons que les variétés de français ne sauraient justifier, à elles seules, la multiplication de l’offre en sous titrage, vu le faible taux de différences purement linguistiques.
Resumo:
Cette étude vise à analyser les liens entre le climat scolaire et la victimisation par les pairs en contexte de persévérance et de réussite scolaires au secondaire. Après avoir démontré l’existence de liens théoriques entre ces trois variables, elle évalue l’influence du climat scolaire décliné en quatre composantes (sentiment de sécurité, de justice, relations interpersonnelles/soutien et collaboration/participation) sur six formes de victimisation par les pairs (physique, verbale, psychologique, matérielle, électronique, à connotation sexuelle). Les résultats de cette recherche menée auprès de 2 154 élèves de la première à la cinquième secondaire révèlent que la composante du climat scolaire « Sentiment de sécurité » se distingue avec une influence sur les six formes de victimisation étudiées, signifiant que les élèves qui se sentent en sécurité dans leur milieu scolaire sont moins à risque de vivre ces différentes formes de violence. L’influence des autres composantes du climat scolaire sur la victimisation s’est toutefois avérée très faible. Comme le vécu victimaire et la perception d’un climat scolaire négatif peuvent nuire à la réussite et à la persévérance scolaires et entraver la diplomation, et que la décision d’abandonner l’école se prend souvent durant la quatrième et cinquième années du secondaire (Frase, 1989; MELS, 2009), c’est à ce groupe particulier d’élèves que la troisième partie de cette thèse s’est consacrée. Les analyses menées spécifiquement auprès d’élèves de quatrième et cinquième secondaire (n = 715) indiquent que ceux qui subissent au moins une des six formes de victimisation perçoivent plus négativement chacune des composantes du climat scolaire de leur établissement, comparativement à leurs pairs non victimisés. Précisément, les élèves victimes de violence physique et verbale perçoivent plus négativement les quatre composantes du climat scolaire et celles de formes matérielle, psychologique et à connotation sexuelle jugent aussi plus négativement toutes les composantes du climat scolaire, excepté celle du climat de sécurité. L’ensemble de ces résultats indiquent que la perception du climat scolaire influence la victimisation pour l’ensemble des élèves du secondaire et soulignent que cette victimisation, vécue par les élèves de quatrième et cinquième secondaire, affecte plus négativement leur perception du climat scolaire. Des réflexions sont finalement proposées afin d’orienter de futures recherches de même que certaines retombées pratiques pour les milieux scolaires.
Resumo:
Méthodologie: Analyse en composantes principales
Resumo:
Ce mémoire doctoral s’intéresse aux pratiques parentales en littéracie comme prédicteurs des différences précoces en lecture. Les études antérieures ont rapporté des liens préférentiels entre deux types de pratiques parentales en littéracie, deux habiletés préalables à la lecture et le développement de la lecture au primaire. D’une part, l’enseignement des lettres par le parent, une pratique formelle, contribuait à la connaissance des lettres, laquelle était un prédicteur des habiletés de lecture de l’enfant. D’autre part, la lecture parent-enfant ainsi que l’exposition aux livres, des pratiques informelles, prédisaient le développement langagier de l’enfant, lequel contribuerait plus spécifiquement à la compréhension en lecture. L’hypothèse selon laquelle des processus de médiation sont impliqués a été proposé par plusieurs chercheurs mais, aucun n’avait testé formellement cette hypothèse. De plus, la contribution des pratiques parentales en littéracie était évaluée une seule fois, en maternelle ou au début de la première année du primaire, ce qui ne permettait pas d’identifier l’âge vers lequel il devient pertinent d’introduire l’enfant au monde littéraire. L’objectif du mémoire était donc d’évaluer formellement un modèle de double médiation à l’aide d’analyses acheminatoires tout en considérant l’exposition à la littéracie tout au long de la petite enfance. En accord avec les liens préférentiels suggérés dans la littérature, on a constaté que l’enseignement des lettres par les parents à 4 et 5 ans prédisent indirectement les habiletés en lecture (8 ans; décodage et compréhension en lecture) via leur contribution à la connaissance des lettres (5 ans). Également, le vocabulaire réceptif de l’enfant (5 ans) était un médiateur des contributions de la lecture parent-enfant à 2.5, 4 et 5 ans, à la compréhension en lecture (8 ans). Ce mémoire souligne l’importance d’initier les enfants à la littéracie en bas âge afin de supporter leur acquisition subséquente de la lecture.
Resumo:
L’objectif du projet présenté dans ce mémoire était d’évaluer l’impact de trois systèmes de production d’œufs de consommation soit les cages conventionnelles, les cages aménagées et les volières de ponte sur les performances zootechniques et le bien-être des poules pondeuses. Pour ce faire, le nombre d’œufs par jour, la consommation d’aliments, la propreté, la localisation des œufs, des analyses de la qualité interne et externe des œufs, des prises de sang, des évaluations de l’état corporel et des observations directes des poules ont été enregistrées sur un total de 360 poules pondeuses (Lohmann LSL-Lite) âgées entre 19 et 36 semaines, logées en groupe de 30 poules dans 12 chambres indépendantes. Les résultats ont confirmé que la production est similaire pour la cage conventionnelle et la cage aménagée et plus faible pour la volière de ponte. Les œufs obtenus dans la volière étaient plus légers et par conséquent, les poids moyens du jaune et de la coquille et les rapports jaune/albumen étaient statistiquement plus faibles. Le jaune d’œuf des poules dans la volière était plus foncé. De plus, les observations directes ont montré que le niveau d’agressivité se manifestant par des coups de bec reçus et donnés était plus élevé chez les poules en volière. Cette différence s’explique peut-être par la taille élevée du groupe. Le confort et le comportement des bains de poussière étaient plus exprimés dans les cages aménagées et dans les volières que dans les cages conventionnelles. Aucune différence significative n’a été observée pour les ratios hétérophiles/lymphocytes (H/L) et l’état du plumage et des pieds entre les systèmes de logement. Les résultats de l’étude démontrent que le système de cages aménagées représente une alternative intéressante pour la production d’œufs, permettant à la fois de maintenir un meilleur taux de production et de mieux respecter le bien-être des poules.
Resumo:
Les percidés, dont le doré jaune (Sander vitreus), représentent une opportunité considérable de diversification de l’offre pour l’industrie aquacole au Canada, mais aussi ailleurs dans le monde. Malgré son fort potentiel, les producteurs de dorés sont marginaux, car l’élevage larvaire s’avère difficile et complexe, résultant en des succès de survie variables. Pour un développement durable de l’aquaculture, mais aussi pour assurer un meilleur contrôle des paramètres environnementaux, et conséquemment une meilleure rentabilité, les nouvelles méthodes d’élevage s’orientent vers l’utilisation de systèmes en recirculation où l’eau est majoritairement filtrée et recyclée. Un premier volet de nos travaux réalisés en 2014 a confirmé que (i) les méthodes intensives d’élevage larvaire peuvent être adaptés dans les systèmes en recirculation, que (ii) la moulée commerciale enrichie de farine de krills offre une meilleure croissance qu’une moulée commerciale enrichie aux microalgues, (iii) que des artémies vivantes ne favorise pas l’ingestion alimentaire lorsqu’ils sont ajoutés à des rations d’une moulée commerciale enrichie de farine de krills et (iv) que le développement de la vessie natatoire est le défi principal afin de produire du doré en circuit recyclé de façon rentable. Une étude menée en 2015 visait à favoriser le développement de la vessie natatoire du doré dans les systèmes en recirculation. Quatre traitements ont été comparés soit, un jet d’eau de surface faible, un jet d’eau de surface fort, un microbulleur et un rondin commercial d’absorption d’huile. Nous avons démontré que (i) l’utilisation d’un jet d’eau de surface faible n’était pas suffisant pour favoriser le développement de la vessie natatoire du doré dans les systèmes où l’eau est fortement recirculée et (ii) qu’un rondin d’absorption d’huile est le dispositif le plus efficace pour favoriser le développement de la vessie natatoire du doré. Les prochains travaux devraient se pencher sur (i) l’élaboration de bassins adaptés aux réalités de l’élevage intensif des percidés, (ii) sur des efforts de domestication du doré par sélection génétique afin d’augmenter la survie dans les systèmes en recirculation et sur (iii) des études bioéconomiques afin de réduire les risques associés aux démarrages de nouvelles piscicultures.
Resumo:
Cette thèse a pour sujet le développement d’un détecteur à fibre scintillante plastique pour la dosimétrie des faisceaux de photons de basses énergies. L’objectif principal du projet consiste à concevoir et caractériser cet instrument en vue de mesurer la dose de radiation reçue au cours des examens d’imagerie diagnostique et interventionnelle. La première section est consacrée à la conception de six différents systèmes et à l’évaluation de leur performance lorsqu’ils sont exposés à des rayonnements de hautes et basses énergies. Tous les systèmes évalués présentaient un écart type relatif (RSD) de moins de 5 % lorsqu’ils étaient exposés à des débits de dose de plus de 3 mGy/s. Cette approche systématique a permis de déterminer que le tube photomultiplicateur répondait le mieux aux conditions d’exposition propres à la radiologie. Ce dernier présentait une RSD de moins de 1 % lorsque le débit de dose était inférieur à 0.10 mGy/s. L’étude des résultats permis également de suggérer quelques recommandations dans le choix d’un système en fonction de l’application recherchée. La seconde partie concerne l’application de ce détecteur à la radiologie interventionnelle en procédant à des mesures de dose à la surface d’un fantôme anthropomorphique. Ainsi, plusieurs situations cliniques ont été reproduites afin d’observer la précision et la fiabilité du détecteur. Ce dernier conserva une RSD inférieure à 2 % lorsque le débit de dose était supérieur à 3 mGy/min et d’environ 10 % au débit le plus faible (0.25 mGy/min). Les mesures sur fantôme montrèrent une différence de moins de 4 % entre les mesures du détecteur et celles d’une chambre d’ionisation lors du déplacement de la table ou du bras de l’appareil de fluoroscopie. Par ailleurs, cette différence est demeurée sous les 2 % lors des mesures de débit de dose en profondeur. Le dernier sujet de cette thèse porta sur les fondements physiques de la scintillation dans les scintillateurs plastiques. Les différents facteurs influençant l’émission lumineuse ont été analysés afin d’identifier leur contribution respective. Ainsi, la réponse du détecteur augmente de près d’un facteur 4 entre un faisceau de 20 kVp et 250 kVp. De ce signal, la contribution de la fluorescence produite dans la fibre claire était inférieure à 0.5 % lorsque les fibres étaient exposées sur 10 cm par des faisceaux de 20 à 250 kVp. Le phénomène d’extinction de la fluorescence par ionisation a également été étudié. Ainsi, l’atténuation du signal variait en fonction de l’énergie du faisceau et atteignit environ 20 % pour un faisceau de 20 kVp. En conclusion, cette étude suggère que les détecteurs à fibres scintillantes peuvent mesurer avec précision la dose de radiation reçue en imagerie diagnostique et interventionnelle, mais une calibration rigoureuse s’avère essentielle.
Resumo:
Les résultats de la cinquième réalisation de l’étude de TIMSS en 2011 montrent la présence d’un faible rendement des élèves iraniens en mathématiques par rapport à la moyenne internationale. Plusieurs facteurs peuvent être à la source de ce faible rendement : programmes d’études, caractéristiques de l’école, qualité des ressources éducatives fournies à l’école ou accessibles aux élèves hors de l’école, etc. (Mullis et coll., 2009; 2012; Coleman et coll., 1966). Ce mémoire est une tentative d’identifier les points faibles probables du contenu géométrique du manuel scolaire de mathématiques de 8e année de l’Iran, en considérant les exigences de TIMSS 2011. Dans cette perspective, cette recherche se focalise sur trois axes d’analyse : la répartition des contenus géométriques dans le manuel des mathématiques, la manière de présenter les concepts et les niveaux de raisonnement exigés par les problèmes du test et par les activités du manuel. L’analyse des résultats obtenus nous a permis de constater plusieurs divergences. Au niveau de la présence des connaissances géométriques, 9 % des connaissances nécessaires à la résolution des questions de TIMSS 2011 sont absentes du manuel. Quant à la présentation des connaissances, 27 % des connaissances sont présentées implicitement dans les manuels. L’utilisation de la grille d’analyse du niveau de raisonnement exigé par les tâches géométriques (Tanguay, 2000), montre que le manuel manque d’exercices mettant en jeu le développement des expériences mentales (35 %). Selon la théorie de Van Hiele (1959), l’insuffisance d’expériences nécessaires pour le développement de la pensée géométrique aux niveaux visuel, descriptif et analytique influencera la construction des concepts et la réussite dans la résolution des problèmes.
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Les travaux sur la nutrition en vitamines B des ruminants montrent des résultats très variés sur les quantités de ces nutriments disponibles pour l’animal selon la nature de la ration. Ces divergences sont dues à des changements des populations microbiennes dans le rumen, causées par les facteurs physico-chimiques de la ration. Une amélioration de la compréhension des effets de la nature de la diète sur la synthèse et l’utilisation des vitamines B dans le rumen pourrait aider à identifier les conditions sous lesquelles une supplémentation en ces vitamines serait bénéfique pour la vache. Le but de ce travail de thèse est donc d’améliorer la compréhension des effets de l’espèce fourragère, de la maturité et de la longueur des particules de fourrage sur les apports en vitamines B chez la vache laitière. Pour évaluer chacune de ces variables, les concentrations de thiamine, riboflavine, niacine, vitamine B6, folates et vitamine B12 ont été mesurées dans les échantillons d’aliments et de digesta duodénal recueillis lors de trois projets réalisés à l’Université du Michigan par l’équipe du Dr. M. Allen. Dans la première étude, l’effet de l’espèce fourragère des ensilages a été évalué au cours de deux expériences similaires durant lesquelles les vaches recevaient une diète à base d’ensilage de luzerne ou de dactyle. Les diètes à base de luzerne ont été associées à une augmentation de la dégradation de la thiamine et de la vitamine B6 dans le rumen par rapport aux diètes à base d’ensilage de dactyle. La deuxième étude visait à évaluer les effets de la maturité des plantes lors de la mise en silo sur les quantités de vitamines B disponibles pour la vache; les deux expériences se différenciaient par l’espèce fourragère étudiée, soit la luzerne ou le dactyle. Une récolte à un stade de maturité plus élevé a augmenté les flux duodénaux de thiamine, de niacine et de folates lorsque les vaches recevaient des diètes à base d’ensilage de luzerne mais n’a diminué que le flux duodénal de riboflavine chez les animaux recevant des diètes à base d’ensilage de dactyle. La troisième étude a comparé les effets de la longueur de coupe (10 vs. 19 mm) d’ensilages de luzerne et de dactyle sur le devenir des vitamines B dans le système digestif de la vache laitière. Cette étude a permis de constater qu’une augmentation du temps de séchage au champ diminuait les concentrations de vitamines B dans les ensilages. Cependant, la taille des particules des ensilages de luzerne et de dactyle n’a pas affecté les quantités des vitamines B arrivant au duodénum des vaches. En général, les résultats de ces études montrent qu’il existe une corrélation négative entre la synthèse de riboflavine, de niacine et de vitamine B6 et leur ingestion, suggérant une possible régulation de la quantité de ces vitamines B par les microorganismes du rumen. De plus, l’ingestion d’amidon et d’azote a été corrélée positivement avec la synthèse de thiamine, de folates et de vitamine B12, et négativement avec la synthèse de niacine. Ces corrélations suggèrent que les microorganismes qui utilisent préférentiellement l’amidon jouent un rôle majeur pour la synthèse ou la dégradation de ces vitamines. De plus, la présence d’une quantité suffisante d’azote semble avoir un impact majeur sur ces processus. La suite de ces travaux devrait viser la modélisation de ces données afin de mieux appréhender la physiologie de la digestion de ces vitamines et permettre la création de modèles mathématiques capables de prédire les quantités de vitamines disponibles pour les vaches. Ces modèles permettront, lorsqu’intégrés aux logiciels de formulation de ration, d’élaborer une diète plus précise, ce qui améliorera la santé du troupeau et la performance laitière et augmentera les profits du producteur.