938 resultados para Méthode des contours
Resumo:
Dans les dernières années, les perturbateurs endocriniens ont été observés dans les rivières qui reçoivent des entrées importantes d’eaux usées. Parmi les perturbateurs endocriniens, les hormones stéroïdiennes naturelles et synthétiques sont des composés dont le potentiel d'imiter ou d'interférer avec les fonctions hormonales normales (développement, croissance et reproduction), est reconnu même au niveau ultra-traces (ng L-1). Bien que les hormones conjuguées soient moins actives que les hormones libres, elles peuvent être clivées et redevenir libres une fois exposées aux processus microbiens avant ou pendant le traitement des eaux usées. En raison de la nécessité d'identifier et de quantifier ces composés dans l'eau, une nouvelle méthode, entièrement automatisée, a été développée pour la détermination simultanée des deux formes de plusieurs hormones stéroïdiennes (conjuguées et libres) dans les matrices d'eau et dans l’urine des femmes. La méthode est basée sur l'extraction en phase solide couplée en ligne à la chromatographie liquide et la spectrométrie de masse en tandem (SPE-LC-MS/MS). Plusieurs paramètres ont été évalués dans le but d'optimiser l'efficacité de la méthode, tels que le type et le débit de la phase mobile, des différentes colonnes de SPE et de chromatographie, ainsi que différentes sources et modes d'ionisation des échantillons pour la MS. La méthode démontre une bonne linéarité (R2 > 0.993), ainsi qu'une précision avec un coefficient de variance inférieure à 10%. Les limites de quantification varient d’un minimum de 3 à 15 ng L-1 pour un volume d'injection entre 1 mL et 5 mL et le recouvrement des composés varie de 72 % à 117 %.
Resumo:
Abstract : Providing high-quality clinical experiences to prepare students for the complexities of the current health-care system has become a challenge for nurse educators. Additionally, there are concerns that the current model of clinical practice is suboptimal. Consequently, nursing programs have explored the partial replacement of traditional in-hospital clinical experiences with a simulated clinical experience. Despite research demonstrating numerous benefits to students following participation in simulation activities, insufficient research conducted within Québec exists to convince the governing bodies (Ordre des infirmières et des infirmiers du Québec, OIIQ; Ministère de L’Éducation supérieur, de la Recherche, de la Science et de la Technologie) to fully embrace simulation as part of nurse training. The purpose of this study was to examine the use of a simulated clinical experience (SCE) as a viable, partial pedagogical substitute for traditional clinical experience by examining the effects of a SCE on CEGEP nursing students’ perceptions of self-efficacy (confidence), and their ability to achieve course objectives. The findings will contribute new information to the current body of research in simulation. The specific case of obstetrical practice was examined. Based on two sections of the Nursing III-Health and Illness (180-30K-AB) course, the sample was comprised of 65 students (thirty-one students from section 0001 and thirty-four students from section 0002) whose mean age was 24.8 years. With two sections of the course available, the opportunity for comparison was possible. A triangulation mixed method design was used. An adapted version of Ravert’s (2004) Nursing Skills for Evaluation tool was utilized to collect data regarding students’ perceptions of confidence related to the nursing skills required for care of mothers and their newborns. Students’ performance and achievement of course objectives was measured through an Objective Structured Clinical Examination (OSCE) consisting of three marked stations designed to test the theoretical and clinical aspects of course content. The OSCE was administered at the end of the semester following completion of the traditional clinical experience. Students’ qualitative comments on the post -test survey, along with journal entries served to support the quantitative scale evaluation. Two of the twelve days (15 hours) allocated for obstetrical clinical experience were replaced by a SCE (17%) over the course of the semester. Students participated in various simulation activities developed to address a range of cognitive, psychomotor and critical thinking skills. Scenarios incorporating the use of human patient simulators, and designed using the Jeffries Framework (2005), exposed students to the care of families and infants during the perinatal period to both reflect and build upon class and course content in achievement of course objectives and program competencies. Active participation in all simulation activities exposed students to Bandura’s four main sources of experience (mastery experiences, vicarious experiences, social persuasion, and physiologic/emotional responses) to enhance the development of students’ self-efficacy. Results of the pre-test and post-test summative scores revealed a statistically significant increase in student confidence in performing skills related to maternal and newborn care (p < .0001) following participation in the SCE. Confidence pre-test and post-test scores were not affected by the students’ section. Skills related to the care of the post-partum mother following vaginal or Caesarean section delivery showed the greatest change in confidence ratings. OSCE results showed a mean total class score (both sections) of 57.4 (70.0 %) with normal distribution. Mean scores were 56.5 (68.9%) for section 0001 and 58.3 (71.1%) for section 0002. Total scores were similar between sections (p =0.342) based on pairwise comparison. Analysis of OSCE scores as compared to students’ final course grade revealed similar distributions. Finally, qualitative analysis identified how students’ perceived the SCE. Students cited gains in knowledge, development of psychomotor skills and improved clinical judgement following participation in simulation activities. These were attributed to the « hands on » practice obtained from working in small groups, a safe and authentic learning environment and one in which students could make mistakes and correct errors as having the greatest impact on learning through simulation.
Resumo:
Une taxonomie révisée et une connaissance des limites d’espèces demeurent toujours importantes dans les points chauds en biodiversité comme les Antilles où de nombreuses espèces endémiques sont retrouvées. Des limites d’espèces divergentes impliquent un différent nombre d’espèces retrouvées dans un écosystème, ce qui peut exercer une influence sur les décisions prises face aux enjeux de conservation. Les genres Gesneria et Rhytidophyllum qui forment les principaux représentants de la famille des Gesneriaceae dans les Antilles comprennent plusieurs taxons aux limites d’espèces ambigües et quelques espèces qui ont des sous-espèces reconnues. C’est le cas de Gesneria viridiflora (Decne.) Kuntze qui comprend quatre sous-espèces géographiquement isolées et qui présentent des caractères végétatifs et reproducteurs similaires et variables. Une délimitation d’espèces approfondie de ce complexe d’espèce est effectuée ici à partir d’une approche de taxonomie intégrative considérant des données morphologiques, génétiques et bioclimatiques. Les données morphologiques quantitatives et qualitatives obtenues à partir de spécimens d’herbier sont utilisées pour délimiter des groupes morphologiques à l’aide d’une analyse en coordonnées principales. Ces groupes sont ensuite testés à l’aide de séquences d’ADN de quatre régions nucléaires en utilisant une méthode bayesienne basée sur la théorie de la coalescence. Finalement, les occurrences et les valeurs de variables de température et de précipitation qui y prévalent sont utilisées dans une analyse en composantes principales bioclimatique pour comparer les groupes délimités morphologiquement et génétiquement. Les résultats de l’analyse morphologique multivariée supportent la distinction entre les groupes formés par les sous-espèces actuellement reconnues de G. viridiflora. Les résultats, incluant des données génétiques, suggèrent une distinction jusqu’ici insoupçonnée des populations du Massif de la Hotte au sud-ouest d’Haïti qui sont génétiquement plus rapprochées des populations de Cuba que de celles d’Hispaniola. Bioclimatiquement, les groupes délimités par les analyses morphologiques et génétiques sont distincts. L’approche de taxonomie intégrative a permis de distinguer cinq espèces distinctes plutôt que les quatre sous-espèces acceptées jusqu’à aujourd’hui. Ces espèces sont : G. acrochordonanthe, G. quisqueyana, G. sintenisii, G. sylvicola et G. viridiflora. Une carte de distribution géographique, un tableau de la nouvelle taxonomie applicable et une clé d’identification des espèces sont présentés. La nouvelle taxonomie déterminée dans cette étude démontre un endémisme insoupçonné dans plusieurs régions du point chaud en biodiversité des Antilles et souligne l’importance d’investiguer les limites d’espèces dans les groupes diversifiés comprenant des taxons aux limites d’espèces incomprises.
Resumo:
Après un rappel des objectifs, du fonctionnement et de la méthode d’interprétation des résultats du réseau de contrôle microbiologique REMI et du réseau de surveillance chimique ROCCH, ce rapport inclut un bilan national et décrit le programme annuel de la Région Corse. Il présente l’ensemble des résultats obtenus, en particulier l’estimation de la qualité microbiologique et chimique des zones de production de coquillages classées : les étangs de la plaine orientale de la Corse.
Resumo:
Objectif : Examiner la relation entre l’accès aux ressources alimentaires et le degré de l’insécurité alimentaire du ménage parmi les nouveaux utilisateurs des organismes communautaires d’intervention en sécurité alimentaire de Montréal. Méthode : Étude observationnelle transversale. Elle consiste en une analyse secondaire de données (n=785) qui proviennent du premier temps de mesure de l’enquête sur les effets des interventions en sécurité alimentaire à Montréal menée entre 2011 et 2012. La variable dépendante a été l’insécurité alimentaire. Les variables indépendantes ont été le mode de transport utilisé pour transporter les aliments, l’emplacement de l’épicerie la plus fréquentée par le participant, la distance entre l’organisme communautaire fréquenté par le participant et son domicile, la proximité de l’épicerie la plus fréquentée, la satisfaction quant à l’acceptabilité et le caractère abordable des aliments dans l’épicerie la plus fréquentée, et les difficultés d’accès aux aliments. Des régressions logistiques furent effectuées afin d’évaluer la relation entre les variables indépendantes et le degré de l’insécurité alimentaire, en utilisant l’insécurité sévère comme catégorie de référence. Résultats : Nos données suggèrent que la sévérité de l’insécurité alimentaire est associée à la difficulté d’accès aux aliments à cause de la cherté des aliments (pour la sécurité alimentaire, OR=0.13; CI : 0.07-0.25 et pour l’insécurité alimentaire modérée, OR=0.42; CI : 0.28-0.63), au fait de faire l’épicerie à l’extérieur du quartier ou de faire rarement l’épicerie (pour l’insécurité alimentaire modérée, OR=0.50, CI : 0.30-0.84), au fait d’avoir accès au transport collectif (pour l’insécurité alimentaire modérée, OR=1.73; CI : 1.09-2.73), au fait de résider à une distance moyenne (soit entre 1000 et 2000 mètres) d’un organisme communautaire en sécurité alimentaire (pour l’insécurité alimentaire modérée, OR=1.83; CI : 1.14-2.92), et à la difficulté d’accès aux aliments à cause de contraintes de transport (pour la sécurité alimentaire, OR=0.18, CI : 0.06-0.52). Conclusion : L’accès aux ressources alimentaires est associé au degré de l’insécurité alimentaire des nouveaux ménages participant aux interventions en sécurité alimentaire à Montréal.
Resumo:
Après un rappel des objectifs, du fonctionnement et de la méthode d’interprétation des résultats du réseau de contrôle microbiologique REMI et du réseau de surveillance chimique ROCCH, ce rapport décrit les programmes annuels de suivi microbiologique et chimique des zones conchylicoles de Normandie (départements Seine-Maritime, Calvados, Manche). Il présente l’ensemble des résultats obtenus de 2013 à 2015, en particulier l’estimation de la qualité microbiologique et chimique des zones de production de coquillages classées. Ce rapport intègre également les résultats du réseau « Coquillages » de l’Agence Régionale de Santé de Basse Normandie dans le cadre de la surveillance de la qualité des zones de pêche à pieds récréative.
Resumo:
La morphologie des couches actives des cellules solaires organiques joue un rôle important sur l’efficacité de conversion de l’énergie solaire en énergie électrique de ces dispositifs. Les hétérojonctions planaires et les hétérojonctions en volume sont les plus communément utilisées. Cependant, la morphologie idéale pour l’efficacité se situerait à mis chemin entre celles-ci. Il s’agit de l’hétérojonction nanostructurée qui augmenterait la surface entre les couches actives de matériaux tout en favorisant le transport des porteurs de charge. L’objectif de ce projet de maîtrise est d’étudier l’impact de l’implantation de nanostructures dans les cellules solaires organiques sur leurs performances photovoltaïques. Pour ce faire, on utilise la méthode de nanoimpression thermique sur le matériau donneur, le P3HT, afin que celui-ci forme une interface nanostructurée avec le matériau accepteur, le PCBM. Pour effectuer les nanoimpressions, des moules en alumine nanoporeuse ont été fabriqués à l’aide du procédé d’anodisation en deux temps développé par Masuda et al. Ces moules ont subi un traitement afin de faciliter leur séparation du P3HT. Les agents antiadhésifs PDMS et FTDS ont été utilisés à cette fin. Les résultats obtenus témoignent de la complexité d’exécution du procédé de nanoimpression. Il a été démontré que la pression appliquée durant le procédé, la tension superficielle des éléments en contact et les dimensions des nanopores des moules sont des paramètres critiques pour le succès des nanoimpressions. Ceux-ci ont donc dû être optimisés de manière à réussir cette opération. Ainsi, des cellules à interface nanostructurée à 25% avec des nanobâtonnets de 35 nm de hauteur ont pu être fabriquées. Les cellules nanostructurées ont démontré une efficacité 2,3 ± 0,6 fois supérieure aux cellules sans nanostructures, dites planaires. D’autre part, un solvant a été proposé pour diminuer l’interdiffusion entre les couches de P3HT et de PCBM pouvant altérer les nanostructures. Ce phénomène bien connu survient lors du dépot de la couche de PCBM avec le dichlorométhane, un solvant orthogonal avec ces matériaux. Des mesures au TOF-SIMS ont démontré que le limonène permet de diminuer l’interdiffusion entre les couches de P3HT et de PCBM, ce qui en fait un meilleur solvant orthogonal que le dichlorométhane.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.
Resumo:
Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.
Resumo:
Le traitement des émotions joue un rôle essentiel dans les relations interpersonnelles. Des déficits dans la reconnaissance des émotions évoquées par les expressions faciales et vocales ont été démontrés à la suite d’un traumatisme craniocérébral (TCC). Toutefois, la majorité des études n’ont pas différencié les participants selon le niveau de gravité du TCC et n’ont pas évalué certains préalables essentiels au traitement émotionnel, tels que la capacité à percevoir les caractéristiques faciales et vocales, et par le fait même, la capacité à y porter attention. Aucune étude ne s’est intéressée au traitement des émotions évoquées par les expressions musicales, alors que la musique est utilisée comme méthode d’intervention afin de répondre à des besoins de prise en charge comportementale, cognitive ou affective chez des personnes présentant des atteintes neurologiques. Ainsi, on ignore si les effets positifs de l’intervention musicale sont basés sur la préservation de la reconnaissance de certaines catégories d’émotions évoquées par les expressions musicales à la suite d’un TCC. La première étude de cette thèse a évalué la reconnaissance des émotions de base (joie, tristesse, peur) évoquées par les expressions faciales, vocales et musicales chez quarante et un adultes (10 TCC modéré-sévère, 9 TCC léger complexe, 11 TCC léger simple et 11 témoins), à partir de tâches expérimentales et de tâches perceptuelles contrôles. Les résultats suggèrent un déficit de la reconnaissance de la peur évoquée par les expressions faciales à la suite d’un TCC modéré-sévère et d’un TCC léger complexe, comparativement aux personnes avec un TCC léger simple et sans TCC. Le déficit n’est pas expliqué par un trouble perceptuel sous-jacent. Les résultats montrent de plus une préservation de la reconnaissance des émotions évoquées par les expressions vocales et musicales à la suite d’un TCC, indépendamment du niveau de gravité. Enfin, malgré une dissociation observée entre les performances aux tâches de reconnaissance des émotions évoquées par les modalités visuelle et auditive, aucune corrélation n’a été trouvée entre les expressions vocales et musicales. La deuxième étude a mesuré les ondes cérébrales précoces (N1, N170) et plus tardives (N2) de vingt-cinq adultes (10 TCC léger simple, 1 TCC léger complexe, 3 TCC modéré-sévère et 11 témoins), pendant la présentation d’expressions faciales évoquant la peur, la neutralité et la joie. Les résultats suggèrent des altérations dans le traitement attentionnel précoce à la suite d’un TCC, qui amenuisent le traitement ultérieur de la peur évoquée par les expressions faciales. En somme, les conclusions de cette thèse affinent notre compréhension du traitement des émotions évoquées par les expressions faciales, vocales et musicales à la suite d’un TCC selon le niveau de gravité. Les résultats permettent également de mieux saisir les origines des déficits du traitement des émotions évoquées par les expressions faciales à la suite d’un TCC, lesquels semblent secondaires à des altérations attentionnelles précoces. Cette thèse pourrait contribuer au développement éventuel d’interventions axées sur les émotions à la suite d’un TCC.
Resumo:
La fluoration artificielle de l’eau est une méthode employée en tant que moyen de prévention de la carie dentaire. Il s’agit d’un traitement de l’eau dont le but est d’ajuster de façon « optimale » la concentration en fluorure dans l’eau potable pour la prévention de la carie dentaire, par l’ajout d’un composé fluoré. La fluoration de l’eau fait l’objet d’un débat de société depuis le début des années 1950. La théorie du cycle hydrosocial nous invite à réfléchir sur la manière dont l’eau et la société se définissent et se redéfinissent mutuellement dans le temps et dans l’espace. Cette théorie nous permet d’aborder l’étude du sujet de la fluoration avec une nouvelle perspective d’analyse. Il y a peu d’études en sciences sociales qui portent sur le sujet de la fluoration, généralement abordé d’un point de vue des sciences de la santé. Nous proposons de décrire le processus de production des eaux fluorées dans un contexte hydrosocial. Ce mémoire est structuré en quatre chapitres. Nous commençons par familiariser le lecteur avec la théorie du cycle hydrosocial. Ensuite, nous faisons une mise en contexte de la fluoration de l’eau, d’une part en présentant un état des lieux, et d’autre part en présentant ce en quoi consiste la pratique de la fluoration de l’eau. Après avoir familiarisé le lecteur avec les thèmes généraux concernant la fluoration de l’eau, nous proposons de reconstituer une histoire hydrosociale de la fluoration. Cette histoire nous permet de mettre en évidence les relations hydrosociales desquelles découle la production des eaux fluorées. L’histoire hydrosociale de la fluoration comporte une phase contemporaine que nous abordons en présentant les principales idées de l’opposition à la fluoration artificielle de l’eau à l’aide notamment d’une analyse iconographique d’images portant sur le thème de la fluoration. Finalement, nous discutons des implications de la théorie du cycle hydrosocial pour étudier la problématique de la fluoration.
Resumo:
Après un rappel des objectifs, du fonctionnement et de la méthode d’interprétation des résultats du réseau de contrôle microbiologique des zones de production conchylicoles (REMI) et du réseau d’observation de la contamination chimique (ROCCH), ce rapport inclut un bilan national et décrit le programme annuel du département des Côtes d’Armor (22). Il présente l’ensemble des résultats obtenus, en particulier l’estimation de la qualité microbiologique et chimique des zones de production de coquillages classées. Pour la deuxième fois consécutive, les résultats du suivi microbiologique sont globalement bons dans le département des Côtes d’Armor. Les alertes ont été également peu nombreuses. Il y en a eu cinq de niveau 1 et une de niveau 2. L’estimation de la qualité sanitaire s’améliore en 2015 notamment pour les fouisseurs, mais les résultats de l’année 2013 pénalisent encore certaines zones proches de la bonne qualité. Il n’existe plus de zone présentant une mauvaise ou très mauvaise qualité sanitaire dans les Côtes d’Armor.
Resumo:
Après un rappel des objectifs, du fonctionnement et de la méthode d’interprétation des résultats du réseau de contrôle microbiologique des zones de production conchylicoles (REMI) et du réseau d’observation de la contamination chimique (ROCCH), ce rapport inclut un bilan national et décrit le programme annuel du département de l’Ille-et-Vilaine (35). Il présente l’ensemble des résultats obtenus, en particulier l’estimation de la qualité microbiologique et chimique des zones de production de coquillages classées. Pour la deuxième année consécutive, les résultats du suivi microbiologique sont globalement bons dans le département d’Ille-et-Vilaine. Les alertes ont été également très peu nombreuses, une seule alerte en centre Rance en 2015 est recensée. L’estimation de la qualité sanitaire s’améliore en 2015 pour quelques sites. Par exemple en baie du Mont Saint- Michel où trois zones sont estimées de bonne qualité. Mais les résultats de l’année 2013 pénalisent encore certaines zones conchylicoles, notamment en Rance et en baie de Saint-Malo ou la situation reste fragile. Cela concerne notamment deux zones estimées en très mauvaise qualité. Deux autres zones, en baie de Saint-Malo et dans l’estuaire de la Rance, actuellement classées B, ne disposent pas d’assez de données pour pouvoir estimer leur qualité. La récupération des échantillons provenant de ces zones est dépendante de la collaboration des pêcheurs. Une convention avec le CDPMEM 35 (Comité Départementale des Pêches Maritimes et des Elevages Marin d’Ille-et-Vilaine) a été signée en novembre 2015 pour améliorer la situation.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.