32 resultados para Température corporelle
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Dans ce mémoire sera présentée une nouvelle méthode numérique envisagée dans le but d’obtenir le pouvoir thermoélectrique à température finie. Une méthode d’entropie maximale est utilisée, ce qui était une caractéristique requise des équations dérivées. Toutes les équations nécessaires y sont présentées, ainsi que certaines astuces reliées au prolongement analytique de quantités bruitées ou de fonctions dont la convergence est lente etc. De plus, les trois fonctions de corrélation d’intérêt y sont calculées de trois façons différentes, avec les détails et les explications nécessaires. On y présente le cas de la conductivité électrique, du pouvoir thermoélectrique ainsi que la fonction de corrélation courant de chaleur-courant de chaleur. L’implémentation numérique finale s’est butée à des difficultés qui sont expliquées dans ce mémoire.
Resumo:
L'étude porte sur la relation entre la mesure des plis cutanés et l'indice de masse corporelle (IMC) chez une clientèle estrienne du primaire et du secondaire. L'expérimentation se réalise dans cinq écoles et regroupe 772 étudiants âgés de 7 à 17 ans. Les résultats démontrent que la majorité des corrélations entre les mesures d'adiposité du triceps et du mollet, des cinq plis (triceps, biceps, sous-scapulaire, iliaque et mollet) et du triceps avec l'indice de masse corporelle sont significatives, bonnes et élevées à presque tous les niveaux d'âge des filles et des garçons estriens de 7 à 17 ans. Ces résultats confirment donc les trois hypothèses de corrélations significatives entre les mesures d'adiposité choisies et l'IMC. La mesure de comparaison est l'indice de masse corporelle des filles et des garçons américains du même âge. La majorité des indices de masse corporelle calculés chez les sujets de l'étude est également inférieure aux indices de masse corporelle des sujets de même âge du Physitest Canadien (1987). Les professeurs d'éducation physique ont donc le choix entre différentes possibilités pour avoir un indice de mesure anthropométrique valable pour les filles et les garçons de 7 à 17 ans. La mesure des deux plis adipeux du triceps et du mollet sont fortement en relation avec l'IMC au primaire. La somme des cinq plis (SPC) est fortement en relation avec l'IMC au secondaire. Même l'utilisation de la mesure du pli adipeux du triceps peut être utilisée à presque tous les âges du primaire et du secondaire. On peut conclure que l'indice de masse corporelle peut être utilisé avec exactitude comme une méthode alternative ne nécessitant pas de dépenses onéreuses comme l’achat d'un bon adiposomètre.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
Cette recherche professionnelle porte sur les profils psychomoteurs d'un échantillon de 83 enfants français, garçons et filles de 7, 8 et 9 ans à hauts potentiels intellectuels rencontrant des difficultés pour apprendre à l'école primaire. Elle est mise en oeuvre au moyen d'une méthodologie mixte. Née en France, la psychomotricité est un corpus paramédical qui propose une approche éducative et de remédiation des difficultés d'apprentissage, à partir d'une conception du développement psychomoteur qui considère que les interrelations entre les fonctionnements corporels, les éprouvés émotionnels et les cognitions sont primordiales et qu'elles se réalisent et sont accessibles via l'expérience corporelle globalisante. Ce construit, et les outils d'évaluation qui en découlent, c'est-à-dire le bilan psychomoteur, sont ici mobilisés pour décrire les profils adaptatifs d'enfants à hauts potentiels intellectuels en souffrance pour apprendre. Si les principaux travaux consacrés à ces enfants hors-normes et à leurs développements atypiques évoquent leur sensibilité et fragilité, ils sont trop souvent restreints aux seuls aspects du quotient intellectuel. Les apports de la psychomotricité peuvent donc les compléter. À partir de la description du dialogue tonicoémotionnel, qui inscrit le sujet dans la continuité biologiquepsychologique, l'expérience du corps, sous le double effet de la maturation neuromotrice et du bain environnemental, évolue vers la différenciation des fonctions psychomotrices qui permet la maîtrise gestuelle, la représentation du corps, de l'espace et du temps. Ces descriptions sont cohérentes avec d'autres conceptions multi-référencées qui reconnaissent aux émotions et à leur devenir un rôle important dans le développement, comme la théorie de l'attachement. Elles conduisent au repérage de troubles psychomoteurs. Ceux-ci peuvent friner l'accès aux apprentissages scolaires notamment l'écriture. Ce sont des perturbations de l'équilibre psychocorporel. Par définition et spécifiquement, ils ne répondent pas à une atteinte neurologique et expriment une souffrance psychique. L'analyse centrée sur les variables fournit une vision générale des données collectées. Les corrélations entre les 30 rubriques sont étudiées en les classant par sphères correspondant aux fonctions psychomotrices - motricité - rythme - espace - intégration corporelle - graphomotricité; puis par processus - tonicoémotionnel - sensori-perceptivo-moteur - cognitif - apprentissage explicité. Cette taxonomie éclaire les corrélations et donc les niveaux d'organisation. Ce premier traitement statistique débouche sur a) l'intérêt de la démarche globale en psychomotricité puisque toutes les rubriques étudiées se sont avérées troublées, b) l'apport de la prise en considération des dimensions tonicoémotionnelles, c) l'importance de l'articulation sensori-perceptivo-motrice et d) une confirmation des liens entre les compétences psychomotrices et l'écriture. La seconde étape est une classification hiérarchique ascendante puis une analyse factorielle des grappes. Elle dégage des résultats concernant des différences entre les organisations internes de ces enfants sous-réalisateurs, à partir des poids respectifs des facteurs 1) de la dyspraxie et de la dysgraphie, 2) de l'hyperactivité et de l'anxiété avec impulsivité et difficultés graphiques, 3) des troubles de la motricité large et fine et de l'expression émotionnelle, 4) des troubles spatiaux, 5) des troubles visuopraxiques et de l'intégration corporelle floue, 6) des troubles diffus et légers et 7) des troubles du rythme. Ainsi les cinq grappes sont décrites de manière dynamique comme caractérisées par 1) de bonnes compétences scripturales, des difficultés légères mais aussi des perturbations du tonus musculaire, 2) des tendances dysgraphiques pour des enfants maladroits et inquiets mais aussi avec des compétences préservées, qui se différencient 3) d'enfants franchement dysgraphiques avec des difficultés à se situer et manier les informations relatives à l'espace et au rythme, 4) d'enfants également dysgraphiques mais aussi hyperactifs, anxieux et manquant de référence spatio-temporelle, et 5) de sujets qui dysgraphiques, dyspraxiques, émotifs ont des tendances hyperactives et des incertitudes visuopraxiques. Ainsi à partir de la référence holistique-interactionniste, ces résultats confirment l'intérêt des approches globales et multi-référencées pour explorer les profils des enfants dont le développement n'est pas harmonieux et qui se trouvent confrontés à des difficultés pour apprendre dans le cadre scolaire.
Resumo:
Ce mémoire étudie l'institution collégiale comme espace de vie au tournant du XXe siècle par le biais d'une étude de cas, le Collège de Sainte-Anne-de-la-Pocatière. Plus concrètement, nous tentons de répondre aux questions suivantes. Comment pense-t-on et aménage-t-on l'espace dans ce collège pour garçons entre 1860-1922? Comment façonne-t-il les identités sociales et que nous révèle-t-il sur celles-ci? Autrement dit, nous nous intéressons aux valeurs qui sont transmises et aux normes sociales qui influencent l'aménagement. Nous cherchons à connaître leur évolution au cours de la période étudiée. Nous soutenons que l'architecture, l'ordonnance spatial, de même que le décor des lieux concourent à inculquer à la jeunesse un système de valeurs qui s'accordent avec l'idéal catholique : le retrait du monde, la piété, le classicisme et le patriotisme sont celles les plus évidemment exhibées au sein du Collège. L'aménagement de l'espace collégial revêt également des fonctions de régulation sociale : il sert à différencier et à hiérarchiser la population collégiale, autant les écoliers, le corps professoral que les employés d'entretien et d'approvisionnement. À un troisième niveau, il apparaît que le Collège de Sainte-Anne se modernise au cours des soixante années examinées. En portant une attention à la sécurité de l'établissement, à l'hygiène corporelle et à l'assainissement des espaces, les nouvelles théories de la pédagogie scolaire à la fin du XIXe siècle, notamment en ce qui concerne les études dites "utilitaires", les sciences, l'exercice physique et les loisirs, affectent et transforment l'institution collégiale de Sainte-Anne. Faire ressortir les effets de l'espace sur la formation identitaire et remettre en cause l'imperméabilité et l'intemporalité de cet espace dit traditionnel constituent donc les premières préoccupations de cette recherche. Le mémoire vise ultimement à mieux comprendre les objectifs d'éducation de l'Église catholique au moment où elle connaît son âge d'or dans la Belle province.
Resumo:
On présente dans ce mémoire la mesure de la statistique de photons des fluctuations électromagnétiques micro-ondes d’une jonction tunnel placée à ultra-basse température. En particulier, on déduit cettedite statistique en mesurant les cumulants des fluctuations de courant générées par une jonction tunnel polarisée en courant continu et photoexcitée par un signal haute fréquence. On utilise un amplificateur paramétrique Josephson en tant que premier maillon de la chaîne d’amplification en raison de son bruit près de la limite quantique. On développe aussi un modèle pour tenir compte de sa saturation, celle-ci étant apparente à des puissances de signal incident très faibles. C’est, à ma connaissance, la première fois qu’un tel amplificateur est utilisé pour étudier la physique au sein du bruit émis par un conducteur mésoscopique. Les résultats mettent en évidence l’apparition d’un excès dans le quatrième cumulant lorsque la photoexcitation s’effectue au double de la fréquence de mesure. Un développement mathématique simple nous permet d’associer cet excès à la statistique de photons, sous la forme d’une augmentation – à nombre de photons fixe – de la variance du nombre moyen de photons contenue dans le signal. C’est en fait une signature de l’émission de paires de photons corrélés par la jonction tunnel photoexcitée. Ces résultats font le pont entre ceux obtenus précédemment par notre groupe de recherche quant aux cumulants d’ordre supérieur du bruit et ceux associées aux parallèles entre l’optique quantique et les fluctuations de courant des dispositifs mésoscopiques. [Gasse et al. PRL 111, 136601 (2013) ; Forgues et al. Scientific Reports 3, 2869 (2013) ; Forgues et al. PRL 113, 043602 (2014)] Ils dressent un portait intéressant du bruit photoexcité en termes normalement associés à l’optique quantique.
Resumo:
Résumé: Les pratiques du Sensible sont des pratiques d’accompagnement formatives et soignantes. Elles permettent d’apprendre comment l’expérience du corps et de son mouvement interne conduit au développement de la conscience et de la présence à soi ainsi qu’à l’autre, des qualités enviables pour des professionnelles et professionnels de la relation d’aide du secteur de la santé. Dans ces pratiques, le corps joue un rôle central à travers quatre types d’intervention : la thérapie manuelle, la gymnastique sensorielle, l’introspection sensorielle et l’entretien verbal à propos de l’expérience corporelle. Selon Large (2009), une qualité de présence particulière se construit chez les participantes et le participant aux pratiques du Sensible. Selon lui, ceux-ci se rapprochent de leur intériorité, parviennent à verbaliser à autrui ce qu’ils ressentent et en arrivent à poser des actions qui expriment ce qu’ils deviennent. Large (2009) constate qu’ils acquièrent de la stabilité, de l’adaptabilité et de l’autonomie. À la fois plus affirmatifs, ils gagnent aussi en proximité à l’autre. Bois (2007) note un changement de représentation lié aux idées, aux valeurs, à l’image de soi et au rapport perceptif à soi. Une chercheure et des chercheurs constatent un changement de conception de la santé (Duval, 2010; Laemmlin-Cencig et Humpich, 2009). À notre connaissance, il n’y a pas eu d’étude antérieure concernant l’influence des pratiques du Sensible auprès de médecins. Nous avons exploré, le cas échéant, comment une formation aux pratiques du Sensible, suivie par des médecins, a modifié leur rapport à leur corps, à leur propre santé, à leur conception de la santé, à la qualité de leur présence à eux-mêmes, aux autres professionnelles et professionnels et aux patientes et patients. Des entretiens semi-structurés d’une durée de 90 à 105 minutes ont été effectués auprès de six médecins français (cinq femmes et un homme) ayant été formés aux pratiques du Sensible entre 2005 et 2012. Deux types d’entretiens à visée compréhensive (Kaufmann, 2011) et d’explicitation (Vermersch, 2010; 2012) ont été réalisés. Des informations ont aussi été recueillies sur la formation et les activités professionnelles des participantes et du participant. Deux démarches d’analyse ont été utilisées, entre autres pour vérifier la cohérence des résultats et augmenter la rigueur de notre projet. Notre première démarche d’analyse a été conçue à partir de deux méthodes : au départ avec l’analyse thématique et par la suite une analyse avec les catégories conceptualisantes afin de déboucher sur une théorisation ancrée. La deuxième démarche d’analyse a consisté à créer une liste de vingt-six phénomènes présents pour la majorité des entretiens suite à des discussions tenues avec notre équipe de direction. Selon nos résultats, suite à la formation aux pratiques du Sensible, les cinq participantes témoignent d’une plus grande proximité et attention à leur corps et d’une meilleure écoute de celui-ci. Cet ancrage corporel de leur présence les informe davantage sur leur mode de vie et d’existence. Il en ressort ainsi des prises de conscience importantes grâce auxquelles les participantes font des choix nouveaux pour une vie plus cohérente et recentrée sur leur intériorité. Par le fait même, elles récupèrent leur pouvoir sur leur vie comme sur leur santé. En outre, parmi les six médecins, quatre ont modifié leur conception de la santé. Celle-ci s’est en effet élargie pour inclure de nouveaux éléments, dont la qualité du rapport à soi et l’accordage entre le corps et la pensée. Le corps semble être une voie souterraine à partir de laquelle se sont réalisées des transformations dans la personne, comme si le corps devenait une interface ayant des effets sur plusieurs facettes de la personne. Ces transformations semblent avoir une influence sur la manière dont celle-ci exerce sa profession, comme si un savoir-être renouvelé de la personne transformait son savoir-faire au sein de sa pratique. Au plan de la qualité de la présence aux autres, il est rapporté que les relations professionnelles se sont améliorées pour la majorité des participantes. Des transformations personnelles semblent avoir eu des effets sur leurs relations professionnelles. Par exemple, tous témoignent d’une meilleure qualité de présence et de disponibilité aux patientes et patients. La plupart signalent l’apprentissage d’une juste distance thérapeutique et, en même temps, d’une relation plus singulière avec chaque patiente et patient. Nous constatons par notre analyse que la relation aux patientes et patients est modifiée aux plans de la communication, du toucher et de l’écoute. Le parcours de formation des étudiantes et étudiants en médecine semble créer des conditions favorisant l’épuisement (Brazeau, Schroeder, Rovi et Boyd, 2010; Colombat, Altmeyer, Barruel, Bauchetet, Blanchard, Colombat et al., 2011; Ishak, Nikravesh, Lederer, Perry, Ogunyemi et Bernstein, 2013; Llera et Durante, 2014; Rodrigues, Albiges et Blanchard, 2012). Certaines interventions de type corps / esprit semblent pouvoir minimiser cet impact (Elder, Rakel, Heitkemper, Hustedde, Harazduk, Gerik et al., 2007; Hewson, Copeland, Mascha, Arrigain, Topol et Fox, 2006; Irving, Park-Saltzman, Fitzpatrick, Dobkin, Chen et Hutchinson, 2014; Maclaughlin, Wang, Noone, Liu, Harazduk, Lumpkin et al., 2011; Motz, Graves, Gross, Saunders, Amri, Harazduk et al., 2012; Rosenzweig, Reibel, Greeson, Brainard et Hojat, 2003; Saunders, Tractenberg, Chaterji, Amri, Harazduk, Gordon et al., 2007). Notre recherche démontre chez nos participantes et notre participant que la formation aux pratiques du Sensible leur a permis de faire plusieurs gains pour leur propre santé. Il semble qu’en amont des apprentissages liés à la profession médicale, une qualité de savoir-être puisse solidifier la personne, ses apprentissages et sa future pratique médicale. Les étudiantes et étudiants en médecine seraient ainsi mieux outillés pour traverser ce cursus de formation exigent et épuisant. Il serait intéressant de reprendre la recherche auprès d’un plus grand nombre de médecins ou d’étudiantes et étudiants en médecine afin d’y observer les éléments de théorisation répétitifs inclus dans la théorisation ancrée de notre étude exploratoire. Ainsi, selon les résultats, il serait alors plus aisé de promouvoir l’apprentissage expérientiel d’approches de type corps / esprit (dont les PS) dans les cursus universitaires en médecine.
Resumo:
L’anorexie mentale et l’anorexie mentale atypique sont des problématiques de santé mentale qui affectent une portion non négligeable de la population. Toutefois, encore très peu d’études ont permis de démontrer l’efficacité des traitements pour ces troubles. L’évolution des connaissances dans les modèles explicatifs de l’anorexie oriente vers des processus psychologiques à cibler dans le traitement différents de ceux des thérapies conventionnelles. La présente étude vise à évaluer l’efficacité de la thérapie d’acceptation et d’engagement (ACT) sous forme d’un manuel d’auto-traitement appliqué à une population souffrant d’anorexie mentale ou d’anorexie mentale atypique. Un protocole expérimental à cas unique à niveaux de base multiples a été utilisé. Quatre femmes francophones présentant un de ces deux diagnostics ont reçu le traitement sur une durée de 13 semaines. Les résultats démontrent que les niveaux quotidiens d’actions pour maîtriser le poids et de préoccupations par rapport au poids et à la nourriture ont diminué suite au traitement. Le traitement a aussi permis aux participantes de passer d’un diagnostic de sévérité clinique à un en rémission partielle. La sévérité des symptômes de trouble alimentaire a aussi diminué suite au traitement et la flexibilité de l’image corporelle des participantes a augmenté, et ce de manières cliniquement significatives. Des processus propres à l’intervention ACT sont avancés pour rendre compte des effets observés.
Resumo:
Abstract : The major objective of our study is to investigate DNA damage induced by soft X-rays (1.5 keV) and low-energy electrons (˂ 30 eV) using a novel irradiation system created by Prof. Sanche’s group. Thin films of double-stranded DNA are deposited on either glass and tantalum substrates and irradiated under standard temperature and pressure surrounded by a N[subscript 2] environment. Base release (cytosine, thymine, adenine and guanine) and base modifications (8-oxo-7,8-dihydro -2’-deoxyguanosine, 5-hydroxymethyl-2’-deoxyuridine, 5-formyl-2’-deoxyuridine, 5,6-dihydrothymidine and 5,6-dihydro-2’-deoxy uridine) are analyzed and quantified by LC-MS/MS. Our results reveal larger damage yields in the sample deposited on tantalum than those on glass. This can be explained by an enhancement of damage due to low-energy electrons, which are emitted from the metal substrate. From a comparison of the yield of products, base release is the major type of damage especially for purine bases, which are 3-fold greater than base modifications. A proposed pathway leading to base release involves the formation of a transient negative ion (TNI) followed by dissociative electron attachment (DEA) at the N-g lycosidic bond. On the other hand, base modification products consist of two major types of chemical modifications, which include thymine methyl oxidation products that likely arises from DEA from the methyl group of thymine, and 5,6-dihydropyrimidine that can involve the initial addition of electrons, H atoms, or hydride ions to the 5,6-pyrimidine double bond.
Resumo:
Les changements environnementaux actuels entrainent des modifications importantes dans les pressions de sélection qui agissent sur les populations naturelles. Cependant, la capacité de réponse des populations à ces modifications et l’importance relative des différents mécanismes comme la plasticité phénotypique et les changements de la composition génétique des populations restent encore trop peu connus. L’objectif général de ma thèse était donc d’évaluer les rôles de la plasticité phénotypique et de la variation génétique sur le potentiel évolutif en population naturelle. Pour ce faire, j’ai utilisé comme modèle d’étude l’Hirondelle bicolore (Tachycineta bicolor), un passereau migrateur qui est suivi dans le Sud du Québec depuis 2004 dans un environnement hétérogène. Dans un premier temps (chapitre 2), j’ai évalué les déterminants environnementaux de la date de ponte et évalué leurs effets à des niveaux individuels et populationnels de plasticité phénotypique. Comme observé chez de nombreuses espèces aviaires, la température avait un effet important sur la synchronisation de la ponte, similaire au niveau individuel et populationnel, avec les dates de ponte plus hâtive lorsque les températures étaient plus chaudes. Par contre, ces relations semblaient contraintes par la densité locale d’hirondelles, considérée dans ce système d’étude comme un indice de la qualité de l’environnement. Plus précisément, les réponses plastiques à la température étaient moins prononcées à faible densité, c’est-à-dire dans les habitats plus contraignants. Ces résultats suggèrent donc que malgré la présence de plasticité phénotypique chez une espèce donnée, son efficacité pour pallier les changements climatiques peut être inégale entre les populations. Dans un deuxième temps (chapitre 3), je me suis intéressée à 4 gènes candidats liés à la phénologie (CLOCK, NPAS2, ADCYAP1 et CREB1) montrant de la variation de type courtes répétitions en tandem, et à leur relation avec deux traits phénologiques, la date de ponte et le temps d’incubation. Ces analyses ont montré plusieurs relations entre la variation observée à ces gènes et celle des traits phénologiques étudiés, dans la plupart des cas en interaction avec des variables environnementales (densité locale, latitude ou température printanière). Par exemple, les femelles avec en moyenne des allèles plus courts au gène CLOCK pondaient plus tôt que celles avec des allèles plus longs, une relation plus marquée à densité locale élevée. Les différents résultats suggèrent l’importance que peuvent prendre les interactions génotype-environnement, qui sont rarement prises en compte dans les études de gènes candidats, et qui pourraient expliquer une partie des résultats discordants entre les celles-ci. Dans un troisième temps (chapitre 4), j’ai vérifié la faisabilité d’une étude en génétique quantitative avec les données récoltées dans le système d’étude utilisée, caractérisé par un fort taux de reproduction hors couple et un faible recrutement des oisillons. Plus précisément, j’ai testé à l’aide de données empiriques et simulées la précision et l’exactitude des estimations d’héritabilité et de corrélations génétiques pour trois types de traits, morphologiques, reproducteurs et d’oisillons. Les résultats suggéraient un manque de précision important pour les traits morphologiques et reproducteurs, de même que des biais considérables lors de l’utilisation du pédigrée social plutôt que du pédigrée génétique. Ces analyses révèlent entre autres l’utilité des simulations pour tester adéquatement la faisabilité d’une étude en génétique quantitative sur une population donnée. Dans une dernière étude (chapitre 5), j’ai documenté les effets de l’hétérogénéité environnementale et de l’utilisation de différentes approches de génétique quantitative sur les prédictions de réponses évolutives en population naturelle. Plus particulièrement, cette étude s’est concentrée sur trois traits morphologiques (masse, longueur de l’aile et du tarse) mesurés à différents moments au cours du développement des oisillons. Les différentes analyses ont montré une sélection plus forte à faible densité locale pour la masse à 12 jours ainsi que des variations dans les composantes de variances phénotypiques selon la qualité de l’environnement (densité locale faible ou élevée) pour la plupart des combinaisons trait-âge étudiées. Il en résultait une tendance à des réponses évolutives prédites plus grandes à faible densité locale. Par contre, les prédictions obtenues avec l’équation du reproducteur et le second théorème de la sélection différaient fréquemment, et contrastaient grandement avec les tendances phénotypiques observées. En somme, les résultats de ma thèse suggèrent que les possibilités d’ajustement aux changements environnementaux par la plasticité phénotypique et d’adaptation par des changements génétiques entre les générations peuvent varier selon l’environnement expérimenté par une population. Mes recherches contribuent à une meilleure compréhension des facteurs et mécanismes influençant la persistance à long terme des populations naturelles face aux modifications dans les pressions de sélection.
Resumo:
Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
Résumé : Le transistor monoélectronique (SET) est un dispositif nanoélectronique très attractif à cause de son ultra-basse consommation d’énergie et sa forte densité d’intégration, mais il n’a pas les capacités suffisantes pour pouvoir remplacer complètement la technologie CMOS. Cependant, la combinaison de la technologie SET avec celle du CMOS est une voie intéressante puisqu’elle permet de profiter des forces de chacune, afin d’obtenir des circuits avec des fonctionnalités additionnelles et uniques. Cette thèse porte sur l’intégration 3D monolithique de nanodispositifs dans le back-end-of-line (BEOL) d’une puce CMOS. Cette approche permet d’obtenir des circuits hybrides et de donner une valeur ajoutée aux puces CMOS actuelles sans altérer le procédé de fabrication du niveau des transistors MOS. L’étude se base sur le procédé nanodamascène classique développé à l’UdeS qui a permis la fabrication de dispositifs nanoélectroniques sur un substrat de SiO2. Ce document présente les travaux réalisés sur l’optimisation du procédé de fabrication nanodamascène, afin de le rendre compatible avec le BEOL de circuits CMOS. Des procédés de gravure plasma adaptés à la fabrication de nanostructures métalliques et diélectriques sont ainsi développés. Le nouveau procédé nanodamascène inverse a permis de fabriquer des jonctions MIM et des SET métalliques sur une couche de SiO2. Les caractérisations électriques de MIM et de SET formés avec des jonctions TiN/Al2O3 ont permis de démontrer la présence de pièges dans les jonctions et la fonctionnalité d’un SET à basse température (1,5 K). Le transfert de ce procédé sur CMOS et le procédé d’interconnexions verticales sont aussi développés par la suite. Finalement, un circuit 3D composé d’un nanofil de titane connecté verticalement à un transistor MOS est réalisé et caractérisé avec succès. Les résultats obtenus lors de cette thèse permettent de valider la possibilité de co-intégrer verticalement des dispositifs nanoélectroniques avec une technologie CMOS, en utilisant un procédé de fabrication compatible.