742 resultados para Spectrométrie de masse
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les personnes atteintes de diabète sont plus à risque de développer la dépression, un fardeau additionnel dans leurs activités quotidiennes. Notre étude auprès d’adultes diabétiques résidant au Québec vise à en déterminer les caractéristiques lorsque la dépression fait partie du tableau clinique. Hypothèse 1: Les adultes québécois atteints de diabète et de dépression (dépression majeure et mineure) seront plus prédisposés à avoir des indicateurs reliés aux habitudes de vie, aux soins du diabète et à l’efficacité personnelle vis-à-vis du contrôle du poids et de la quantité d’aliments consommés, moins favorables que les sujets diabétiques sans dépression. Hypothèse 2: Chez les Québécois atteints de diabète de type 2, l’association entre la dépression et l’obésité sera affectée par les indicateurs de la Variation Cyclique du Poids (VCP) et de l’efficacité personnelle. Hypothèse 3: Chez les Québécois atteints de diabète de type 2, ceux qui auront développé ou maintenu une dépression au cours de 12 mois, seront plus susceptibles de détériorer les indicateurs reliés à leurs habitudes de vie et à leur efficacité personnelle. Des personnes diabétiques au Québec ont été recrutées à l’aide d’un sondage téléphonique. Des adultes, hommes et femmes, âgés de 18 à 80 ans étaient éligibles à participer. La dépression était déterminée par le questionnaire PHQ-9 « Patient Health Questionnaire-9 ». Au total, 3 221 individus ont été contactés au départ de l’étude; 2 003 ont participé à l’étude (93% type 2)et 1 234 ont participé au suivi de 12 mois. La prévalence de dépression mineure et majeure était de 10,9% et 8,7%, respectivement. Cinquante-trois pourcent des sujets avec dépression majeure avaient deux ou trois indicateurs malsains (tabagisme, inactivité ou obésité), 33% des sujets avaient une dépression mineure et 21% des sujets étaient non déprimés. Les résultats des analyses de régression logistique ont révélé que les sujets dépressifs étaient plus susceptibles d’être de sexe féminin, moins instruits, non mariés,sédentaires, fumeurs, percevaient plus souvent avoir une faible maîtrise du contrôle de la quantité d’aliments ingérés et tendaient davantage à mesurer leur glycémie au moins une fois par jour (p<0,05). Chez les patients avec le diabète de type 2, l’association entre la dépression et l’obésité a été affectée par les variables de la VCP et d’efficacité personnelle. Une année après le début de l’étude, 11,5% des sujets ont développé une dépression et 10% ont maintenu leur état dépressif. Les sujets ayant développé une dépression ou persisté dans leur état de dépression étaient plus susceptibles d’avoir été inactifs au début de l’étude ou d’être restés inactifs au suivi de 12 mois, et d’avoir maintenu une perception d’un faible contrôle de leur poids corporel et de la quantité d’aliments ingérés. Cependant, les changements de statut de dépression n’étaient pas associés à des changements de l’indice de masse corporelle. En conclusion, l’inactivité physique et une faible efficacité personnelle sont des facteurs importants dans le développement et la persistance de la dépression chez les patients diabétiques et méritent d’être considérés dans le traitement.
Resumo:
Comment fonder théoriquement des indicateurs culturels? Issue de problèmes méthodologiques reliés à l’étude des rapports entre le temps de travail et le temps libre, cette question émerge à la suite du constat du déficit théorique de la statistique culturelle. En effet, l’étude du temps libre, comme du temps de travail, nécessite de questionner les fondements de cette répartition, en même temps qu’elle exige d’analyser concrètement les pratiques sociales reliées à ces catégories. Or, les ana-lyses sur l’emploi du temps libre sont souvent fondées sur des statistiques à propos des activités culturelles, statistiques dont la portée explicative est singulièrement limitée. Bien que des statistiques sur certaines de ces activités existent au moins depuis le début du XXe siècle, c’est à partir des années 1970 que les besoins de connaissance reliés à la mise en œuvre des politiques culturelles stimulent la production de statistiques plus nombreuses et plus détaillées. Afin de donner des significations à cette masse de statistiques, il est nécessaire de délimiter les frontières de ce qui est culture et communication parmi toutes les autres activités sociales. L’élaboration de cadres conceptuels de la culture par l’UNESCO et d’autres agences statistiques tente de répondre à cette exigence, tandis que les projets d’indicateurs avancés cherchent à donner un sens à l’information statistique. Ces tentatives se caractérisent toutefois par la faiblesse de leur assise théorique, problème qui se manifeste de manière aiguë dans la définition d’indicateurs qui ont nécessairement une portée normative. La résolution de cette impasse de la statistique culturelle passe au moins par une clarification des concepts reliés à la notion de culture. À cette fin, la méthodologie de la recherche repose sur une analyse critique de certains documents fondamentaux qui ont conduit à la création du cadre conceptuel pour la statistique culturelle de l’UNESCO, ainsi que sur des textes phares de Fernand Dumont, Pierre Bourdieu et Jürgen Habermas, choisis pour leur capacité à penser les activités culturelles dans l’ensemble social selon leur temporalité. La notion de temporalité est elle-même examinée sous l’angle de plusieurs approches théoriques. Il ressort de cet examen que la différenciation du temps en temps abstrait et temps concret permet d’entrevoir que les pratiques culturelles pourraient être mesurées non seulement selon la quantité de temps social qui leur est dévolue, mais aussi comme un temps qui a une valeur marchande. Les acquis de l’analyse critique des cadres conceptuels de la statistique culturelle et des textes de Dumont, Bourdieu et Habermas servent de points d’appui pour l’élaboration d’un projet d’indicateurs culturels pour le compte de l’Observatoire de la culture et des communications du Québec (OCCQ). Ce système d’indicateurs a été élaboré selon une grille qui définit ce qu’est un indicateur culturel, son objectif et sa signification. Les indicateurs ont été choisis au cours d’un processus de consultation mené par l’OCCQ auprès des agents gouvernementaux concernés et des représentants des associations professionnelles des secteurs de la culture et des communications du Québec.
Resumo:
Les cellules souches hématopoïétiques (CSH) sont rares, mais indispensables pour soutenir la production des cellules matures du sang, un tissu en constant renouvellement. Deux caractéristiques principales les définissent; la propriété d’auto-renouvellement (AR), ou la capacité de préserver leur identité cellulaire suivant une division, et la multipotence, ce potentiel de différentiation leur permettant de générer toutes les lignée hématopoïétiques. De par leurs attributs, les CSH sont utilisée en thérapie cellulaire dans le domaine de la transplantation. Une organisation tissulaire hiérarchique est aussi préservée dans la leucémie, ou cancer du sang, une masse tumorale hétérogène devant être maintenue par une fraction de cellules au potentiel prolifératif illimité, les cellules souches leucémiques (CSL). Les travaux présentés dans ce manuscrit visent à explorer les bases moléculaires de l’AR, encore mal définies. Certains membres de la famille des facteurs de transcription à homéodomaine HOX sont impliqués dans la régulation de l’hématopoïèse normale, et leur dérégulation peut contribuer à la transformation leucémique. En particulier, la surexpression du gène Hoxb4 dans les CSH influence leur destin cellulaire, favorisant des divisions d’auto-renouvellement et leur expansion en culture et in vivo. En général, les CSH s’épuisent rapidement lorsque maintenue hors de leur niche ex vivo. Différents facteurs interagissent avec les HOX et modulent leur liaison à l’ADN, dont la famille des protéines TALE (Three Amino acid Loop Extension), comme MEIS1 et PBX1. En utilisant une stratégie de surexpression combinée de Hoxb4 et d’un anti-sens de Pbx1 dans les CSH, générant ainsi des cellules Hoxb4hiPbx1lo, il est possible de majorer encore d’avantage leur potentiel d’AR et leur expansion in vitro. Les CSH Hoxb4hiPbx1lo demeurent fonctionnellement intactes malgré une modulation extrême de leur destin cellulaire en culture. Les niveaux d’expressions de facteurs nucléaires, seules ou en combinaison, peuvent donc s’avérer des déterminants majeurs du destin des CSH. Afin d’identifier d’autres facteurs nucléaires potentiellement impliqués dans le processus d’AR des CSH, une stratégie permettant d’évaluer simultanément plusieurs gènes candidats a été élaborée. Les progrès réalisés en termes de purification des CSH et de leur culture en micro-puits ont facilité la mise au point d’un crible en RNAi (interférence de l’ARN), mesurant l’impact fonctionnel d’une diminution des niveaux de transcrits d’un gène cible sur l’activité des CSH. Les candidats sélectionnés pour cette étude font partie du grand groupe des modificateurs de la chromatine, plus précisément la famille des histones déméthylases (HDM) contenant un domaine catalytique Jumonji. Ce choix repose sur la fonction régulatrice de plusieurs membres de complexes méthyl-transférases sur l’AR des CSH, dont l’histone méthyl-transférases MLL (Mixed Lineage Leukemia). Cette stratégie a aussi été utilisée dans le laboratoire pour étudier le rôle de facteurs d’asymétrie sur le destin des CSH, en collaboration. Ces études ont permis d’identifier à la fois des régulateurs positifs et négatifs de l’activité des CSH. Entre autre, une diminution de l’expression du gène codant pour JARID1B, une HDM de la lysine 4 de l’histone H3 (H3K4), augmente l’activité des CSH et s’accompagne d’une activation des gènes Hox. En conclusion, divers déterminants nucléaires, dont les facteurs de transcription et les modificateurs de la chromatine peuvent influencer le destin des CSH. Les mécanismes sous-jacents et l’identification d’autres modulateurs de l’AR demeurent des voies à explorer, pouvant contribuer éventuellement aux stratégies d’expansion des CSH ex vivo, et l’identification de cibles thérapeutiques contre les CSL. Mots-clés : cellules souches hématopoïétiques, Hoxb4, Pbx1, auto-renouvellement, histone déméthylases, RNAi
Resumo:
Les calculs statistiques ont été effectués à l'aide du logiciel SPSS.
Resumo:
L’érosion des berges est un processus clé de la dynamique fluviale. Elle influence considérablement la charge sédimentaire des rivières et contrôle l’évolution latérale des chenaux. Les méthodes de caractérisation des mécanismes et des variables affectant l’érosion des berges sont toutefois imprécises et difficiles à appliquer. Ce projet a pour objectif de caractériser la dynamique actuelle des berges de deux tributaires contrastés du Saint-Laurent : les rivières Saint-François et Batiscan. Le premier objectif vise à quantifier les caractéristiques géotechniques de deux tronçons des rivières à l’étude près de l’embouchure avec le Saint-Laurent en décrivant la stratigraphie à différents sites typiques et en recueillant des échantillons de sédiments afin de mesurer différentes variables géotechniques (granulométrie, limites d’Atterberg, résistance à l’érosion mécanique, résistance à l’érosion fluviale). Le second objectif vise à quantifier les principales caractéristiques hydrodynamiques (précipitations, débits, cisaillements, vitesses) des deux sections de rivière. Le troisième et dernier objectif cherche à mesurer les taux d’érosion à l’échelle saisonnière en utilisant des relevés GPS et des chaînes d’érosion et à identifier les mécanismes d’érosion qui opèrent sur les rivières. Les résultats montrent une érosion importante des berges sur chacun des tributaires, mais les mécanismes qui la cause diffèrent. La Batiscan possède des berges dont le matériel est cohésif et ses berges sont principalement marquées par des ruptures de masse. La Saint-François présente des berges peu cohésives ce qui favorise l’érosion fluviale. Le taux de recul sur la rivière Saint-François est de l’ordre de 1 à 3 m/an dans certaines sections de la rivière. Une nouvelle méthode de mesure du cisaillement critique d’érosion fluviale à l’aide d’un chenal expérimental a été élaborée. Les cisaillements critiques obtenus se situent entre 1,19 et 13,41 Pa. Les résultats montrent que les facteurs jouant sur l’érosion des berges ont une variabilité intrinsèque et systémique difficile à mesurer. Le protocole expérimental développé dans ce projet s’est toutefois avéré utile pour étudier les principales variables qui influencent l’érosion des berges, tout en quantifiant les taux d’érosion et les mécanismes d’érosion de berge de deux tributaires importants du fleuve Saint-Laurent. Ce protocole pourrait être utile dans d’autres contextes.
Resumo:
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.
Resumo:
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.
Resumo:
Le portrait captive lorsqu’il est envisagé comme présence humaine et qu’il tend à se soustraire à l’interprétation analytique. Prenant appui sur ce constat, le mémoire se penche sur la réponse spectatorielle induite par des portraits photographiques dont l’opacité pose un défi à l’attribution de significations précises. Ces portraits, qui abordent le thème de la mort, appartiennent au corpus "What Remains" (2000-2004) de l’artiste américaine Sally Mann. Ils réactualisent le procédé obsolète du collodion, revisitent le vocabulaire formel du pictorialisme et évoquent l’imagerie mortuaire du 19e siècle. Par ces citations historiques, les œuvres gênent la lecture du référent et introduisent des renversements de sens: elles troublent toute certitude dans la perception et toute littéralité dans l’interprétation. Le mémoire étudie les diverses stratégies citationnelles à la source de cette opacification et examine comment celles-ci tendent à établir les conditions de l’expérience esthétique. Après avoir réévalué certains présupposés théoriques sur la photographie, les paramètres techniques, formels et iconographiques des œuvres sont passés en revue afin d’évaluer leur impact respectif. En s’appuyant sur un cadre issu de la théorie des médias et de la psychanalyse, le travail du médium émerge comme le principal déterminant de l’expérience de ces portraits contemporains.
Resumo:
Cette étude s’inscrit dans le cadre du projet « Pôle francophone africain sur le Double Fardeau Nutritionnel » (DFN) du laboratoire TRANSNUT, centre collaborateur OMS sur la transition nutritionnelle du Département de Nutrition de l’Université de Montréal, en collaboration avec ses partenaires au Burkina Faso, à savoir l’Institut de Recherche en Sciences de la Santé (IRSS) et l’Institut Supérieur des Sciences de la Population (ISSP). Elle est l’une des premières à s’intéresser au double fardeau de la malnutrition en Afrique francophone. Cette étude avait pour objectif de démontrer l’existence du double fardeau de la malnutrition parmi les adultes de Ouagadougou au Burkina Faso, d’en donner l’ampleur et d’identifier ses liens avec les facteurs du mode de vie. Plus spécifiquement, elle visait à décrire les carences nutritionnelles, les facteurs de risque cardiométabolique (FRCM), et la typologie du double fardeau de la malnutrition; examiner les caractéristiques du mode de vie des adultes et leurs liens avec le double fardeau de la malnutrition selon les conditions économique, et enfin d’examiner l’association entre inflammation subclinique, les carences nutritionnelles et les FRCM selon les facteurs du mode de vie. Ces objectifs faisaient suite à nos principales hypothèses qui stipulaient que : parmi les adultes de Ouagadougou, le phénotype de double fardeau de la malnutrition le plus fréquemment observé est l’association de surpoids/obésité avec une ou plusieurs carences nutritionnelles, surtout chez les femmes, puis qu’une alimentation de piètre qualité, en lien avec de mauvaises conditions socioéconomiques et de vie est associée tant aux FRCM qu’aux carences nutritionnelles, contribuant ainsi au double fardeau de malnutrition, et enfin qu’un état d’inflammation subclinique joue un rôle de médiateur entre le mode de vie et aussi bien les carences nutritionnelles que les FRCM. Afin de répondre à ces objectifs, une étude transversale descriptive et analytique a été conduite auprès d’un échantillon aléatoire de 330 adultes âgés de 25 à 60 ans recrutés au sein de l’Observatoire de Population de Ouagadougou, situé à la partie nord de la ville. Cet échantillon a été subdivisé en terciles du score de possessions matérielles, proxy du statut socioéconomique, avec 110 personnes respectivement dans chaque strate de niveau socioéconomique bas, moyen et élevé. Chaque participant a fourni des données sociodémographiques, anthropométriques, cliniques et comportementales; il a aussi fourni un échantillon de sang. Les principales variables de l’étude étaient les suivantes : l’âge, les conditions socioéconomiques (insécurité alimentaire, éducation et proxy du revenu), le mode de vie (les apports alimentaires et la qualité de l’alimentation, l’activité physique, la consommation d’alcool et de tabac, la perception de l’image corporelle, le stress psychosocial); l’inflammation subclinique; les FRCM [surpoids/obésité, tension artérielle élevée (TAE) ou hypertension artérielle (HTA), hyperglycémie, dyslipidémie et insulino-résistance]; les carences nutritionnelles (maigreur, anémie, carence en fer et en vitamine A). Des phénotypes de double fardeau de la malnutrition ont été identifiés en combinant FRCM et carences nutritionnelles. Les résultats ont montré une prévalence élevée de surpoids/obésité, d’obésité abdominale, d’hypertension artérielle, d’hyperglycémie, de résistance à l’insuline et du taux de lipoprotéine de haute densité (HDL-C) bas, respectivement de 24,2 %, 12,5 %, 21,9 %, 22,3 %, 25,1 % et 30,0 %. En utilisant les seuils plus sensibles de la Fédération Internationale du Diabète (FID), l’obésité abdominale, la tension artérielle élevée (TAE), l’hyperglycémie était respectivement de 23,5 %; 36,1 % et 34,5 %. Des carences nutritionnelles étaient également présentes, l’anémie, la carence en fer et en vitamine A, ainsi que la maigreur atteignant respectivement 25,5 %, 15,4 %, 12,7 % et 9,7 % de la population étudiée. Les femmes étaient significativement plus touchées que les hommes autant par les FRCM que par les carences nutritionnelles. Le double fardeau de la malnutrition touchait 23,5 % des personnes et même 25,8 % avec les seuils de la FID pour l’obésité abdominale, la TAE, et l’hyperglycémie. Les deux principaux phénotypes observés étaient : l’association de « surpoids/obésité avec au moins une carence en micronutriment », touchant 7,8 % (11,8 % ♀ vs. 3,4 % ♂) des personnes et l’association d’au moins un FRCM autre que le surpoids/obésité avec au moins une carence en micronutriment, qui touchait 9.0 % (12,4 % ♀ vs. 5,4 % ♂) des personnes. La prévalence de ces phénotypes était plus élevée en utilisant les seuils de la FID plutôt que les seuils de l’OMS. Près de 72,9 % des personnes ou 81,2 % (seuils de la FID) avaient au moins un FRCM. Nous avons identifié à partir de l’analyse typologique, deux schémas alimentaires; « urbain » et « traditionnel », dans cette étude. Les carences nutritionnelles étaient davantage associées au schéma alimentaire « traditionnel », alors que les FRCM se retrouvaient dans les deux schémas alimentaires. Le schéma « urbain » regroupait significativement plus d’hommes et de personnes de niveau socioéconomique élevé, alors que les personnes de niveau socioéconomique bas et les femmes étaient proportionnellement plus nombreuses dans le schéma « traditionnel ». Le temps dévolu aux activités sédentaires était significativement plus important que celui consacré aux activités d’intensité modérée à vigoureuse. L’activité physique était inversement associée à l’indice de masse corporelle (IMC), au tour de taille (TT), à la masse grasse corporelle, à la tension artérielle systolique (TAS) et diastolique (TAD), à la triglycéridémie et au taux de lipoprotéine de faible densité (LDL-C). L’IMC et le TT augmentaient en outre avec le temps de sédentarité. Ainsi, le double fardeau de malnutrition était associé au statut socioéconomique bas, au sexe féminin et à la sédentarité. Nous avons aussi trouvé que 39,4 % des personnes avaient une inflammation subclinique qui était associée de façon indépendante et positive à la ferritinémie, à l’IMC, au TT et à la masse grasse corporelle, et négativement au HDL-C. L’exploration du stress psychosocial et de l’image corporelle a révélé une association entre le stress psychosocial, l’HTA et une perception positive de l’embonpoint. Les personnes ayant peut-être accusé un retard de croissance à l’enfance (d’après l’indice de Cormic) étaient significativement plus touchées par le surpoids/obésité, l’obésité abdominale et la résistance à l’insuline. Ces résultats nous ont permis d’atteindre nos objectifs, mais aussi de vérifier nos hypothèses de recherche. Comme on peut le constater, les FRCM sont une réalité à Ouagadougou, qui se compliquent par leur coexistence avec des carences en micronutriments dont la prévalence est tout aussi importante. Une transition nutritionnelle est en cours dans cette ville et contribue au bouleversement des comportements alimentaires et du style de vie favorisant l’émergence de ce double fardeau, dans un contexte où le passé nutritionnel de la population offre des conditions idéales pour un niveau de risque particulièrement élevé pour ces FRCM. Cependant, l’évolution de cette prévalence pourrait être inversée ou tout au moins ralentie si des actions étaient entreprises dès maintenant.
Resumo:
Après le succès mondial de la série télévisée prolongé par les films, la franchise Sex and the City est devenue un phénomène de masse. Sujet de plusieurs études académiques qui mettent en évidence l’importance du post-féminisme pour le succès de la franchise, Sex and the City se distingue par la relation particulière qui s’instaure entre les spectateurs et les personnages, et qui est l’objet de la présente étude : relation qui passe par la représentation des thèmes et du quotidien féminins et surtout par la construction des personnages, principalement du personnage principal Carrie Bradshaw. De plus, elle est renforcée par des stratégies médiatiques utilisées pour rapprocher le public féminin à partir des processus de reconnaissance et d’identification qui dirigent la réception de masse.
Resumo:
La préparation de polymères à base d’acides biliaires, molécules biologiques, a attiré l'attention des chercheurs en raison des applications potentielles dans les domaines biomédicaux et pharmaceutiques. L’objectif de ce travail est de synthétiser de nouveaux biopolymères dont la chaîne principale est constituée d’unités d’acides biliaires. La polymérisation par étapes a été adoptée dans ce projet afin de préparer les deux principales classes de polymères utilisés en fibres textiles: les polyamides et les polyesters. Des monomères hétéro-fonctionnels à base d’acides biliaires ont été synthétisés et utilisés afin de surmonter le déséquilibre stoechiométrique lors de la polymérisation par étapes. Le dérivé de l’acide lithocholique modifié par une fonction amine et un groupement carboxylique protégé a été polymérisé en masse à températures élevées. Les polyamides obtenus sont très peu solubles dans les solvants organiques. Des polyamides et des polyesters solubles en milieu organique ont pu être obtenus dans des conditions modérées en utilisant l’acide cholique modifié par des groupements azide et alcyne. La polymérisation a été réalisée par cycloaddition azoture-alcyne catalysée par l'intermédiaire du cuivre(Ι) avec deux systèmes catalytiques différents, le bromure de cuivre(I) et le sulfate de cuivre(II). Seul le bromure de cuivre(Ι) s’est avéré être un catalyseur efficace pour le système, permettant la préparation des polymères avec un degré de polymérisation égale à 50 et une distribution monomodale de masse moléculaire (PDI ˂ 1.7). Les polymères synthétisés à base d'acide cholique sont thermiquement stables (307 °C ≤ Td ≤ 372 °C) avec des températures de transition vitreuse élevées (137 °C ≤ Tg ≤ 167 °C) et modules de Young au-dessus de 280 MPa, dépendamment de la nature chimique du lien.
Resumo:
Ce mémoire s’intéresse aux campagnes publicitaires de bière diffusées dans divers journaux et magazines dans les années 1920 et 1950 au Québec, deux périodes d’après-guerre marquées par la prospérité économique et le développement de la consommation de masse. Cette étude comparative vise à faire ressortir l’évolution dans les représentations de la bière et les stratégies utilisées par les publicitaires pour la mettre en valeur afin de la rendre plus légitime dans la société. En plus de dégager les différents discours utilisés par les publicitaires pour mieux vendre ce produit, nous montrons que les thèmes et stratégies retenus sont directement influencés par les valeurs, les idées, les normes et le contexte législatif de la société québécoise pour chaque période étudiée. Nous soutenons d’ailleurs l’hypothèse selon laquelle le genre, mais plus particulièrement le discours dominant sur la masculinité, a fortement influencé la construction des campagnes publicitaires lors des deux périodes étudiées; la culture de l’alcool, mais plus particulièrement celle de la bière, est un bastion masculin qui tend à résister à l’intégration des femmes et de la féminité.
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.