992 resultados para Architraves -- Grèce
Resumo:
Les maladies cardiovasculaires (MCV) sont la principale cause de mortalité dans les pays industrialisés. L'hypercholestérolémie constitue un facteur de risque majeur pour les MCV. Elle est caractérisée par des niveaux élevés de lipoprotéines de faible densité (LDL, aussi appelé “mauvais cholestérol”). La présence prolongée de haut niveaux de LDL dans la circulation augmente le risque de formation de plaques athérosclérotiques, ce qui peut conduire à l'obstruction des artères et l'infarctus du myocarde. Le LDL est normalement extrait du sang par sa liaison au récepteur du LDL (LDLR) qui est responsable de son endocytose dans les hépatocytes. Des études génétiques humaines ont identifié PCSK9 (proprotein convertase subtilisin/kexin type 9) comme le troisième locus responsable de l'hypercholestérolémie autosomique dominante après le LDLR et son ligand l’apolipoprotéine B-100. PCSK9 interagit avec le LDLR et induit sa dégradation, augmentant ainsi les niveaux plasmatiques de LDL. Les mutations gain de fonction (GF) de PCSK9 sont associées à des niveaux plasmatiques élevés de LDL et à l'apparition précoce des MCV, alors que les mutations perte de fonction (PF) de PCSK9 diminuent le risque de MCV jusqu’à ~ 88% grâce à une réduction du LDL circulant. De ce fait, PCSK9 constitue une cible pharmacologique importante pour réduire le risque de MCV. PCSK9 lie le LDLR à la surface cellulaire et/ou dans l'appareil de Golgi des hépatocytes et provoque sa dégradation dans les lysosomes par un mécanisme encore mal compris. Le but de cette étude est de déterminer pourquoi certaines mutations humaines de PCSK9 sont incapables de dégrader le LDLR tandis que d'autres augmentent sa dégradation dans les lysosomes. Plusieurs mutations GF et PF de PCSK9 ont été fusionnées à la protéine fluorecente mCherry dans le but d'étudier leur mobilité moléculaire dans les cellules hépatiques vivantes. Nos analyses quantitatives de recouvrement de fluorescence après photoblanchiment (FRAP) ont montré que les mutations GF (S127R et D129G) avaient une mobilité protéique plus élevée (> 35% par rapport au WT) dans le réseau trans- Golgien. En outre, nos analyses quantitatives de recouvrement de fluorescence inverse après photoblanchiment (iFRAP) ont montré que les mutations PF de PCSK9 (R46L) avaient une mobilité protéique plus lente (<22% par rapport au WT) et une fraction mobile beaucoup plus petite (<40% par rapport au WT). Par ailleurs, nos analyses de microscopie confocale et électronique démontrent pour la toute première fois que PCSK9 est localisée et concentrée dans le TGN des hépatocytes humains via son domaine Cterminal (CHRD) qui est essentiel à la dégradation du LDLR. De plus, nos analyses sur des cellules vivantes démontrent pour la première fois que le CHRD n'est pas nécessaire à l'internalisation de PCSK9. Ces résultats apportent de nouveaux éléments importants sur le mécanisme d'action de PCSK9 et pourront contribuer ultimement au développement d'inhibiteurs de la dégradation du LDLR induite par PCSK9.
Resumo:
Le traitement de l’épilepsie chez le jeune enfant représente un enjeu majeur pour le développement de ce dernier. Chez la grande majorité des enfants atteints de spasmes infantiles et chez plusieurs atteints de crises partielles complexes réfractaires, le vigabatrin (VGB) représente un traitement incontournable. Cette médication, ayant démontré un haut taux d’efficacité chez cette population, semble toutefois mener à une atteinte du champ visuel périphérique souvent asymptomatique. L’évaluation clinique des champs visuels avec la périmétrie chez les patients de moins de neuf ans d’âge développemental est toutefois très difficile, voire impossible. Les études électrophysiologiques classiques menées auprès de la population épileptique pédiatrique suggèrent l’atteinte des structures liées aux cônes de la rétine. Les protocoles standards ne sont toutefois pas spécifiques aux champs visuels et les déficits soulignés ne concordent pas avec l’atteinte périphérique observée. Cette thèse vise donc à élaborer une tâche adaptée à l’évaluation des champs visuels chez les enfants en utilisant un protocole objectif, rapide et spécifique aux champs visuels à partir des potentiels évoqués visuels (PEVs) et à évaluer, à l’aide de cette méthode, les effets neurotoxiques à long terme du VGB chez des enfants épileptiques exposés en bas âge. La validation de la méthode est présentée dans le premier article. La stimulation est constituée de deux cercles concentriques faits de damiers à renversement de phase alternant à différentes fréquences temporelles. La passation de la tâche chez l’adulte permet de constater qu’une seule électrode corticale (Oz) est nécessaire à l’enregistrement simultané des réponses du champ visuel central et périphérique et qu’il est possible de recueillir les réponses électrophysiologiques très rapidement grâces l’utilisation de l’état-stationnaire (steady-state). La comparaison des données d’enfants et d’adultes normaux permet de constater que les réponses recueillies au sein des deux régions visuelles ne dépendent ni de l’âge ni du sexe. Les réponses centrales sont aussi corrélées à l’acuité visuelle. De plus, la validité de cette méthode est corroborée auprès d’adolescents ayant reçu un diagnostic clinique d’un déficit visuel central ou périphérique. En somme, la méthode validée permet d’évaluer adéquatement les champs visuels corticaux central et périphérique simultanément et rapidement, tant chez les adultes que chez les enfants. Le second article de cette thèse porte sur l’évaluation des champs visuels, grâce à la méthode préalablement validée, d’enfants épileptiques exposés au VGB en jeune âge en comparaison avec des enfants épileptiques exposés à d’autres antiépileptiques et à des enfants neurologiquement sains. La méthode a été bonifiée grâce à la variation du contraste et à l’enregistrement simultané de la réponse rétinienne. On trouve que la réponse corticale centrale est diminuée à haut et à moyen contrastes chez les enfants exposés au VGB et à haut contraste chez les enfants exposés à d’autres antiépileptiques. Le gain de contraste est altéré au sein des deux groupes d’enfants épileptiques. Par contre, l’absence de différences entre les deux groupes neurologiquement atteints ne permet pas de faire la distinction entre l’effet de la médication et celui de la maladie. De plus, la réponse rétinienne périphérique est atteinte chez les enfants épileptiques exposés au Sabril® en comparaison avec les enfants neurologiquement sains. La réponse rétinienne périphérique semble liée à la durée d’exposition à la médication. Ces résultats corroborent ceux rapportés dans la littérature. En somme, les résultats de cette thèse offrent une méthode complémentaire, rapide, fiable, objective à celles connues pour l’évaluation des champs visuels chez les enfants. Ils apportent aussi un éclairage nouveau sur les impacts à long terme possibles chez les enfants exposés au VGB dans la petite enfance.
Resumo:
Avec la participation de 38 Montréalais d'origine congolaise, dont 21 femmes et 17 hommes
Resumo:
Au début des années 1920, la ville de Montréal se retrouve dans une situation assez unique. À l’époque, les États-Unis et toutes les provinces canadiennes à l’exception du Québec ont adopté la prohibition de la vente d’alcool. Mais même au Québec, environ la moitié de la population de la province est alors touchée par des prohibitions locales (votées au niveau municipal), des prohibitions qui ont largement perduré tout au long de la période à l’étude. Durant cette ère de prohibition de l’alcool nord-américaine, Montréal est la plus grande ville, et une des seules sur le continent non régie par une loi sur la prohibition. C’est aussi celle qui dispose des lois les plus libérales envers l’alcool des deux côtés du 49ème parallèle grâce à la création de la Commission des Liqueurs de Québec (CLQ), le premier système de contrôle gouvernemental de l’alcool en Amérique du Nord. C’est dans ce contexte que Montréal devient une rare oasis dans un continent assoiffé et le plus grand cobaye du modèle de contrôle gouvernemental de l’alcool. Ce mémoire examine les impacts de cette conjoncture sur le développement de cette ville, de son industrie touristique, de sa vie nocturne et de sa réputation. En premier lieu, le mémoire présente une mise en contexte de la situation aux États-Unis, au Canada et au Québec afin de faire ressortir le caractère unique de Montréal pendant cette période. En deuxième lieu, l’essor du tourisme dit « de liqueur » et de la vie nocturne montréalaise, à la fois légale et illicite, est exploré. En dernier lieu, le mémoire met au jour l’impact que cette conjoncture a eu sur la construction de la réputation de la ville à travers l’examen des écrits des anti- et pro-prohibitionnistes qui ont chacun propagé des visions idéalisées et démonisées de cette ville « bien arrosée », ainsi que des documents associés à l’essor du tourisme, tels que les chansons, les guides touristiques et les récits de voyage, qui, pour leur part, ont présenté un image plus romancée de la métropole et associée à un refuge festif de la prohibition. Malgré leurs différences, ces trois visions de Montréal l’ont néanmoins associée à la liberté, que ce soit une liberté ordonnée, dangereuse ou bien émancipatrice. Ainsi, à partir de l’expérience de la prohibition et du tourisme de liqueur, Montréal devient connue comme une ville « ouverte », dans ses acceptions à la fois positives et négatives.
Resumo:
Ce travail de mémoire porte sur le processus d’insertion sociale et économique des personnes vivant des problèmes de santé mentale. Le travail est devenu un important véhicule d’intégration sociale. En effet, on prétend que la pratique d’un métier serait pour les personnes souffrant de problèmes de santé un outil de rétablissement et de mieux-être, car elle permet de réduire les symptômes et l’incidence des hospitalisations. Le travail permet, également, d’augmenter les interactions sociales et de contribuer activement à la société. Il existe, toutefois, d’autres véhicules d’intégration qui semblent, sous certains angles, apporter les mêmes avantages. Les activités bénévoles améliorent la qualité de vie, favorisent les interactions sociales et donnent, à l’individu, l’occasion de contribuer à sa communauté. Par ailleurs, le retrait social peut être un moyen de s’éloigner des pressions sociales et de s’accorder une pause bénéfique. On soutient que les personnes ayant un problème de santé mentale qui ont une lecture positive de leur situation de marginalité tendent à être moins hospitalisées. S’appuyant sur une démarche qualitative, ce travail de recherche a tenté de cerner les perspectives, les questionnements et les perceptions des personnes ayant un trouble mental à l’égard d’un processus d’intégration socioprofessionnelle, de participation sociale et de retrait social. Des entrevues semi-dirigées ont été menées auprès de onze personnes, et grâce à ces entretiens, un portrait au regard de leurs parcours social et professionnel a pu être brossé. Les entretiens ont permis d’explorer l’impact des problèmes de santé mentale sur leur réalité et sur leur identité, leurs représentations du marché de l’emploi et les motifs qui justifient le choix de s’engager ou de renoncer à un processus d’intégration socioprofessionnelle. Les résultats de cette recherche ont permis d'identifier cinq facteurs qui peuvent influencer la décision des personnes qui sont le rapport à l'environnement social, l'identité, le rapport aux institutions de l'État, les discours de légitimation et les perspectives d'avenir. Les résultats démontrent que l'on ne peut isoler les notions de vulnérabilité, d'autonomie, de bien-être ou de stabilité dans une phase spécifique. La vulnérabilité, l'autonomie, le bien-être et la stabilité sont des états que l’on peut vivre en situation de retrait social, de participation sociale et d’intégration socioprofessionnelle. Selon les circonstances et l’état émotif, ils peuvent être des modes adaptés ou inadaptés.
Resumo:
La scoliose idiopathique de l’adolescence (SIA) est une déformation tridimensionnelle complexe du rachis affectant majoritairement les filles. L’atteinte progressive est surtout esthétique avec, notamment, une déformation de la cage thoracique résultante. L’asymétrie mammaire est une préoccupation fréquente chez ces jeunes filles. Se définissant comme une différence de forme, de position ou de volume des seins ou des complexes aréolo-mamelonnaires, l’asymétrie mammaire est courante chez les femmes, mais habituellement mineure et non visible. Il demeure incertain dans la littérature si l’asymétrie mammaire est plus fréquente chez les scoliotiques. De plus, très peu d’études ont évalué la relation entre la scoliose et l’asymétrie mammaire. De façon instinctive, on serait porté à croire que ce ne sont pas les seins qui sont asymétriques, mais plutôt la déformation du thorax en rotation qui donne cette impression. Les seins représentent un des organes les plus difficiles à mesurer étant donné leur grande variabilité. Plusieurs méthodes de mesure ont été décrites. L’imagerie par résonance magnétique (IRM) est considérée l’outil le plus précis pour définir la glande mammaire et plus particulièrement, sa délimitation sur la cage thoracique. Ce projet consiste à quantifier l’asymétrie mammaire, représentée par une différence de volume entre les deux seins, chez une cohorte de jeunes filles présentant une SIA significative, en utilisant l’IRM comme outil de mesure. Ensuite, une méthode de mesure automatisée, à partir de la topographie surfacique 3D, est proposée. Les résultats obtenus avec cette méthode sont confrontés à ceux de l’IRM. L’influence de la posture sur le volume mammaire est également étudiée à partir de ces deux modalités différentes. Pour réaliser ces objectifs, une cohorte de 30 patientes scoliotiques a été recrutée sur la base de leur courbure thoracique et de leur maturité osseuse et mammaire. Deux imageries de tronc ont été effectuées : la topographie surfacique 3D et la résonance magnétique. Dans un premier temps, la sommation des images segmentées acquises par IRM nous a permis de mesurer de façon très précise le volume mammaire. Notre cohorte présente une asymétrie mammaire moyenne statistiquement significative de 8.32%. 66.6% des patientes présentent une asymétrie ≥ 5%. Par ailleurs, le sein gauche est plus volumineux chez 65.5% des patientes. Une faible corrélation non-significative existe entre les volumes mammaires et l’angle de Cobb ainsi que la gibbosité thoracique. Par la suite, une méthode de mesure automatisée, développée à partir de l’environnement mathématique Matlab, est appliquée directement sur les reconstructions 3D. En bref, elle consiste à identifier les contours des seins pour les exciser afin d’exposer la cage thoracique puis, à soustraire le thorax complet du thorax sans seins pour déterminer les volumes mammaires. Les volumes mammaires acquis par la méthode automatisée sont, de manière attendue, de plus petites tailles que ceux obtenus à l’IRM. Une forte corrélation est établie entre les volumes mammaires obtenus par les deux différentes techniques de mesure. Bien que statistiquement significatives, les asymétries mammaires (r= 0.614, p< .001) ne sont pas aussi fortement corrélées entre elles que les volumes. Le sein droit (r=0.805) présente une corrélation plus élevée que le sein gauche (r=0.747). Finalement, l’influence de la posture est étudiée à partir des maillages 3D de l’IRM (décubitus ventral) et de la topographie surfacique 3D (position debout). D’excellentes corrélations sont confirmées entre les volumes mammaires ; r= 0.896 et r= 0.939, respectivement pour les volumes mammaires gauches et droits. Ce projet a permis de démontrer, pour la première fois, qu’il est possible de calculer le volume mammaire de façon objective et précise avec l’IRM, chez une cohorte scoliotique. Grâce à la précision des repères anatomiques, l’IRM nous a permis de revisiter une croyance populaire dans la communauté de la scoliose. Celle soutenant que l’asymétrie mammaire ressentie par les patientes n’est qu’une perception. Ces nouvelles données nous permettrons de conseiller les jeunes filles avec la SIA, concernant leurs préoccupations sur l’asymétrie de leurs seins. Nous avons confirmé que la méthode de mesure automatisée est réalisable cliniquement et pourrait être utilisée pour prédire les volumes obtenus à l’IRM. Par ailleurs, c’est le premier outil de mesure de volumétrie mammaire complètement automatisé à notre connaissance. Les volumes mammaires obtenus debout et en décubitus ventral sont comparables.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
Les sociétés contemporaines affrontent le défi de s’intégrer et s’adapter à un processus de transformation qui vise la construction de sociétés du savoir. Ce processus doit notamment son élan aux institutions d’enseignement supérieur qui constituent un espace privilégié où on bâtit l’avenir d’une société à partir des savoirs et celles-ci doivent faire face aux nouveaux enjeux sociaux, économiques et politiques qui affectent tous les pays du monde. La quête de la qualité devient donc un processus constant d’amélioration et surgit l’intérêt par l’évaluation au niveau universitaire. Par conséquent, cette recherche s’attache au sujet de l’évaluation à l’enseignement supérieur et s’enfonce dans le débat actuel sur les changements provoqués par les évaluations institutionnelles produisant un défi puisqu’il s’agit d’une prise de conscience fondée sur la culture de la qualité. L’autoévaluation est une stratégie permettant aux institutions d’enseignement supérieur mener des processus intégraux de valorisation dont le but est d’identifier les faiblesses des facteurs qui ont besoin d’améliorer. Le résultat conduit à l’élaboration et à la mise en œuvre d’un plan d’amélioration pour l'institution, programme académique ou plan d’études. À travers l’orientation du modèle d’évaluation systémique CIPP de Stufflebeam (1987), on a pu analyser de façon holistique la mise en place de l’autoévaluation depuis son contexte, planification, processus et produit. Ainsi les objectifs de la thèse visent l’identification du développement de la deuxième autoévaluation afin d’obtenir une reconnaissance de haute qualité et effectuer la mise en œuvre du plan d’amélioration auprès des programmes académiques de Licence en Comptabilité et Gestion de l’entreprise de la Faculté de Sciences de l’Administration de l’Université du Valle en Colombie. À travers l’appropriation de la théorie Neo-institutionnelle les changements apparus après l’autoévaluation ont été également analysés et interprétés et ont ainsi permis l’achèvement des fins de la recherche. La méthodologie développe la stratégie de l’étude de cas dans les deux programmes académiques avec une approche mixte où la phase qualitative des entretiens semi-structurés est complémentée par la phase quantitative des enquêtes. Des documents institutionnels des programmes et de la faculté ont aussi été considérés. Grâce à ces trois instruments ont pu obtenir plus d’objectivité et d’efficacité pendant la recherche. Les résultats dévoilent que les deux programmes ciblés ont recouru à des procédés et à des actions accordées au modèle de l’Université du Valle quoiqu’il ait fallu faire des adaptations à leurs propres besoins et pertinence ce qui a permis de mener à terme la mise en œuvre du processus d’autoévaluation et ceci a donné lieu à certains changements. Les composantes Processus Académiques et Enseignants sont celles qui ont obtenu le plus fort développement, parmi celles-ci on trouve également : Organisation, Administration et Gestion, Ressources Humaines, Physiques et Financières. D’autre part, parmi les composantes moins développées on a : Anciens Étudiants et Bienêtre Institutionnel. Les conclusions ont révélé que se servir d’un cadre institutionnel fort donne du sens d’identité et du soutien aux programmes. Il faut remarquer qu’il est essentiel d’une part élargir la communication de l’autoévaluation et ses résultats et d’autre part effectuer un suivi permanent des plans d’amélioration afin d’obtenir des changements importants et produire ainsi un enracinement plus fort de la culture de la qualité et l’innovation auprès de la communauté académique. Les résultats dégagés de cette thèse peuvent contribuer à mieux comprendre tant la mise en œuvre de l’autoévaluation et des plans d’amélioration aussi que les aspects facilitateurs, limitants, les blocages aux processus d’évaluation et la génération de changements sur les programmes académiques. Dans ce sens, la recherche devient un guide et une réflexion à propos des thèmes où les résultats sont très faibles. Outre, celle-ci révèle l’influence des cadres institutionnels ainsi que les entraves et tensions internes et externes montrant un certain degré d’agencement par le biais de stratégies de la part des responsables de la prise de décisions dans les universités. On peut déduire que la qualité, l’évaluation, le changement et l’innovation sont des concepts inhérents à la perspective de l’apprentissage organisationnel et à la mobilité des savoirs.
Resumo:
Cette recherche a été financée par le Fonds de recherche sur la société et la culture du Québec et le Conseil de recherches en sciences humaines. L’auteur a de plus reçu le support financier du programme de remboursement des frais de scolarité des forces armées canadiennes. Les cartes ont été produites grâce au logiciel ArcGIS (ESRI).
Resumo:
Ce mémoire examine la question de la formation de l'identité en tant que procédure compliquée dans laquelle plusieurs éléments interviennent. L'identité d'une personne se compose à la fois d’une identité propre et d’une autre collective. Dans le cas où l’identité propre est jugée sévèrement par les autres comme étant déviante, cela poussera la personne à, ou bien maintenir une image compatible avec les prototypes sociaux ou bien résister et affirmer son identité personnelle. Mon travail montre que l'exclusion et la répression de certains aspects de l'identité peuvent causer un disfonctionnement psychique difficile à surmonter. Par contre, l'acceptation de soi et l’adoption de tous les éléments qui la constituent conduisent, certes après une longue lutte, au salut de l’âme et du corps. Le premier chapitre propose une approche psychosociale qui vise à expliquer le fonctionnement des groupes et comment l'interaction avec autrui joue un rôle décisif dans la formation de l'identité. Des éléments extérieurs comme par exemple les idéaux sociaux influencent les comportements et les choix des gens. Toutefois, cette influence peut devenir une menace aux spécificités personnelles et aux traits spécifiques. Le deuxième chapitre examine la question des problèmes qu’on risque d’avoir au cas où les traits identitaires franchiraient les normes sociales. Nous partons du problème épineux de la quête de soi dans Giovanni's Room de James Baldwin. L'homosexualité de David était tellement refusée par la société qu’elle a engendrée chez lui des sentiments de honte et de culpabilité. Il devait choisir entre le sacrifice des aspects de soi pour satisfaire les paradigmes sociaux ou bien perdre ce qu’il a de propre. David n'arrive pas à se libérer. Il reste prisonnier des perceptions rigides au sujet de la masculinité et de la sexualité. Mon analyse se focalise essentiellement sur l'examen des différents éléments théoriques qui touchent la question du sexe et de la sexualité. Le résultat est le suivant : plus les opinions dominantes sont rigides et fermes, plus elles deviennent une prison pour l’individu. Par contre, plus elles sont tolérantes et flexibles, plus elles acceptent les diversités de l'identité humaine. Dans le dernier chapitre, j'examine la question de la représentation des relations entre les caractères masculins dans Just Above My Head. L'homosexualité est présentée comme un moyen sacré pour exprimer l'amour. Les caractères révèlent leurs sentiments implicitement à travers les chants spirituel tel que le gospel ou bien explicitement à travers la connexion physique. Dans ce roman, Baldwin montre que c'est seulement grâce à la sincérité et à l'amour que l'individu peut atteindre la libération du soi.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Ce mémoire de maîtrise a été rédigé dans l’objectif d’explorer une inégalité. Une inégalité dans les pratiques liées à la saisie et l’exploitation des données utilisateur dans la sphère des technologies et services Web, plus particulièrement dans la sphère des GIS (Geographic Information Systems). En 2014, de nombreuses entreprises exploitent les données de leurs utilisateurs afin d’améliorer leurs services ou générer du revenu publicitaire. Du côté de la sphère publique et gouvernementale, ce changement n’a pas été effectué. Ainsi, les gouvernements fédéraux et municipaux sont démunis de données qui permettraient d’améliorer les infrastructures et services publics. Des villes à travers le monde essayent d’améliorer leurs services et de devenir « intelligentes » mais sont dépourvues de ressources et de savoir faire pour assurer une transition respectueuse de la vie privée et des souhaits des citadins. Comment une ville peut-elle créer des jeux de données géo-référencés sans enfreindre les droits des citadins ? Dans l’objectif de répondre à ces interrogations, nous avons réalisé une étude comparative entre l’utilisation d’OpenStreetMap (OSM) et de Google Maps (GM). Grâce à une série d’entretiens avec des utilisateurs de GM et d’OSM, nous avons pu comprendre les significations et les valeurs d’usages de ces deux plateformes. Une analyse mobilisant les concepts de l’appropriation, de l’action collective et des perspectives critiques variées nous a permis d’analyser nos données d’entretiens pour comprendre les enjeux et problèmes derrière l’utilisation de technologies de géolocalisation, ainsi que ceux liés à la contribution des utilisateurs à ces GIS. Suite à cette analyse, la compréhension de la contribution et de l’utilisation de ces services a été recontextualisée pour explorer les moyens potentiels que les villes ont d’utiliser les technologies de géolocalisation afin d’améliorer leurs infrastructures publiques en respectant leurs citoyens.
Resumo:
Ce mémoire s’intéresse à la formation des partis politiques et l’origine de la loyauté partisane à la Chambre d’assemblée du Bas-Canada entre 1791 et 1840. Pour ce faire, le présent mémoire fait une analyse systématique de tous les votes tenus en Chambre grâce à l’indice de loyauté et à la méthode de la Classification optimale (Optimal Classification) développée par Poole (2005). Il soutient la thèse selon laquelle l’ethnicité est la principale source de division entre les députés lors des votes tenus à la Chambre d’assemblée du Bas-Canada lors des premières législatures et que c’est plutôt l’opposition entre les réformistes constitutionnels et les conservateurs favorables à l’ancien régime qui explique les divisions entre les députés lors des deux dernières législatures. Il soutient également que le statut social des députés, le type de comté dans lequel ils sont élus, l’occupation civile des députés ou leur expérience parlementaire n’expliquent pas l’opposition entre les députés lors des votes au Parlement. Ce mémoire émet également l’hypothèse selon laquelle les partis politiques ont peu d’impact sur le comportement législatif de leurs membres : les députés sont libres de voter selon leurs préférences individuelles sans véritable discipline partisane.
Resumo:
Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.