994 resultados para Parigi,Grands,Ensembles.
Resumo:
Plusieurs problèmes liés à l'utilisation de substances et méthodes interdites de dopage dans les sports posent de grands défis à la gouvernance antidopage. Afin de lutter contre le dopage, certains pays ont mis en oeuvre des cadres juridiques basés exclusivement sur le droit pénal tandis que d'autres pays ont plutôt misé sur des mécanismes et organismes spécialisés trouvant fondement en droit privé ou sur un régime hybride de droit public et privé. Ces différentes approches réglementaires ont pour conséquence de faire en sorte qu’il est très difficile de lutter efficacement contre le dopage dans les sports, notamment parce que leur exécution requiert un degré de collaboration internationale et une participation concertée des autorités publiques qui est difficile à mettre en place. À l’heure actuelle, on peut par exemple observer que les États n’arrivent pas à contrer efficacement la participation des syndicats et organisations transnationales liés au crime organisé dans le marché du dopage, ni à éliminer des substances et méthodes de dopage interdites par la réglementation. Par ailleurs, la gouvernance antidopage basée sur les règles prescrites par l’Agence mondiale antidopage prévoit des règles et des normes distinctes de dopage distinguant entre deux catégories de personnes, les athlètes et les autres, plaçant ainsi les premiers dans une position désavantageuse. Par exemple, le standard de responsabilité stricte sans faute ou négligence imposé aux athlètes exige moins que la preuve hors de tout doute raisonnable et permet l'utilisation de preuves circonstancielles pour établir la violation des règles antidopages. S'appliquant pour prouver le dopage, ce standard mine le principe de la présomption d'innocence et le principe suivant lequel une personne ne devrait pas se voir imposer une peine sans loi. D’ailleurs, le nouveau Code de 2015 de l’Agence attribuera aux organisations nationales antidopage (ONADs) des pouvoirs d'enquête et de collecte de renseignements et ajoutera de nouvelles catégories de dopage non-analytiques, réduisant encore plus les droits des athlètes. Dans cette thèse, nous discutons plus particulièrement du régime réglementaire de l’Agence et fondé sur le droit privé parce qu’il ne parvient pas à répondre aux besoins actuels de gouvernance mondiale antidopage. Nous préconisons donc l’adoption d’une nouvelle approche de gouvernance antidopage où la nature publique et pénale mondiale du dopage est clairement reconnue. Cette reconnaissance combiné avec un modèle de gouvernance adapté basé sur une approche pluraliste du droit administratif global produira une réglementation et une administration antidopage mieux acceptée chez les athlètes et plus efficace sur le plan des résultats. Le nouveau modèle de gouvernance que nous proposons nécessitera toutefois que tous les acteurs étatiques et non-étatiques ajustent leur cadre de gouvernance en tenant compte de cette nouvelle approche, et ce, afin de confronter les défis actuels et de régler de manière plus satisfaisante les problèmes liés à la gouvernance mondiale du dopage dans les sports.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
Ce mémoire visait à déterminer si un petit parc périurbain, en l’occurrence le Parc national du Mont-Saint-Bruno, est parvenu à maintenir l’intégrité de sa flore au cours des trente dernières années en dépit de pressions humaines croissantes et de perturbations naturelles passées, en plus d’identifier les principaux changements floristiques survenus au cours de cette période et les facteurs responsables. Pour répondre à ces objectifs, une étude historique a été réalisée, en comparant un inventaire floristique ancien (1977) à un inventaire récent (2013). Mes résultats montrent d’abord une forte croissance de la diversité alpha indigène au cours des 35 dernières années, accompagnée d’un déclin significatif de la diversité bêta (30%). Malgré cette homogénéisation taxonomique, la diversité fonctionnelle de la flore forestière s’est accrue, la rendant probablement plus résiliente aux événements perturbateurs. D’autre part, mes analyses ont révélé la progression de traits fonctionnels souvent associés à des habitats forestiers intensément broutés, révélant une certaine influence du cerf de Virginie sur la composition et la structure de la flore forestière. Enfin, mes résultats ont montré que les herbiers botaniques se révèlent être une alternative fiable aux méthodes traditionnelles pour documenter et évaluer l’impact des grands herbivores sur la morphologie des plantes broutées. Au final, cette étude a montré que les petites aires protégées périurbaines peuvent jouer un rôle majeur dans la préservation de la diversité floristique d’habitats forestiers d’intérêt, particulièrement lorsque leur statut de protection permet d’encadrer de manière stricte les activités humaines.
Resumo:
Faisant confiance à leur intuition les urbanistes s’inscrivent souvent dans un flou théorique qui les rend susceptibles de succomber à l’idéologie dominante et aux modes du moment. La première partie de ce mémoire vise à démontrer que cette posture par rapport à la théorie entraine un manque de réflexivité qui constitue un obstacle majeur à l’exercice d’une pratique urbanistique véritablement professionnelle, éthique et respectueuse du territoire. En effet, selon Bourdieu, un corpus théorique autonome permettrait d’offrir à l’urbaniste un cadre de réflexivité lui permettant de prendre du recul sur le quotidien et d’échapper à l’influence indue de l’idéologie sur sa pratique. Ce mémoire vise à comprendre la configuration actuelle du champ des théories de l’urbanisme en Occident (compris selon la théorie des champs de Bourdieu) et à proposer un modèle synthèse spécifiquement destiné à servir d’outil de réflexivité à l’urbaniste. Pour y parvenir, il a été privilégié de faire une relecture herméneutique de modèles théoriques existants, mais considérés comme incomplets, des théories de l’urbanisme. Dans ce domaine, deux Écoles de pensée ont été définies (École française et École anglo-saxonne). Ensuite, une typologie emblématique de chaque École a été choisie pour être revue à la lumière de l’objectif fixé. Ainsi, les typologies de Françoise Choay (École française) et de Philip Allmendinger (École anglo-saxonne) ont été analysées et mises en commun au moyen de la construction d’une historiographie commune des théories de l’urbanisme. Finalement, un modèle théorique original (la typologie intégrée) a été formulé. Celui-ci définit quatre grands courants théoriques : le rationalisme instrumental, le rationalisme intersubjectif, le mouvement pragmatico-postmoderne et le mouvement patrimonial. Il apparaît alors que le rationalisme occupe une position hégémonique dans le champ des théories de l’urbanisme depuis sa fondation et qu’elle est assumée par le rationalisme intersubjectif depuis le milieu des années 1990.
Resumo:
L’amyloïdose, une maladie progressive et incurable, implique une vaste panoplie de pathologies et de pathogénèses, qui est expliquée par la grande variabilité biologique et structurale des protéines responsables de la formation des dépôts d’amyloïde. L’amyline (polypeptide amyloïde des îlots pancréatiques, IAPP) est une protéine très susceptible de subir des changements de conformation impliquant les feuillets bêta et conférant aussi des propriétés physicochimiques distinctes. Cette protéine prend alors une forme fibrillaire et se dépose dans les îlots de Langerhans chez les humains atteints de diabète de type 2 ou d’insulinome. Ces dépôts d’amyloïde pancréatique (AIAPP) ont été décrits chez certaines espèces animales telles que les félins domestiques, les grands félins, le raton laveur et les primates non humains. La formation de dépôts d’amyloïde contribue à la pathogénèse du diabète de type 2, mais les mécanismes qui induisent la conversion de l’amyline (IAPP) en amyloïde (AIAPP) ne sont pas complètement compris. Les hypothèses du projet sont que certaines variations présentes dans les séquences peptidiques de l’IAPP provenant de différentes espèces animales jouent un rôle critique pour la formation de fibrilles et que plusieurs composés chimiques aromatiques/phénoliques sont capables d’abroger la formation de dépôts d’amyloïde. Le projet de recherche consiste donc à caractériser la propension des différentes isoformes animales d’IAPP à former de l’amyloïde in vitro afin d’identifier les acides aminés jouant un rôle clé dans cette transformation structurale et ultimement d’inhiber la formation d’amyloïde pancréatique. Le projet se divise en deux volets principaux. Le premier consiste à identifier les différentes séquences peptidiques de l’IAPP retrouvées chez les espèces animales. L’objectif est d’identifier les acides aminés jouant un rôle clé dans la formation d’amyloïde. Le gène de l’IAPP a été séquencé chez plus d’une quarantaine d’espèces. Le potentiel d’agrégation des séquences obtenues a été simulé à l’aide d’outils bioinformatique. Une librairie de 23 peptides a été commandée afin de procéder à des analyses physicochimiques in vitro permettant d’évaluer le potentiel amyloïdogénique (test fluorimétrique à la thioflavine T, essai de liaison au rouge Congo, dichroïsme circulaire, microscopie électronique à transmission) et cytotoxique (sur une lignée cellulaire provenant d’insulinome : INS-1). Les analyses effectuées à partir de la librairie constituée de 23 peptides ont permis d’identifier trois séquences ne formant pas d’amyloïde et qui proviennent des espèces animales suivantes : le tamarin lion doré (Leontopithecus rosalia), le grand dauphin (Tursiops truncatus) et l’alpaga (Vicugna pacos). Un site potentiellement critique est le segment 8-20 présentant le motif NFLVH qui ne forme plus d’amyloïde lorsqu’il est remplacé par le motif DFLGR ou KFLIR. Les acides aminés 29P, 14K et 18R sont également impliqués dans l’inhibition de la transformation structurale en fibrille. La dernière partie du projet consiste à inhiber la formation de l’amyloïde en utilisant des composés chimiques commercialisés (hypoglycémiants, anti-inflammatoires non stéroïdiens) ou nouvellement synthétisés dans notre laboratoire (les aryles éthyles urées). Un criblage d’une soixantaine de composés chimiques a été conduit dans cette étude. Leur efficacité a été testée sur l’IAPP humaine, qui possède un fort potentiel amyloïdogénique. Les techniques utilisées sont les mêmes que celles exploitées précédemment. L’essai de liaison croisée photo-induite ("photo-induced cross-linking of unmodified proteins", PICUP) a été réalisé afin d’étudier les formes intermédiaires (monomères, oligomères). Un total de 11 composés chimiques a démontré un potentiel à inhiber l’agrégation des fibrilles. Pour la classe des hypoglycémiants, le glyburide, le répaglinide et la troglitazone ont montré l’activité thérapeutique la plus élevée pour retarder et réduire la formation de fibrilles. Les anti-inflammatoires antiamyloïdogènes actifs incluaient le diclofenac, le méloxicam, le phénylbutazone, le sulindac et le ténoxicam. Les aryles étyles urées les plus intéressantes étaient la EU-362 et la EU-418. Tous ces composés ont conféré une protection cellulaire contre l’activité cytotoxique des fibrilles. Les molécules actives possèdent des éléments structuraux communs tels des substituants donneurs d’électrons (alcool, amine, halogène) sur un noyau benzène. En conclusion, ce projet de recherche a permis de caractériser l’IAPP chez diverses espèces animales, dont plusieurs chez lesquelles elle n’avait pas encore été décrite, de déterminer les sites jouant un rôle clé dans sa transformation en amyloïde et, ultimement, de tester le potentiel thérapeutique de nouveaux agents antiamyloïdogènes dans le diabète de type 2. Nous espérons que ce projet ouvrira ainsi la porte à de nouvelles stratégies de traitement.
Resumo:
Alice au pays des merveilles et Nietzsche n'ont en commun ni la dentelle ni la chanson. Quelque chose de beaucoup plus fort les unit toutefois; nous le découvrirons peut-être ce jour où voleront les cochons. Ou à la fin de cette pièce, selon le bon vouloir des principaux-ales intéressé-e-s. Pendant ce temps, du fin fond de leur enclos, ils et elles n'en peuvent plus d'attendre. Leur salut ? L'heure du glas ? Leur heure de gloire ? Grands incapables, pugilistes décadents qui se tuent à ne pas se tuer, se déchaînent dans le verbiage, s'érigeant malgré eux contre toute forme de verve. Combattre cet Autre qui s'immisce insidieusement en soi et qui conduit à la perte du moi. C'est dans une folle lucidité que les égos se dérangent sans échanger, s'attaquent sans s'atteindre, hurlent sans être entendus, dans l'espoir, peut-être, de se réveiller in the land of Nod. Comme l’indique le titre, Chroniques de maux (de l’extrême ordinaire) met en scène une suite de chroniques dans lesquelles les principaux-ales intéressé-e-s témoignent de leur mal-être, et ce, à travers l’exploration de lieux communs. La dramaturgie tente, entre autres, de mettre en place une poésie de l’invective et de l’humour; une esthétique du trash-talking et de la logorrhée. Une importance particulière est accordée au rythme et au langage. L’atmosphère alterne résolument lourdeur et ludisme. La pièce Rouge Gueule, d'Étienne Lepage, présente une mécanique visant manifestement à « attaquer » l'Autre, qu’il s’agisse d’un personnage ou du lecteur-spectateur. Les attaques se perpètrent d'une part par un humour cru, influencé par la culture populaire, le trivial; un humour qui fonctionne de manière plutôt classique en convoquant des procédés aisément repérables et sans cesse réutilisés par l'auteur. D’autre part, la mécanique de « combat » se manifeste par l'invective, ainsi que par une violence caractérisée, du début à la fin, par un manque dans la motivation des actions. Ainsi, l’étude Attaques à vide. Bousculer la situation théâtrale au confluent de l’humour et la violence s’intéresse à Rouge Gueule, aux relations qu'entretiennent l’humour et l'univers brutal de la pièce, dans la perspective où l’humour est inextricablement lié à la violence. Une attention particulière est portée sur le personnage type de Lepage de même que sur l’esthétique de « l'arsenal » trash. Cette dernière est analysée afin de mieux circonscrire les attaques : sont-elles des moyens, et le cas échéant, pour parvenir à quelle fin puisque la fable, et donc la « quête », dans le théâtre contemporain est souvent remise en question. Cette étude verra comment les attaques « à vide », sont, chez Lepage, la force motrice de ce que Hans-Thies Lehmann nomme la « situation théâtrale ».
Resumo:
La gestion des villes d’Afrique de l’Ouest pose problème à la période contemporaine : extension urbaine non maitrisée, services de base insuffisants, insécurité foncière. À travers l’aide internationale, d’importantes réformes visant à améliorer son efficacité ont pourtant été mises en place, mais elles semblent avoir été inefficaces. Dépassant ce constat d’échec, la thèse vise à comprendre comment se déroule l’acte de gérer la ville dans les circonstances particulières des villes d’Afrique de l’Ouest. La mise en œuvre du Registre foncier urbain (RFU), système d’information foncière municipal multi-fonctions introduit au Bénin à travers des programmes de développement au début des années 1990, constitue le prisme à travers lequel la gestion urbaine est analysée. Celle-ci est ainsi approchée par les actes plutôt que par les discours. S’appuyant sur une démarche socio-anthropologique, la mise en œuvre de l’instrument est analysée depuis le point de vue des acteurs locaux et selon une double grille de lecture : d’une part, il s’agit de saisir les logiques de l’appropriation locale dont le RFU a fait l’objet au sein des administrations; d’autre part, il s’agit de comprendre son interaction avec le territoire, notamment avec les dynamiques complexes d’accès au sol et de sécurisation foncière. Une étude de cas multiple a été menée dans trois communes : Cotonou, Porto-Novo et Bohicon. Deux ensembles de conclusions en découlent. Tout d’abord, le RFU s’est imposé comme l’instrument pivot de la fiscalité locale, mais est mis en œuvre de manière minimale. Ce fonctionnement particulier est une adaptation optimale à un contexte fait de rivalités professionnelles au sein d’administrations cloisonnées, d’enjeux politico-financiers liés aux différentes sources de revenus communaux et de tensions politico-institutionnelles liées à une décentralisation tardive. Les impacts du RFU en termes de développement des compétences professionnelles nationales sont insuffisants pour réformer la gestion urbaine depuis l’intérieur de l’administration municipale. Ensuite, alors qu’il vise à centraliser l’information sur les propriétaires présumés de la terre, le RFU se heurte à la marchandisation de cette information et à la territorialisation de la régulation foncière. La mise en œuvre du RFU s’en trouve affectée de deux manières : d’une part, elle s’insère dans ces circuits marchands de l’information foncière, avec cependant peu de succès ; d’autre part, elle a un impact différencié selon les territoires de la régulation foncière. En définitive, l’acte de gérer la ville au Bénin n’est pas devenu automatique avec l’introduction d’instruments comme le RFU. La municipalité se repose plutôt sur les piliers classiques de l’action publique, l’administration et le politique, pour gérer la ville plurielle de manière différenciée. À l’endroit des concepteurs d’action publique, cette thèse plaide pour une prise en compte des modes de régulation existant dans les sociétés africaines, fussent-ils pluriels, reconnaissant les voies originales que prend la construction des institutions en Afrique.
Resumo:
Toutes les photographies présentes à l'intérieur de ce mémoire ont été prises par l'auteur de ce dernier.
Resumo:
Dans ce travail, nous étendons le nombre de conditions physiques actuellement con- nues du trou d’échange exact avec la dérivation de l’expansion de quatrième ordre du trou d’échange sphérique moyenne exacte. Nous comparons les expansions de deux- ième et de quatrième ordre avec le trou d’échange exact pour des systèmes atomiques et moléculaires. Nous avons constaté que, en général, l’expansion du quatrième ordre reproduit plus fidèlement le trou d’échange exact pour les petites valeurs de la distance interélectronique. Nous démontrons que les ensembles de base de type gaussiennes ont une influence significative sur les termes de cette nouvelle condition, en étudiant com- ment les oscillations causées par ces ensembles de bases affectent son premier terme. Aussi, nous proposons quatre modèles de trous d’échange analytiques auxquels nous imposons toutes les conditions actuellement connues du trou d’échange exact et la nou- velle présentée dans ce travail. Nous évaluons la performance des modèles en calculant des énergies d’échange et ses contributions à des énergies d’atomisation. On constate que les oscillations causeés par les bases de type gaussiennes peuvent compromettre la précision et la solution des modèles.
Resumo:
Bien que des photographies d’expressions émotionnelles faciales soient couramment utilisées pour étudier le traitement des informations affectives, les ensembles de stimuli actuels comportent différentes limites méthodologiques. Dans la perspective d’améliorer la validité écologique des travaux sur la reconnaissance émotionnelle faciale (REF), l’étude propose un nouvel ensemble de stimuli dynamiques constitué de personnages virtuels exprimant les six émotions fondamentales à différentes intensités. La validation préliminaire des stimuli a été effectuée en les comparant aux stimuli du POFA. Dans l’étude 1, le contenu émotionnel de 84 avatars statiques et de 48 photographies du POFA a été évalué par 150 étudiants. Dans l’étude 2, la REF a été évaluée chez 134 étudiants à l’aide d’avatars dynamiques. L’habileté à reconnaître les émotions est similaire à celle rapportée dans la littérature scientifique ainsi qu’au POFA. Les résultats permettent de conclure que les avatars constituent un ensemble valide de stimuli pour étudier la REF, offrant une contribution significative dans le domaine de la recherche émotionnelle. L’usage d’avatars étant de plus en plus courant à des fins d’intervention et de recherche, les stimuli ouvrent aussi la voie à diverses applications, entre autres pour l’étude des comportements violents. D’autres travaux devront être réalisés afin de poursuivre leur validation.
Resumo:
Le vieillissement étant un enjeu démographique majeur, il est capital de mieux comprendre les changements qui surviennent durant cette période de la vie. Il est connu que certaines fonctions cognitives sont modifiées avec l’avancée en âge. D’ailleurs, 25 à 50 % des personnes âgées de 65 ans et plus rapportent avoir observé un déclin de leur cognition et de leur mémoire. Les travaux de cette thèse portent sur la caractérisation de la plainte cognitive chez des personnes âgées saines et chez des aînés ayant un trouble cognitif léger (TCL) ainsi que sur son évolution au fil de la progression vers la maladie d’Alzheimer. La première étude (Chapitre II) avait pour objectif d’identifier les différents domaines de plainte mnésique chez des personnes d’âge moyen et des individus plus âgés. Elle visait également à vérifier si les domaines de plainte étaient associés aux performances aux tests neuropsychologiques. L’effet sur la plainte de certaines caractéristiques personnelles (âge, sexe, niveau de scolarité et symptômes dépressifs) a aussi été examiné. Le Questionnaire d’auto-évaluation de la mémoire (QAM; Van der Linden, Wijns, Von Frenkell, Coyette, & Seron, 1989) et plusieurs tests neuropsychologiques ont été complétés par 115 adultes sains âgés de 45 à 87 ans. Une analyse en composantes principales réalisée sur l'ensemble des questions du QAM a permis d’identifier sept grands domaines de plainte. Des analyses subséquentes ont révélé que les plaintes les plus fréquemment rapportées par les participants sont associées à des situations où des facteurs internes et externes interfèrent avec la performance mnésique. Les analyses ont aussi montré que les plaintes relatives à des oublis dont les conséquences menacent l’autonomie et la sécurité témoigneraient de problèmes cognitifs et fonctionnels plus sévères. Enfin, nos résultats ont indiqué que les différents domaines de plainte reflètent globalement les problèmes cognitifs objectifs. Aucune association n’a été trouvée entre la plainte et la plupart des caractéristiques démographiques. La seconde étude (Chapitre III) avait pour but de caractériser la plainte cognitive dans le TCL ainsi que son évolution dans la progression de la démence. L’étude cherchait aussi à déterminer si les changements dans certains domaines de plainte étaient reliés au déclin de ii fonctions cognitives spécifiques chez les individus avec TCL qui ont progressé vers la démence (progresseurs). Des personnes avec TCL et des individus âgés sains ont été évalués annuellement pendant trois ans. Le QAM et le Multifactorial Memory Questionnaire (MMQ; Fort, Holl, Kaddour, & Gana, 2004) ont été utilisés pour mesurer leurs plaintes. Les résultats ont révélé que les progresseurs rapportaient davantage de difficultés associées à la mémorisation de contenus complexes (ex. : textes ou conversations), d’événements récents et d’informations sur leurs proches que les personnes âgées saines et ce, jusqu’à trois ans avec le diagnostic de démence. L’analyse des effets de groupe a indiqué que l’intensité des plaintes des progresseurs semble être demeurée stable durant le suivi. Il est donc possible qu’une proportion des progresseurs présentent une méconnaissance de leurs difficultés cognitives. Cependant, des analyses corrélationnelles ont montré que l’augmentation des plaintes reliées à trois domaines était associée à l’accroissement de certaines atteintes cognitives durant les trois ans. Ainsi, certaines plaintes pourraient permettre de mieux comprendre les difficultés cognitives qui sont vécues par la personne avec TCL. Les implications théoriques et cliniques de ces résultats seront discutées dans le dernier chapitre de la thèse (Chapitre IV).
Resumo:
En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.
Resumo:
La société québécoise a, comme toutes les sociétés, ses crimes et criminels légendaires. Or, si ces faits divers célèbres ont fait l’objet, dans les dernières décennies, de quelques reconstitutions historiographiques, on connaît beaucoup moins, en revanche, le mécanisme de leur légendarisation, le processus historique et culturel par lequel ils passent du « fait divers » au fait mémorable. C’est d’abord ce processus que s’attache à étudier cette thèse de doctorat, qui porte sur quatre crimes célèbres des XVIIIe et XIXe siècles (le meurtre du seigneur de Kamouraska [1839] ainsi que les crimes commis par « la Corriveau » [1763], par le « docteur l’Indienne » [1829] et par les « brigands du Cap-Rouge » [1834-1835]) : pour chacun de ces cas particuliers, l’analyse reconstitue la généalogie des représentations du crime et du criminel de manière à retracer la fabrication et l’évolution d’une mémoire collective. Celles-ci font chaque fois intervenir un système complexe de discours : au croisement entre les textes de presse, les récits issus de la tradition orale et les textes littéraires, l’imaginaire social fabrique, à partir de faits criminels ordinaires, de grandes figures antagoniques, incarnations du mal ou avatars du diable. Ce vaste processus d’antagonisation est en fait largement tributaire d’une époque (le XIXe siècle) où, dans les sociétés occidentales, le « crime » se trouve soudainement placé au cœur de toutes les préoccupations sociales et politiques : l’époque invente un véritable engouement littéraire pour le crime de même que tout un arsenal de savoirs spécialisés, d’idées nouvelles et de technologies destinées à connaître, mesurer et enrayer la criminalité. Dès les premières décennies du XIXe siècle, le phénomène se propage de ce côté-ci de l’Atlantique. Dans la foulée, les grands criminels qui marquent la mémoire collective sont appelés à devenir des ennemis imaginaires particulièrement rassembleurs : figures d’une altérité radicale, ils en viennent à constituer le repoussoir contre lequel, à partir du XIXe siècle, s’est en partie instituée la société québécoise.
Resumo:
Les protéines sont au coeur de la vie. Ce sont d'incroyables nanomachines moléculaires spécialisées et améliorées par des millions d'années d'évolution pour des fonctions bien définies dans la cellule. La structure des protéines, c'est-à-dire l'arrangement tridimensionnel de leurs atomes, est intimement liée à leurs fonctions. L'absence apparente de structure pour certaines protéines est aussi de plus en plus reconnue comme étant tout aussi cruciale. Les protéines amyloïdes en sont un exemple marquant : elles adoptent un ensemble de structures variées difficilement observables expérimentalement qui sont associées à des maladies neurodégénératives. Cette thèse, dans un premier temps, porte sur l'étude structurelle des protéines amyloïdes bêta-amyloïde (Alzheimer) et huntingtine (Huntington) lors de leur processus de repliement et d'auto-assemblage. Les résultats obtenus permettent de décrire avec une résolution atomique les interactions des ensembles structurels de ces deux protéines. Concernant la protéine bêta-amyloïde (AB), nos résultats identifient des différences structurelles significatives entre trois de ses formes physiologiques durant ses premières étapes d'auto-assemblage en environnement aqueux. Nous avons ensuite comparé ces résultats avec ceux obtenus au cours des dernières années par d'autres groupes de recherche avec des protocoles expérimentaux et de simulations variés. Des tendances claires émergent de notre comparaison quant à l'influence de la forme physiologique de AB sur son ensemble structurel durant ses premières étapes d'auto-assemblage. L'identification des propriétés structurelles différentes rationalise l'origine de leurs propriétés d'agrégation distinctes. Par ailleurs, l'identification des propriétés structurelles communes offrent des cibles potentielles pour des agents thérapeutiques empêchant la formation des oligomères responsables de la neurotoxicité. Concernant la protéine huntingtine, nous avons élucidé l'ensemble structurel de sa région fonctionnelle située à son N-terminal en environnement aqueux et membranaire. En accord avec les données expérimentales disponibles, nos résultats sur son repliement en environnement aqueux révèlent les interactions dominantes ainsi que l'influence sur celles-ci des régions adjacentes à la région fonctionnelle. Nous avons aussi caractérisé la stabilité et la croissance de structures nanotubulaires qui sont des candidats potentiels aux chemins d'auto-assemblage de la région amyloïde de huntingtine. Par ailleurs, nous avons également élaboré, avec un groupe d'expérimentateurs, un modèle détaillé illustrant les principales interactions responsables du rôle d'ancre membranaire de la région N-terminal, qui sert à contrôler la localisation de huntingtine dans la cellule. Dans un deuxième temps, cette thèse porte sur le raffinement d'un modèle gros-grain (sOPEP) et sur le développement d'un nouveau modèle tout-atome (aaOPEP) qui sont tous deux basés sur le champ de force gros-grain OPEP, couramment utilisé pour l'étude du repliement des protéines et de l'agrégation des protéines amyloïdes. L'optimisation de ces modèles a été effectuée dans le but d'améliorer les prédictions de novo de la structure de peptides par la méthode PEP-FOLD. Par ailleurs, les modèles OPEP, sOPEP et aaOPEP ont été inclus dans un nouveau code de dynamique moléculaire très flexible afin de grandement simplifier leurs développements futurs.
Resumo:
Perçue comme organisation institutionnelle, l'activité théâtrale peut être divisée en quatre grands secteurs (ou instances) : la production, la distribution, la consommation et la légitimation. À l'intérieur de chacun de ces secteurs, différents agents assument des fonctions précises et complémentaires : interpréter, écrire, produire, distribuer, regarder, juger, etc. Dans ce partage des responsabilités et des pouvoirs, la critique joue un rôle complexe dont l'importance et la pertinence varient selon les époques et les lieux. La critique relève de l'instance de légitimation. Dans une société organisée et hiérarchisée (comme la France du XIXe siècle), elle s'exprime autant dans les grands journaux que dans les périodiques spécialisés et les ouvrages érudits. Elle constitue la première étape de l'oeuvre dramatique vers sa consécration. Les académies, par leurs prix et leurs concours, et l'École, par la mise au programme de certains textes, assurent le couronnement définitif des oeuvres et des auteurs. Le Québec de la fin du XIXe siècle ne dispose pas d'une instance de légitimation aussi structurée. Son organisation interne et sa situation géographique le soumettent à des pressions si variées et si nombreuses qu'il doit continuellement chercher à l'extérieur de ses frontières le pouvoir de consécration qui lui manque. Il n'a pas d'académie, pas de grand concours dramatique (d'écriture ou d'interprétation), et les sommités qui remplissent les rares chaires littéraires des universités Laval de Québec et de Montréal sont des Français de passage. On pourrait donc croire qu'en raison de l'absence d'autres agents, la critique locale aurait envahi tout le champ de la légitimation et assumé seule le couronnement des oeuvres et des auteurs au Québec. Mais il n'en fut rien! [Introduction]