995 resultados para Séquençage de nouvelle génération


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les fichiers sons qui accompagne mon document sont au format midi. Le programme que nous avons développés pour ce travail est en language Python.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La succession de plus en plus fréquente d’événements catastrophiques a amené les sociétés à poser les conditions d’une gestion proactive des risques « naturels ». Ainsi, dans une perspective exploratoire, nous étudions les processus de planification du rétablissement postcatastrophe et la place qu’occupe le concept de résilience urbaine au sein des pratiques de cette planification et des contenus et produits qui en sont issus. Nous entamons plus spécifiquement une réflexion entourant l’intelligibilité et l’opérationnalisation de la résilience. Pour ce faire, nous examinons deux cas signifiants d’inondation dans l’historique nord-américain, soit celui de la Nouvelle-Orléans en Louisiane et celui de la ville québécoise de La Baie, ayant été respectivement victimes des ouragans Katrina et Rita en 2005 et des pluies diluviennes de 1996. Après avoir procédé à une brève mise en contexte des désastres éprouvés, de leurs effets et des vulnérabilités physico-spatiales qu’ils ont mis en exergue, nous mettons en parallèle les logiques institutionnelles précatastrophe d’aménagement du territoire, d’urbanisme et de gestion des risques des villes. Nous observons ensuite l’évolution des deux processus de planification du rétablissement et les enjeux et débats qui les ont caractérisés, pour terminer avec une exposition des changements résilients qui en ont émané. Les deux derniers chapitres démontrent que la qualité de résilience des villes est fortement influencée par leurs cultures politiques, administratives et législatives propres et leurs traditions urbanistiques. Bien qu’elles aient su élaborer une stratégie de prévention des risques, qui accepte les inondations plutôt que de tenter de s’y opposer à tout prix, elles n’ont toutefois pas saisi l’entièreté des opportunités qui s’offraient à elles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’autophagie est un processus cellulaire catabolique qui a été conservé durant l’évolution de la levure à l’homme. Cet important mécanisme consiste en une dégradation des composants cytoplasmiques dans une structure lytique, le lysosome. Il existe trois types de l’autophagie : la microautophagie, l’autophagie médiée par les chaperones et la macroautophagie nommée « autophagie ». Il a été démontré que lors de l’autophagie, le matériel cytoplasmique (protéines cytosoliques et organites) est séquestré dans l’autophagosome qui finit par fusionner avec le lysosome, formant ainsi l’autophagolysosome. Le matériel séquestré et la membrane interne de l’autophagosome seront dégradés par les hydrolases lysosomales. Plusieurs études se sont focalisées sur la détermination de la machinerie moléculaire et les mécanismes de l’autophagie. Il a été démontré l’implication de 31 molécules Atg essentielles dans le processus de l’autophagie. L’identification de ces protéines a permis de déceler le rôle de l’autophagie non seulement dans le maintien de l’homéostasie cellulaire mais aussi dans la défense contre les agents pathogènes. En effet, l’autophagie joue un rôle important dans l’immunité innée conduisant à contrôler l’évasion des pathogènes dont les bactéries et les virus. Également, l’autophagie est impliquée dans l’immunité adaptative en favorisant la présentation des antigènes viraux par le CMH de classe II aux cellules T CD4+. De plus, une étude récente suggère que l’autophagie contribue à la présentation antigénique par le CMH de classe I aux cellules T CD8+ durant une infection virale par le virus HSV-1 (Herpes simplex type 1). Toutefois, certains virus y compris HSV-1 ont pu développer des mécanismes pour contourner et inhiber en partie le rôle protecteur de l’autophagie. Récemment, une étude dans notre laboratoire a mis en évidence, lors d’une infection virale par HSV-1 des cellules macrophages BMA, la présence d’une nouvelle structure autophagique dans une phase tardive de l’infection. Cette nouvelle structure est différente des autophagosomes classiques à double membrane et est caractérisée morphologiquement par quatre membranes dérivées de l’enveloppe nucléaire interne et externe. Peu de choses ont été rapportées sur cette nouvelle voie autophagique qui peut être un mécanisme de défense cellulaire quand l’autophagie classique dans le cytosol est inhibée par HSV-1. Il devient donc intéressant de caractériser les molécules impliquées dans la formation de ces autophagosomes issus du noyau par spectrométrie de masse. Pour ce faire, il était impératif d’établir un outil d’isolation des noyaux à partir de macrophages infectés par HSV-1 dans lesquels les autophagosomes issus des noyaux seront formés. La validation de cette méthode d’isolation a été effectuée en déterminant la pureté et l’intégrité des noyaux isolés à partir des cellules non infectées (contrôle) et infectées par HSV-1. La pureté des préparations de noyaux isolés a été caractérisée par l’absence de contaminants cellulaires et un enrichissement en noyaux. Également, il a fallu déterminer la cinétique de formation des autophagosomes issus des noyaux pour les deux lignées cellulaires de macrophages utilisées dans ce projet. Dans une perspective future, l’analyse protéomique à partir des échantillons purs des noyaux isolés (non infectés et infectés) mènera à identifier les protéines impliquées dans la formation des autophagosomes dérivés des noyaux, ce qui permettra ultérieurement d’effectuer des études sur les mécanismes moléculaires et les fonctions de cette nouvelle voie autophagique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire porte sur l’insertion des Haïtiens de seconde génération sur le marché de l’emploi. L’insertion professionnelle est la condition principale permettant une intégration sociale. En effet, avoir un emploi a des répercussions au niveau économique, social et psychologique. Les écrits ont montré que les jeunes et particulièrement ceux faisant partie d’une minorité visible ont plus de difficulté à s’insérer sur le marché du travail. C’est dans cette optique que nous nous sommes penchés sur la condition des Haïtiens de deuxième génération. La littérature fait état des multiples difficultés sociales et économiques auxquelles est confrontée cette tranche de la population. Nous nous sommes donc intéressés aux caractéristiques de l’insertion professionnelle des ces Haïtiens de seconde génération. Nous avions comme objectif général d’analyser la trajectoire d’insertion de cette population sur le marché du travail. Notre démarche de type qualitatif s’est basée sur une série d’entrevues réalisées à l’hiver 2010 avec des hommes et des femmes Québécois d’origine haïtienne. Les thèmes abordés durant ces entrevues nous ont menés à des résultats différents de ceux recensés dans la littérature académique portant sur les Haïtiens de deuxième génération. En effet, nous avons rencontré des hommes et des femmes qui ont rencontré certains obstacles et qui continuent à faire face à des difficultés en lien avec leur vécu comme individu ayant une origine ethnique différente de celle de la majorité. Ces difficultés se manifestent également dans leur insertion en emploi. Cependant, cela n’a pas empêché ces enfants d’immigrants haïtiens de surmonter les obstacles et réussir leur intégration aux plans professionnel, économique et social.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les médecins et autres écrivains de l’Ancien Régime qui ont décrié les effets néfastes de la mise en nourrice l’ont tenue en partie responsable de la forte mortalité infantile. L’habitude de confier l’allaitement et les soins de l’enfant à une femme autre que sa mère est présente dès le XIIIe siècle dans les milieux aristocratiques français. Bourgeois et autres citadins feront de même dès le XVIIe siècle. Transportée outre-Atlantique par les colons du Canada, la mise en nourrice a laissé de nombreuses traces dans les sources paroissiales, notariales et judiciaires de la colonie. Les démographes et historiens se sont penchés sur le phénomène dans le cadre d’études portant sur différents groupes sociaux (noblesse, « bourgeoisie ») ou populations (ville de Québec et l’ensemble du Canada sous le Régime français). Ils ont privilégié l’étude des nourrissons et de leurs familles. Ce mémoire s’intéresse à la mise en nourrice à Montréal et aux alentours des années 1680 aux années 1760. Il s’emploie d’abord à suivre le parcours de 436 nourrissons, décédés pour la plupart en bas âge : milieu socio-professionnel des parents connus, profil démographique, lieu d’accueil par une nourrice. Il étudie ensuite 245 femmes qui ont pris soin de ces enfants : leur parcours migratoire, les différents paramètres socio-démographiques de leur existence. Plusieurs de nos observations correspondent à celles d’autres chercheurs ou, du moins, ne les contredisent pas, tout en offrant une perspective montréalaise sur le phénomène. Au chapitre de l’inédit, citons l’élargissement, au XVIIIe siècle, de la gamme des professions exercées par les pères de nourrissons, ainsi que l’existence de plus d’un profil de nourrice, du point de vue de l’âge (et de la capacité à allaiter), de l’état matrimonial et du degré de vulnérabilité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aux lendemains de la Guerre de Sécession, le petit centre manufacturier de Warren, dans l’État du Rhode Island, attira plusieurs immigrants canadiens-français en quête de travail. Ces derniers s’organiseront rapidement en établissant un réseau paroissial, en fondant plusieurs sociétés mutuelles et en multipliant les commerces prêts à desservir une clientèle francophone de plus en plus nombreuse. Les premiers stades de développement de la communauté (1888-1895) avaient déjà été observés par Jean Lamarre dans le cadre de son mémoire de maîtrise (1985). D’une part, le chercheur avait remarqué un phénomène graduel d’enracinement des paroissiens et, d’autre part, l’analyse de leur profil socio-économique indiquait qu’ils travaillaient majoritairement à la filature. Par cette étude, nous avons voulu revisiter cette communauté au moment où sa présence dans le paysage industriel et urbain de Warren apparaît consolidée. Grâce aux listes nominatives du recensement fédéral de 1910 et aux publications gouvernementales parues à la même époque, nous évaluons l’ampleur des changements socio-économiques transformant la communauté en l’espace d’une quinzaine d’années. L’observation du processus d’intégration des Canadiens français à l’environnement industriel est complétée par une analyse de l’apport des femmes et des enfants au ménage ouvrier. Les conclusions principales de cette étude démontrent que malgré l’attrait indéniable que représente encore et toujours le secteur manufacturier auprès de nombreux travailleurs, les Canadiens français jouissent en 1910 d’une qualité de vie généralement supérieure à celle qui caractérisait leurs débuts au sein de la localité. Leur situation socio-économique s’apparentera d’ailleurs davantage à celle des anglophones de Warren, Yankees et Irlandais, que de celle des représentants de la « nouvelle vague d’immigration » (Polonais, Italiens et Portugais).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devant le contexte actuel des crises environnementale et sociale, on ne peut que s’interroger sur la capacité du domaine de la conservation du patrimoine à intégrer les principes et les concepts liés au développement durable. Alors que plusieurs liens entre la conservation du patrimoine culturel et le développement durable existent, il devient nécessaire de solidifier cette union. Réalisée en amont du projet de conservation, l’évaluation patrimoniale basée sur l’approche par les valeurs permet d’établir la signification d’un lieu selon les valeurs qui lui sont associées. Il y a cependant lieu de se questionner : au-dedes valeurs historiques, esthétiques ou architecturales traditionnellement attribuées au patrimoine bâti, quel intérêt accorde-t-on aux dimensions environnementales, économiques et sociales? Le postulat de ce mémoire est qu’il est essentiel d’élargir l’évaluation patrimoniale afin d’y intégrer de nouvelles valeurs liées au développement durable. Nous nous proposons d’étudier la faisabilité de ceci en élaborant un modèle d’évaluation patrimoniale basé sur une approche par les valeurs qui prend en compte l’ensemble des valeurs inhérentes au patrimoine bâti, c’est-à-dire les aspects culturels, sociaux, économiques et environnementaux. Cette proposition se traduit en une grille d’évaluation qui comporte ces dimensions. Afin de confronter notre hypothèse au réel, nous procéderons à une étude de cas : le Silo no.5 situé dans le Vieux-Port de Montréal. Aux termes de cette recherche, nous estimons être en mesure d’identifier les limites de notre expérimentation et de déterminer ce qui pourrait être fait pour contribuer aux efforts en conservation. Il nous apparaît que les recherches effectuées dans le cadre de ce mémoire sont susceptibles d’intéresser toute personne oeuvrant dans le domaine de la conservation du patrimoine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal