471 resultados para Mis en valeur
em Université de Montréal, Canada
Resumo:
Thèse réalisée dans le cadre d'une cotutelle avec l'Université Paul Cézanne Aix-Marseille III
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Notre mémoire porte sur la mise en valeur du patrimoine archéologique sur la côte nord du Pérou. À partir de deux études de cas, Chan Chan et Huacas de Moche, nous cherchons à faire ressortir différentes approches de mise en valeur au complexe archéologique et d’exposition au musée de site. La cité de Chan Chan aurait été la capitale de l’Empire chimor (900 à 1476 ap. J.C.) et utilisée à titre de siège pour le gouvernement, de résidence, de centre administratif et de centre religieux. Le complexe de Huaca del Sol y de la Luna aurait été la capitale de la civilisation moche (100 av. J.C. à 700 ap. J.C.) à son apogée. Il représente l’un des plus anciens centre urbain-cérémonial de la côte nord du Pérou. Le cas du Musée de site de Chan Chan présente un modèle muséographique des années 1990, tandis que le cas du Musée de site de Huacas de Moche propose une approche puisant ses concepts dans la nouvelle muséologie (2010). D’autre part, ces modèles de gestion, l’un issu du secteur public (Chan Chan) et l’autre (Huacas de Moche) émanant d’une gestion mixte ont une influence sur la manière de présenter l’archéologie au public. Le premier chapitre aborde l’histoire du développement de l’archéologie, des musées et du tourisme au Pérou. La deuxième partie de ce chapitre traite des questions liées à l’herméneutique de la culture matérielle, des questions esthétiques et de l’architecture précolombienne, ainsi que des approches de médiation. Le deuxième chapitre met en parallèle l’analyse du circuit de visite du complexe archéologique de Chan Chan et celui de Huacas de Moche. Le troisième chapitre présente l’analyse de la mise en exposition des musées de site des deux études de cas et des liens créés avec leur site archéologique. Le quatrième chapitre porte sur les formes de financement des projets de fouilles, de conservation, de restauration et de mise en valeur de l’archéologie, ainsi que des stratégies utilisées pour sa diffusion et sa mise en tourisme. Enfin, la dernière section du quatrième chapitre traite des différents moyens utilisés par chacun des complexes archéologiques et leurs musées pour intégrer la communauté locale aux projets de recherche et de mise en valeur archéologique.
Resumo:
Communication présentée au congrès de l’ACFAS, Mai 2001
Resumo:
Cette thèse traite de quelques moments clés dans l’histoire urbaine et architecturale moderne de la ville de Tunis. Elle les aborde conjointement à la problématique du percement de son noyau historique : la médina, née d’un projet de modernisation urbaine lancé par les beys de Tunis à la fin du XIXe siècle, poursuivi par le protectorat français de 1881 à 1956, puis par le gouvernement indépendant de 1956 à 1987. Partant, la recherche est répartie sur trois temps avec, au centre, le projet de la percée dite de la Casbah adopté par le Président Bourguiba à la fin de 1959. Pour plusieurs raisons, ce moment est cité rapidement dans la littérature malgré son importance dans la compréhension du visage actuel de la capitale tunisienne. Pour le saisir, on a dû retourner aux premières tentatives de percement de la médina de Tunis par le colonisateur français en 1887. Puis, on s’est progressivement approché de l’ancêtre direct de la percée bourguibienne paru sur le Plan directeur de Tunis en 1948. De ce premier temps, on a mis en valeur les stratégies coloniales dans leur gestion du territoire et leur rapport au processus de valorisation/dévalorisation du patrimoine issu de la civilisation arabo-islamique. Le second temps, qui correspond au plan de décolonisation mené par l’État indépendant dès 1955, est marqué par le lancement d’un « concours international ouvert pour une étude d’aménagement de la ville de Tunis » organisé par le Secrétariat d’État aux travaux publics en collaboration avec l’Union internationale des architectes. L’étude de cet événement et du colloque qui l’a suivi a ôté le voile sur ses raisons d’être politico-économiques que dissimulaient les usuels soucis de l’hygiène, de la circulation et de l’embellissement du Grand Tunis. Pour appuyer davantage ces constats, un troisième et dernier temps a été dédié au chantier de Tunis au lendemain du concours. L’accent mis sur les lieux symboliques du pouvoir et le désir obsessif des autorités à se les approprier ont réduit ce chantier à une redistribution concertée des symboles de la souveraineté nationale dans le but de centraliser et de personnifier le pouvoir en place. Le présent travail se situe dans le cadre des études postcoloniales et projette un regard critique sur la décolonisation en rapport avec ce qu’on a taxé d’urbanisme d’État. Propulsé par une certaine perception de la modernité, cet urbanisme est indissociable d’une instrumentalisation politique qui met l’accent sur les questions identitaires et patrimoniales, insiste sur la rupture avec le passé et tend à écarter l’opinion publique des questions inhérentes à l’aménagement du territoire et à la sauvegarde de la mémoire collective. En procédant par une analyse contextuelle de faits historiques et une lecture typomorphologique de la percée de la Casbah, cette recherche attire l’attention sur l’ampleur de certaines décisions gouvernementales concernant l’aménagement de l’espace urbain et la conservation de l’héritage architectural à court, moyen et long termes. Elle renseigne aussi sur le rôle des collectivités, de l’élite et des professionnels dans la canalisation de ces décisions pour ou contre leur droit à la ville.
Resumo:
Ce mémoire porte sur les retraductions françaises du XXe siècle d’Al Moqaddima (Les Prolégomènes) (1377) d’Ibn Khaldoun, un traité historique et philosophique du XIVe siècle. La première traduction française, Les Prolégomènes, est réalisée par De Slane entre 1840 et 1863. Elle est suivie de deux retraductions, à savoir Discours sur l’histoire universelle (1967- 1968) réalisée par Vincent-Mansour Monteil, et Le Livre des Exemples I : Autobiographie, La Muqaddima (2002) réalisée par Abdesselam Cheddadi. L’objet de ce mémoire est de mener une analyse contextuelle, paratextuelle et discursive de ces deux retraductions de l’œuvre monumentale d’Ibn Khaldoun, afin de dégager les principaux facteurs déterminant, dans chaque cas, le choix de retraduire. Notre approche théorique s’inscrit dans le contexte récent de remise en cause de ladite « hypothèse de la retraduction » d’Antoine Berman, qui privilégie une analyse textuelle de l’œuvre (re)traduite en négligeant quelque peu l’analyse contextuelle éclairant les conditions de production des retraductions, et en limitant le positionnement du traducteur à sa relation envers la « vérité » du texte source. Ainsi, en retraçant l’histoire des différentes éditions des Prolégomènes au XXe siècle, en exposant le contexte qui entoure les retraductions, et en nous nous attachant aux stratégies discursives déployées par les traducteurs en marge de ces dernières, nous tenons compte des réflexions récentes sur les « causalités multiples » du phénomène de la retraduction, tout en montrant comment la subjectivité du traducteur, ses décisions et ses motivations sont reliées à tous les éléments extratextuels ou contextuels mis en valeur par les théoriciens. Nous montrons par notre analyse que les deux retraductions au corpus sont motivées par des facteurs internes au texte (tels que l’authenticité de leur original, une meilleure connaissance du texte, de la langue et de la culture source, la nécessité de corriger des erreurs dans les traductions antérieures), mais aussi par de nouveaux éléments externes au texte (tels que le changement de normes sociales, littéraires et traductionnelles, l’émergence de nouvelles interprétations du texte, le positionnement idéologique du retraducteur, sa volonté de s’imposer comme une autorité, etc.). La retraduction s’avère donc un phénomène complexe motivé par une combinaison de facteurs, à la fois internes (textuels), externes (contextuels) et personnels, propres au (re)traducteur.
Resumo:
Les innovations médicales ont un impact considérable sur les pratiques cliniques, sur la formulation des politiques et sur les attentes du public envers le système de santé. Dans un contexte de système de santé public, les conséquences économiques importantes des innovations médicales freinent grandement leur adoption alors qu’elles sont souvent représentées dans les médias comme étant hautement désirables. Une telle définition de la problématique limite le débat sur ce qui rend les innovations sociales et technologiques en santé pertinentes d’un point de vue de santé des populations. Il apparaît donc intéressant de tirer profit d’une pratique communicationnelle innovante, le Café scientifique. Ce projet de recherche analyse un Café scientifique ayant mis en scène en mars 2007 un échange entre quatre experts et environ 80 membres du public autour des enjeux relatifs aux innovations en santé. Les objectifs sont : 1) analyser l’application d’une intervention de type Café scientifique; et 2) analyser ses retombées sur les participants. Cette étude de cas unique s’appuie sur des données qualitatives et quantitatives: 1) observation semi-participative; 2) enregistrement audiovisuel de l’activité; 3) questionnaires distribués à la fin de l’activité; et 4) entrevues semi-dirigées (n=11) avec des participants. L’analyse intégrée de ces données permet de mieux comprendre comment le contexte est structurant pour le débat, décrit les principaux rôles adoptés par les participants lors des échanges, identifie les principaux enjeux relatifs aux innovations médicales qui ont été débattus et dégage les dynamiques qui favorisent ou nuisent à un dialogue entre des scientifiques et le public. Le Café scientifique est une pratique encore peu répandue, mais qui suscite un intérêt à la fois chez les chercheurs et les participants.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
L’objectif de ce mémoire est de mettre en lumière la mise en forme, la réception et la transmission de 2S 7,1-17 à l’intérieur du débat qui a présentement cours autour de la rédaction deutéronomiste, ainsi que de vérifier le lien possible de ce texte avec l’évolution de la pensée théologique juive issue de l’édition deutéronomiste. Notre recherche commence par établir un texte hébreu de travail fiable grâce à la critique textuelle. L’analyse syntaxique nous permet ensuite de proposer une traduction qui soit la plus fidèle possible au texte hébreu retenu afin de mieux comprendre le sens du texte dans sa langue originale. Nous abordons, dans le troisième chapitre, la question des différentes sources littéraires ayant pu servir à la composition du texte de 2S 7,1-17. L’exploration plus détaillée de quelques pistes qui sont apparues à la suite de la critique des sources et de la réception du texte de 2S 7,1-17 par le(s) Chroniste(s), nous permet de constater qu’à l’intérieur des traditions textuelles hébraïques, la prophétie de Nathan a évolué de façon significative dans le parcours des différentes traditions de relecture. À partir des quatres étapes de recherches, nous dégageons les éléments qui pourraient être mis en lien avec les théories existantes dans le cadre de l’histoire deutéronomiste et mettons en lumière les forces et les faiblesses des solutions proposées. Les résultats de la recherche nous permettent de penser que l’intégration de la prophétie de Nathan dans la trame historique s’expliquerait par la nécessité d’éclairer une suite d’événements selon diverses perspectives théologiques. Ce n’est qu’à partir des conditions exiliques que nous aurions le texte de 2S 7,1-17 le plus tardif offrant une réflexion sur la première histoire d’Israël. Dans ce sens, la prophétie de Nathan prendrait toute sa valeur et son extension bien au-delà de la seule histoire personnelle de David ou de Salomon.
Resumo:
Mon sujet de recherche traite sur la prononciation de l'espagnol comme langue étrangère chez les élèves québécois, sur leurs difficultés concrètes et lignes de correction qui peuvent leur être attribuées. Dans une première partie plus générale, nous traiterons sur l'enseignement de la prononciation, de la place qu'elle occupe dans l'enseignement d'une langue étrangère. Nous croyons que la prononciation est un aspect de la langue qui a été mis de côté pour mettre en valeur la communication. Si une "mauvaise" prononciation n'entrave pas à la compréhension ou à la communication, elle n'est pas corrigée ni travaillée. Nous pouvons donc nous retrouver avec des étudiants ayant un haut niveau d'espagnol mais dont la prononciation connaît certaines lacunes. Nous déterminerons également ce que nous entendons par "meilleure" ou "mauvaise" prononciation, nous nous interrogerons également sur la pertinence de l'enseignement de la phonétique. Nous nous poserons aussi la question sur la place de la prononciation selon la méthodologie didactique utilisée, et analyserons la quantité et qualité des exercices de prononciation présents ou pas dans les manuels scolaires, et s'ils correspondent aux exigences des documents officiels tels le Cadre commun européenne de référence, ou le Plan curricular de l'institut Cervantès. Dans une deuxième partie nous nous questionnons sur les facteurs qui conditionnent l'apprentissage d'une langue et le perfectionnement de la prononciation dans une langue étrangère, car nous croyons que peut importe l'âge de l'étudiant, il y a toujours place à l'amélioration dans la prononciation. Nous nous interrogeons ensuite sur les tendances générales des francophones lors de leur prononciation de l'espagnol, nous ferons une étude contrastive des phonèmes espagnols et français, puis nous étudierons plus en détail les tendances des élèves québécois, car nous croyons que ces derniers sont dotés de certains atouts en comparaison à d'autres francophones. Dans une troisième partie, nous proposons des exercices visant à améliorer la prononciation chez nos élèves, et afin de vérifier l'efficacité de ces exercices, nous enregistrerons des étudiants ayant bénéficié de ces exercices, et d'autres qui n'y auront pas eu droit. Cette étude comparative cherche à prouver que ces exercices aident réellement et qu'ils, ou d'autres exercices de ce genre, devraient être inclus dans l'enseignement. Le questionnaire dont il s'agit s'attarde principalement au phénomène du [r], que nous croyons être un, ou le son le plus difficile à prononcer en espagnol (autant la vibrante simple comme multiple). Bien entendu, une partie de ce chapitre sera consacrée à l'analyse de résultats.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Cotutelle entre l’Université de Montréal et l’Université de Paris I Panthéon-Sorbonne
Resumo:
La gazéification est aujourd'hui l'une des stratégies les plus prometteuses pour valoriser les déchets en énergie. Cette technologie thermo-chimique permet une réduction de 95 % de la masse des intrants et génère des cendres inertes ainsi que du gaz de synthèse (syngaz). Le syngaz est un combustible gazeux composé principalement de monoxyde de carbone (CO), d'hydrogène (H2) et de dioxyde de carbone (CO2). Le syngaz peut être utilisé pour produire de la chaleur et de l'électricité. Il est également la pierre angulaire d'un grand nombre de produits à haute valeur ajoutée, allant de l'éthanol à l'ammoniac et l'hydrogène pur. Les applications en aval de la production de syngaz sont dictées par son pouvoir calorifique, lui-même dépendant de la teneur du gaz en H2. L’augmentation du contenu du syngaz en H2 est rendu possible par la conversion catalytique à la vapeur d’eau, largement répandu dans le cadre du reformage du méthane pour la production d'hydrogène. Au cours de cette réaction, le CO est converti en H2 et CO2 selon : CO + H2O → CO2 + H2. Ce processus est possible grâce à des catalyseurs métalliques mis en contact avec le CO et de la vapeur. La conversion catalytique à la vapeur d’eau a jusqu'ici été réservé pour de grandes installations industrielles car elle nécessite un capital et des charges d’exploitations très importantes. Par conséquent, les installations de plus petite échelle et traitant des intrants de faible qualité (biomasse, déchets, boues ...), n'ont pas accès à cette technologie. Ainsi, la seule utilisation de leur syngaz à faible pouvoir calorifique, est limitée à la génération de chaleur ou, tout au plus, d'électricité. Afin de permettre à ces installations une gamme d’application plus vaste de leurs syngaz, une alternative économique à base de catalyseur biologique est proposée par l’utilisation de bactéries hyperthermophiles hydrogénogènes. L'objectif de cette thèse est d'utiliser Carboxydothermus hydrogenoformans, une bactérie thermophile carboxydotrophe hydrogénogène comme catalyseur biologique pour la conversion du monoxyde de carbone en hydrogène. Pour cela, l’impact d'un phénomène de biominéralisation sur la production d’H2 a été étudié. Ensuite, la faisabilité et les limites de l’utilisation de la souche dans un bioréacteur ont été évaluées. Tout d'abord, la caractérisation de la phase inorganique prédominante lorsque C. hydrogenoformans est inoculé dans le milieu DSMZ, a révélé une biominéralisation de phosphate de calcium (CaP) cristallin en deux phases. L’analyse par diffraction des rayons X et spectrométrie infrarouge à transformée de Fourier de ce matériau biphasique indique une signature caractéristique de la Mg-whitlockite, alors que les images obtenues par microscopie électronique à transmission ont montré l'existence de nanotiges cristallines s’apparentant à de l’hydroxyapatite. Dans les deux cas, le mode de biominéralisation semble être biologiquement induit plutôt que contrôlé. L'impact du précipité de CaP endogène sur le transfert de masse du CO et la production d’H2 a ensuite été étudié. Les résultats ont été comparés aux valeurs obtenues dans un milieu où aucune précipitation n'est observée. Dans le milieu DSMZ, le KLa apparent (0.22 ± 0.005 min-1) et le rendement de production d’H2 (89.11 ± 6.69 %) étaient plus élevés que ceux obtenus avec le milieu modifié (0.19 ± 0.015 min-1 et 82.60 ± 3.62% respectivement). La présence du précipité n'a eu aucune incidence sur l'activité microbienne. En somme, le précipité de CaP offre une nouvelle stratégie pour améliorer les performances de transfert de masse du CO en utilisant les propriétés hydrophobes de gaz. En second lieu, la conversion du CO en H2 par la souche Carboxydothermus hydrogenoformans fut étudiée et optimisée dans un réacteur gazosiphon de 35 L. Parmi toutes les conditions opérationnelles, le paramètre majeur fut le ratio du débit de recirculation du gaz sur le débit d'alimentation en CO (QR:Qin). Ce ratio impacte à la fois l'activité biologique et le taux de transfert de masse gaz-liquide. En effet, au dessus d’un ratio de 40, les performances de conversion du CO en H2 sont limitées par l’activité biologique alors qu’en dessous, elles sont limitées par le transfert de masse. Cela se concrétise par une efficacité de conversion maximale de 90.4 ± 0.3 % et une activité spécifique de 2.7 ± 0.4 molCO·g–1VSS·d–1. Malgré des résultats prometteurs, les performances du bioréacteur ont été limitées par une faible densité cellulaire, typique de la croissance planctonique de C. hydrogenoformans. Cette limite est le facteur le plus contraignant pour des taux de charge de CO plus élevés. Ces performances ont été comparées à celles obtenues dans un réacteur à fibres creuses (BRFC) inoculé par la souche. En dépit d’une densité cellulaire et d’une activité volumétrique plus élevées, les performances du BRFC à tout le moins cinétiquement limitées quand elles n’étaient pas impactées par le transfert de masse, l'encrassement et le vieillissement de la membrane. Afin de parer à la dégénérescence de C. hydrogenoformans en cas de pénurie de CO, la croissance de la bactérie sur pyruvate en tant que seule source de carbone a été également caractérisée. Fait intéressant, en présence simultanée de pyruvate et de CO, C. hydrogenoformans n’a amorcé la consommation de pyruvate qu’une fois le CO épuisé. Cela a été attribué à un mécanisme d'inhibition du métabolisme du pyruvate par le CO, faisant ainsi du pyruvate le candidat idéal pour un système in situ de secours.
Resumo:
L’Université de Montréal célèbre en 2006 le centenaire du don de l’une de ses plus importantes collections de manuscrits et d’imprimés canadiens : la Collection Louis-François George Baby. Comptant plus de 20 000 pièces manuscrites et environ 3 400 livres rares, gravures et estampes, cette collection constitue une source inépuisable pour les chercheurs s’intéressant à de nombreux aspects de l’histoire canadienne. Cette session permettra de mieux faire connaître la Collection Baby de même que sa diffusion sur Internet aux historiens et historiennes participant à la rencontre de l’ACFAS. Nous brosserons un tableau des différents sujets couverts par la Collection et mettant en valeur les thématiques abordées dans la collection de même que le type d’instruments de recherche mis à la disposition des chercheurs.
Resumo:
En 1989, le législateur québécois a restreint la liberté contractuelle des époux en imposant à tous les couples l'obligation de partager, au jour de la dissolution matrimoniale, un certain nombre de biens à caractère familial. Selon toute vraisemblance, le législateur souhaitait endiguer les injustices économiques engendrées par le divorce des femmes mariées dans les années 40, 50 et 60 sous un régime de séparation conventionnelle de biens. En visant l'ensemble des couples, le législateur a certes atteint son but, mais au détriment de ceux qui auraient pu raisonnablement et équitablement tirer profit du contrat de mariage. Après avoir mis en relief la rigidité des principes juridiques sur la base desquels le contrat de mariage a pu autrefois s'imposer au mépris d'une justice conjugale élémentaire, l'auteur examine les législations des autres provinces canadiennes qui, de tout temps, accordent aux tribunaux le pouvoir de réviser le contenu d'un marriage contract en cas d'iniquité ou d'abus. À la lumière de ces législations et de l'interprétation qu'en a retenu la Cour suprême du Canada dans l'arrêt Hartshorne, l'auteur propose l'introduction, en droit québécois, d'un pouvoir de révision ou d'annulation judiciaire du contrat de mariage pour cause de lésion et d'imprévision, ces normes de contrôle judiciaire étant à même d'assurer un meilleur équilibre entre liberté et équité.