939 resultados para PARTITIONING
Resumo:
Thylakoid membrane fractions were prepared from specific regions of thylakoid membranes of spinach (Spinacia oleracea). These fractions, which include grana (83), stroma (T3), grana core (8S), margins (Ma) and purified stroma (Y100) were prepared using a non-detergent method including a mild sonication and aqueous two-phase partitioning. The significance of PSlla and PSII~ centres have been described extensively in the literature. Previous work has characterized two types of PSII centres which are proposed to exist in different regions of the thylakoid membrane. a-centres are suggested to aggregate in stacked regions of grana whereas ~-centres are located in unstacked regions of stroma lamellae. The goal of this study is to characterize photosystem II from the isolated membrane vesicles representing different regions of the higher plant thylakoid membrane. The low temperature absorption spectra have been deconvoluted via Gaussian decomposition to estimate the relative sub-components that contribute to each fractions signature absorption spectrum. The relative sizes of the functional PSII antenna and the fluorescence induction kinetics were measured and used to determine the relative contributions of PSlla and PSII~ to each fraction. Picosecond chlorophyll fluorescence decay kinetics were collected for each fraction to characterize and gain insight into excitation energy transfer and primary electron transport in PSlla and PSII~ centres. The results presented here clearly illustrate the widely held notions of PSII/PS·I and PSlIa/PSII~ spatial separation. This study suggests that chlorophyll fluorescence decay lifetimes of PSII~ centres are shorter than those of PSlIa centres and, at FM, the longer lived of the two PSII components renders a larger yield in PSlIa-rich fractions, but smaller in PSIlr3-rich fractions.
Resumo:
The manipulation of large (>10 kb) plasmid systems amplifies problems common to traditional cloning strategies. Unique or rare restriction enzyme recognition sequences are uncommon and very rarely located in opportunistic locations. Making site-specific deletions and insertions in larger plasmids consequently leads to multiple step cloning strategies that are often limited by time-consuming, low efficiency linker insertions or blunt-end cloning strategies. Manipulation ofthe adenovirus genome and the genomes ofother viruses as bacterial plasmids are systems that typify such situations. Recombinational cloning techniques based on homologous recombination in Saccharomyces cerevisiae that circumvent many ofthese common problems have been developed. However, these techniques are rarely realistic options for such large plasmid systems due to the above mentioned difficulties associated with the addition ofrequired yeast DNA replication, partitioning and selectable marker sequences. To determine ifrecombinational cloning techniques could be modified to simplify the manipulation of such a large plasmid system, a recombinational cloning system for the creation of human adenovirus EI-deletion rescue plasmids was developed. Here we report for the first time that the 1,456 bp TRP1/ARS fragment ofYRp7 is alone sufficient to foster successful recombinational cloning without additional partitioning sequences, using only slight modifications of existing protocols. In addition, we describe conditions for efficient recombinational cloning involving simultaneous deletion of large segments ofDNA (>4.2 kb) and insertion of donor fragment DNA using only a single non-unique restriction site. The discovery that recombinational cloning can foster large deletions has been used to develop a novel recombiliational cloillng technique, selectable inarker 'kilockouf" recombinational cloning, that uses deletion of a yeast selectable marker coupled with simultaneous negative and positive selection to reduce background transformants to undetectable levels. The modification of existing protocols as described in this report facilitates the use of recombinational cloning strategies that are otherwise difficult or impractical for use with large plasmid systems. Improvement of general recombinational cloning strategies and strategies specific to the manipulation ofthe adenovirus genome are considered in light of data presented herein.
Resumo:
We developed the concept of split-'t to deal with the large molecules (in terms of the number of electrons and nuclear charge Z). This naturally leads to partitioning the local energy into components due to each electron shell. The minimization of the variation of the valence shell local energy is used to optimize a simple two parameter CuH wave function. Molecular properties (spectroscopic constants and the dipole moment) are calculated for the optimized and nearly optimized wave functions using the Variational Quantum Monte Carlo method. Our best results are comparable to those from the single and double configuration interaction (SDCI) method.
Resumo:
In Part I, theoretical derivations for Variational Monte Carlo calculations are compared with results from a numerical calculation of He; both indicate that minimization of the ratio estimate of Evar , denoted EMC ' provides different optimal variational parameters than does minimization of the variance of E MC • Similar derivations for Diffusion Monte Carlo calculations provide a theoretical justification for empirical observations made by other workers. In Part II, Importance sampling in prolate spheroidal coordinates allows Monte Carlo calculations to be made of E for the vdW molecule var He2' using a simplifying partitioning of the Hamiltonian and both an HF-SCF and an explicitly correlated wavefunction. Improvements are suggested which would permit the extension of the computational precision to the point where an estimate of the interaction energy could be made~
Resumo:
Soybean (Glycine ~ (L.) Merr. cv. Harosoy 63) plants inoculated with Rhizobium japonicum were grown in vermiculite in the presence or absence of nitrate fertilization for up to 6 weeks after planting. Overall growth of nodulated plants was enhanced in the presence of nitrate fertilization, while the extent of nodule development was reduced. Although the number of nodules was not affected by nitrate fertilization when plants were grown at a light intensity limiting for photosynthesis, at light intensities approaching or exceeding the light saturation point for photosynthesis, nitrate fertilization resulted in at least a 30% reduction in nodule numbers. The mature, first trifoliate leaf of 21 day old plants was allowed to photoassimi1ate 14C02. One hour after·· the initial exposure to 14C02, the , plants were harvested and the 14C radioactivity was determined in the 80% ethanol-soluble fraction: in. o:rider to assess· "the extent of photoassimilate export and the pattern of distribution of exported 14C. The magnitude of 14C export was not affected by the presence of nitrate fertilization. However, there was a significant effect on the distribution pattern, particularly with regard to the partitioning of 14C-photosynthate between the nodules and the root tissue. In the presence of nitrate fertilization, less than 6% of the exported 14C photosynthate was recovered from the nodules, with much larger amounts (approximately 37%) being recovered from the root tissue. In the absence of nitrate fertilization, recovery of exported 14C-photosynthate from the nodules (19 to 27%) was approximately equal to that from the root tissue (24 to 33%). By initiating- or terminating the applications of nitrate at 14 days of age, it was determined that the period from day 14 to day 21 after planting was particularly significant for the development of nodules initiated earlier. Addition of nitrate fertilization at this time inhibited further nodule development while stimulating plant growth, whereas removal of nitrate fertilization stimulated nodule development. The results obtained are consistent with the hypothesis that nodule development is inhibited by nitrate fertilization through a reduction in the availability of photosynthate to the nodules.
Resumo:
Diatoms are renowned for their robust ability to perform NPQ (Non-Photochemical Quenching of chlorophyll fluorescence) as a dissipative response to heightened light stress on photosystem II, plausibly explaining their dominance over other algal groups in turbulent light environs. Their NPQ mechanism has been principally attributed to a xanthophyll cycle involving the lumenal pH regulated reversible de-epoxidation of diadinoxanthin. The principal goal of this dissertation is to reveal the physiological and physical origins and consequences of the NPQ response in diatoms during short-term transitions to excessive irradiation. The investigation involves diatom species from different originating light environs to highlight the diversity of diatom NPQ and to facilitate the detection of core mechanisms common among the diatoms as a group. A chiefly spectroscopic approach was used to investigate NPQ in diatom cells. Prime methodologies include: the real time monitoring of PSII excitation and de-excitation pathways via PAM fluorometry and pigment interconversion via transient absorbance measurements, the collection of cryogenic absorbance spectra to measure pigment energy levels, and the collection of cryogenic fluorescence spectra and room temperature picosecond time resolved fluorescence decay spectra to study excitation energy transfer and dissipation. Chemical inhibitors that target the trans-thylakoid pH gradient, the enzyme responsible for diadinoxanthin de-epoxidation, and photosynthetic electron flow were additionally used to experimentally manipulate the NPQ response. Multifaceted analyses of the NPQ responses from two previously un-photosynthetically characterised species, Nitzschia curvilineata and Navicula sp., were used to identify an excitation pressure relief ‘strategy’ for each species. Three key areas of NPQ were examined: (i) the NPQ activation/deactivation processes, (ii) how NPQ affects the collection, dissipation, and usage of absorbed light energy, and (iii) the interdependence of NPQ and photosynthetic electron flow. It was found that Nitzschia cells regulate excitation pressure via performing a high amplitude, reversible antenna based quenching which is dependent on the de-epoxidation of diadinoxanthin. In Navicula cells excitation pressure could be effectively regulated solely within the PSII reaction centre, whilst antenna based, diadinoxanthin de-epoxidation dependent quenching was implicated to be used as a supplemental, long-lasting source of excitation energy dissipation. These strategies for excitation balance were discussed in the context of resource partitioning under these species’ originating light climates. A more detailed investigation of the NPQ response in Nitzschia was used to develop a comprehensive model describing the mechanism for antenna centred non-photochemical quenching in this species. The experimental evidence was strongly supportive of a mechanism whereby: an acidic lumen triggers the diadinoxanthin de-epoxidation and protonation mediated aggregation of light harvesting complexes leading to the formation of quencher chlorophyll a-chlorophyll a dimers with short-lived excited states; quenching relaxes when a rise in lumen pH triggers the dispersal of light harvesting complex aggregates via deprotonation events and the input of diadinoxanthin. This model may also be applicable for describing antenna based NPQ in other diatom species.
Resumo:
Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.
Resumo:
L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
La recherche porte sur les patrons de distribution longitudinale (amont-aval) et transversale (rive nord - rive sud) des communautés de crustacés planctoniques qui ont été analysés le long du fleuve Saint-Laurent entre le lac Saint-François et la zone de transition estuarienne, à deux hydropériodes en mai (crue) et en août (étiage). Les données zooplanctoniques et environnementales ont été récoltées à 52 stations réparties sur 16 transects transversaux en 2006. Au chapitre 1, nous présentons les principaux modèles écosystémiques en rivière, une synthèse des facteurs influençant le zooplancton en rivières et les objectifs et hypothèses de recherche. Au chapitre 2, nous décrivons la structure des communautés de zooplancton dans trois zones biogéographiques du fleuve et 6 habitats longitudinaux, ainsi que les relations entre la structure du zooplancton et la distribution spatiale des masses d’eau et les variables environnementales. Au chapitre 3, nous réalisons une partition de la variation des variables spatiales AEM (basées sur la distribution des masses d’eau) et des variables environnementales pour évaluer quelle part de la variation du zooplancton est expliquée par les processus hydrologiques (variables AEM) et les conditions locales (facteurs environnementaux). Le gradient salinité-conductivité relié à la discontinuité fleuve-estuaire a déterminé la distribution à grande échelle du zooplancton. Dans les zones fluviales, la distribution du zooplancton est davantage influencée par la distribution des masses d’eau que par les facteurs environnementaux locaux. La distribution des masses d’eau explique une plus grande partie de la variation dans la distribution du zooplancton en août qu’en mai.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Le centromère est le site chromosomal où le kinetochore se forme, afin d’assurer une ségrégation fidèles des chromosomes et ainsi maintenir la ploïdie appropriée lors de la mitose. L’identité du centromere est héritée par un mécanisme épigénétique impliquant une variante de l’histone H3 nommée centromere protein-A (CENP-A), qui remplace l’histone H3 au niveau de la chromatine du centromère. Des erreurs de propagation de la chromatine du centromère peuvent mener à des problèmes de ségrégation des chromosomes, pouvant entraîner l’aneuploïdie, un phénomène fréquemment observé dans le cancer. De plus, une expression non-régulée de CENP-A a aussi été rapportée dans différentes tumeurs humaines. Ainsi, plusieurs études ont cherchées à élucider la structure et le rôle de la chromatine contenant CENP-A dans des cellules en prolifération. Toutefois, la nature moléculaire de CENP-A en tant que marqueur épigénétique ainsi que ces dynamiques à l'extérieur du cycle cellulaire demeurent des sujets débat. Dans cette thèse, une nouvelle méthode de comptage de molécules uniques à l'aide de la microscopie à réflexion totale interne de la fluorescence (TIRF) sera décrite, puis exploitée afin d'élucider la composition moléculaire des nucléosomes contenant CENP-A, extraits de cellules en prolifération. Nous démontrons que les nucléosomes contenant CENP-A marquent les centromères humains de façon épigénétique à travers le cycle cellulaire. De plus, nos données démontrent que la forme prénucléosomale de CENP-A, en association avec la protéine chaperon HJURP existe sous forme de monomère et de dimère, ce qui reflète une étape intermédiaire de l'assemblage de nucléosomes contenant CENP-A. Ensuite, des analyses quantitatives de centromères lors de différenciation myogénique, et dans différents tissus adultes révèlent des changements globaux qui maintiennent la marque épigénétique dans une forme inactive suite à la différentiation terminale. Ces changements incluent une réduction du nombre de points focaux de CENP-A, un réarrangement des points dans le noyau, ainsi qu'une réduction importante de la quantité de CENP-A. De plus, nous démontrons que lorsqu'une dédifférenciation cellulaire est induite puis le cycle cellulaire ré-entamé, le phénotype "différencié" décrit ci-haut est récupéré, et les centromères reprennent leur phénotype "prolifératif". En somme, cet oeuvre décrit la composition structurale sous-jacente à l'identité épigénétique des centromères de cellules humaines lors du cycle cellulaire, et met en lumière le rôle de CENP-A à l'extérieur du cycle cellulaire.
Resumo:
Ce mémoire visait à comprendre la dynamique temporelle et les patrons floristiques actuels de deux tourbières du sud-ouest du Québec (Small et Large Tea Field) et à identifier les facteurs anthropiques, environnementaux et spatiaux sous-jacents. Pour répondre aux objectifs, des inventaires floristiques anciens (1985) ont d’abord été comparés à des inventaires récents (2012) puis les patrons actuels et les facteurs sous-jacents ont été identifiés à l’aide d’analyses multi-variables. Mes résultats montrent d’abord qu’un boisement important s’est produit au cours des 30 dernières années dans les tourbières à l’étude, probablement en lien avec le drainage des terres agricoles avoisinantes, diminuant la hauteur de la nappe phréatique. Simultanément, les sphaignes ont proliférées dans le centre des sites s’expliquant par une recolonisation des secteurs ayant brûlés en 1983. D’autre part, mes analyses ont montré que les patrons floristiques actuels étaient surtout liés aux variables environnementales (pH et conductivité de l’eau, épaisseur des dépôts), bien que la variance associée aux activités humaines était aussi significative, notamment dans la tourbière Large (18.6%). Les patrons floristiques ainsi que les variables environnementales et anthropiques explicatives étaient aussi fortement structurés dans l’espace, notamment selon un gradient bordure-centre. Enfin, la diversité béta actuelle était surtout liée à la présence d’espèces non-tourbicoles ou exotiques. Globalement, cette étude a montré que les perturbations humaines passées et actuelles avaient un impact important sur la dynamique et la distribution de la végétation des tourbières Small et Large Tea Field.