895 resultados para Dwellings--Maintenance and repair
Resumo:
Le glioblastome multiforme (GBM) est la tumeur cérébrale la plus commune et létale chez l’adulte. Malgré les avancés fulgurantes dans la dernière décennie au niveau des thérapies contre le cancer, le pronostique reste inchangé. Le manque de spécificité des traitements est la cause première de la récurrence de cette tumeur. Une meilleure compréhension au niveau des mécanismes moléculaires et biologiques de cette tumeur est impérative. La découverte des cellules souches cancéreuses (CD133+) au niveau du GBM offre une nouvelle opportunité thérapeutique contre cette tumeur. Effectivement, les cellules CD133+ seraient responsables de l’établissement, le maintien et la progression du GBM. De plus, elles sont également la cause de la résistance du GBM faces aux traitements de radiothérapies. Ces cellules représentent une cible de choix dans le but d’éradiquer le GBM. L’oncogène BMI1 a été associé à plusieurs types de tumeurs et est également essentielle au maintien de différentes populations de cellules souches normales et cancéreuses. Une forte expression de BMI1 est observée au niveau du GBM et plus précisément, un enrichissement préférentiel de cette protéine est noté au niveau des cellules CD133+. L’objectif principal de cette thèse est d’évaluer le rôle potentiel de BMI1 dans le maintien et la radiorésistance des cellules souches cancéreuses (CSC), CD133+ du GBM. La fonction principale de BMI1 est la régulation négative du locus INK4A/ARF. Ce locus est impliqué dans l’activation de deux voies majeurs anti-tumorales : P53 et RB. Or, la perte de BMI1 induit in vitro une diminution des capacités prolifératives, une augmentation de la différentiation et de l’apoptose, ainsi qu’une augmentation de la radiosensibilité des CSC du GBM indépendamment de la présence du locus INK4A/ARF. Effectivement, deux tumeurs sur trois possèdent une délétion de ce locus, ce qui suggère que BMI1 possède d’autre(s) cible(s) transcriptionnelle(s). Parmi ces nouvelles cibles ont retrouve la protéine P21, un régulateur négatif du cycle cellulaire. De plus, la perte de BMI1 inhibe l’établissement d’une tumeur cérébrale lors d’études de xénogreffe chez la souris NOD/SCID. Également, une nouvelle fonction de BMI1 indépendante de son activité transcriptionnel a été démontrée. Effectivement, suite à l’induction d’un bris double brin (BDB) de l’ADN, BMI1 est rapidement recruté au niveau de la lésion et influence le recrutement des protéines de reconnaissance du dommage à l’ADN. La perte de BMI1 mène à un défaut au niveau de la reconnaissance et la réparation de l’ADN, alors que sa surexpression induit plutôt une augmentation de ces mécanismes et procure une radiorésistance. Ces résultats décrivent pour la première fois l’importance de BMI1 au niveau du maintien, de l’auto-renouvellement et la radiorésistance des CSC du GBM. Ainsi, ces travaux démontrent que la protéine BMI1 représente une cible thérapeutique de choix dans le but d’éradiquer le GBM, une tumeur cérébrale létale.
Resumo:
Le long bio-polymère d'ADN est condensé à l’intérieur du noyau des cellules eukaryotes à l'aide de petites protéines appelées histones. En plus de leurs fonctions condensatrices,ces histones sont également la cible de nombreuses modifications post-traductionnelles(MPT), particulièrement au niveau de leur section N-terminale. Ces modifications réversibles font partie d’un code d’histones épi-génétique transmissible qui orchestre et module dynamiquement certains événements impliquant la chromatine, tels l’activation et la désactivation de gènes ainsi que la duplication et la réparation d’ADN. Ces modifications sont impliquées subséquemment dans la signalisation et la progression de cancers, tels que la leucémie. En conséquence, l'élucidation des modifications d’histones est importante pour comprendre leurs fonctions biologiques. Une méthodologie analytique a été mise au point en laboratoire pour isoler, détecter, et quantifier les MPT d’histones en utilisant une approche rapide à deux volets à l’aide d’outils bioinformatiques spécialisés. La méthodologie développée en laboratoire a été validée en utilisant des histones de souche sauvage ainsi que deux types d’histones mutants déficients en enzymes acétyltransferase. Des trois sources d’histones utilisées, la seule MPT qui a démontré un changement significatif est l’acétylation de l’histone H3 à lysine 56 (H3K56ac). L’expression et la stoechiométrie de cette MPT, issue de cellules de souche sauvage et de cellules mutantes, ont été déterminées avec précision et comparées. Les fonctions de balayage polyvalentes d'un instrument à trappe ionique quadrupôle linéaire hybride ont été utilisées pour améliorer la détection de protéines intactes. Le mode de balayage « enhanced multiply charged » (EMC) a été modifié pour contenir et détecter les ions de protéines intactes situées dans la trappe ionique linéaire. Ce mode de balayage nommé « targeted EMC » (tEMC) a permis de quadrupler le niveau de sensibilité (signal/interférence), et quintupler la résolution du mode de balayage conventionnel. De plus, la capacité de séparation des charges du tEMC a réduit de façon significative les effets de « space charge » dans la trappe ionique linéaire. La résolution supérieure du mode tEMC a permis de différencier plusieurs isoformes modifiées, particulièrement pour l’histone H3. L’analyse des peptides d’histones trypsiques à l’aide du mode de balayage « MRM » a permis le séquençage et la quantification de MPT avec un haut degré de précision. La seule MPT qui était sous-exprimée entre l’histone de souche sauvage et le mutant DOT1L fut la méthylation de l’histone H3 lysine 79(H3K79me1). Les effets de deux inhibiteurs d’enzymes HDAC (HDACi) sur l’expression de MPT d’histone ont été évalués en utilisant la méthodologie analytique mentionnée. Les histones extraites de cellules normales et cancéreuses ont été exposées à du Vorinostat(SAHA) ou du Entinostat (MS-275) pour une période de 24 à 72 heures. Deux histones furent principalement affectées, soit H3 et H4. Étonnamment, les mêmes effets n'ont pas été détectés lorsque les cellules normales ont été traitées avec le HDACi pour une période de 48 à 72 heures. Une méthode absolue de quantification avec une courbe d’étalonnage a été développée pour le peptide H3K56ac. Contrairement à certaines publications, nos résultats démontrent que cette MPT est présente dans les cellules mammifères avec une stoechiométrie très basse (< 0,1%) et n'est pas surexprimée de façon significative après le traitement au HDACi.
Resumo:
L'assemblage des nucléosomes est étroitement couplée à la synthèse des histones ainsi qu’à la réplication et la réparation de l’ADN durant la phase S. Ce processus implique un mécanisme de contrôle qui contribue soigneusement et de manière régulée à l’assemblage de l’ADN en chromatine. L'assemblage des nucléosomes durant la synthèse de l’ADN est crucial et contribue ainsi au maintien de la stabilité génomique. Cette thèse décrit la caractérisation par spectrométrie de masse(SM) des protéines jouant un rôle critique dans l’assemblage et le maintien de la structure chromatinienne. Plus précisément, la phosphorylation de deux facteurs d’assemblage des nucléosome, le facteur CAF-1, une chaperone d’histone qui participe à l'assemblage de la chromatine spécifiquement couplée à la réplication de l'ADN, ainsi que le complexe protéique Hir, jouant de plus un rôle important dans la régulation transcriptionelle des gènes d’histones lors de la progression normale du cycle cellulaire et en réponse aux dommages de l'ADN, a été examiné. La caractérisation des sites de phosphorylation par SM nécéssite la séparation des protéines par éléctrophorèse suivi d’une coloration a l’argent. Dans le chapitre 2, nous demontrons que la coloration à l’argent induit un artéfact de sulfatation. Plus précisément, cet artéfact est causé par un réactif spécifiquement utilisé lors de la coloration. La sulfatation présente de fortes similitudes avec la phosphorylation. Ainsi, l’incrément de masse observé sur les peptides sulfatés et phosphorylés (+80 Da) nécéssite des instruments offrant une haute résolution et haute précision de masse pour différencier ces deux modifications. Dans les chapitres 3 et 4, nous avons d’abord démontré par SM que Cac1, la plus grande sous-unité du facteur CAF-1, est cible de plusieurs sites de phosphorylation. Fait intéréssant, certains de ces sites contiennent des séquences consensus pour les kinases Cdc7-Dbf4 et CDKs. Ainsi, ces résultats fournissent les premières évidences que CAF-1 est potentiellement régulé par ces deux kinases in vivo. La fonction de tous les sites de phosphorylation identifiés a ensuite été évaluée. Nous avons démontré que la phosphorylation de la Ser-503, un site consensus de la DDK, est essentielle à la répréssion transcriptionelle des gènes au niveau des télomères. Cependant, cette phosphorylation ne semble pas être nécéssaire pour d’autres fonctions connues de CAF-1, indiquant que le blocage de la phsophorylation de Cac1 Ser-503 affecte spécifiquement la fonction de CAF-1 aux structures hétérochromatiques des télomères. Ensuite, nous avons identifiés une intéraction physique entre CAF-1 et Cdc7-Dbf4. Des études in vitro ont également demontré que cette kinase phosphoryle spécifiquement Cac1 Ser-503, suggérant un rôle potential pour la kinase Cdc7-Dbf4 dans l’assemblage et la stabilité de la structure hétérochromatique aux télomères. Finalement, les analyses par SM nous ont également permi de montrer que la sous-unité Hpc2 du complexe Hir est phosphorylée sur plusieurs sites consensus des CDKs et de Cdc7-Dbf4. De plus, la quantification par SM d’un site spécifique de phosphorylation de Hpc2, la Ser-330, s’est révélée être fortement induite suite à l’activation du point de contrôle de réplication (le “checkpoint”) suite au dommage a l’ADN. Nous montrons que la Ser-330 de Hpc2 est phopshorylée par les kinases de point de contrôle de manière Mec1/Tel1- et Rad53-dépendante. Nos données préliminaires suggèrent ainsi que la capacité du complex Hir de réguler la répréssion transcriptionelle des gènes d'histones lors de la progression du cycle cellulaire normal et en réponse au dommage de l'ADN est médiée par la phosphorylation de Hpc2 par ces deux kinases. Enfin, ces deux études mettent en évidence l'importance de la spectrométrie de masse dans la caractérisation des sites de phosphorylation des protéines, nous permettant ainsi de comprendre plus précisement les mécanismes de régulation de l'assemblage de la chromatine et de la synthèse des histones.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Durant le vieillissement, l’ensemble des fonctions de l’organisme se détériore, que ce soit aussi bien au niveau moteur que cognitif. Le vieillissement s’accompagne d’une diminution de la force, ainsi que de la masse musculaire. Des études récentes tendent à montrer que cette perte de masse musculaire que l’on appelle sarcopénie aurait pour origine un dérèglement de la jonction neuromusculaire. Les changements au niveau du présynaptique et du post synaptiques lors du vieillissement normal font l’objet de plusieurs études, mais les changements relatifs aux cellules de Schwann périsynaptique sont très peu connus. Le but de cette étude est donc d’analyser les modifications des interactions neurone-glie à la jonction neuromusculaire. Dans cette étude, nous montrons que certaines fonctions des cellules gliales de la synapse âgée sont déréglées, en particulier, le type de récepteurs activés par une stimulation nerveuse à haute fréquence. D’autre part, nos résultats montrent que les mécanismes responsables de l’augmentation de la transmission synaptique suite à cette stimulation nerveuse à haute fréquence sont altérés à la synapse âgée. Enfin, outre les modifications de la terminaison axonale et de la fibre musculaire, les cellules gliales montrent des signes de réorganisation structurelle propre à une synapse en réparation. Ces résultats montrent que le fonctionnement de la jonction neuromusculaire et a fortiori les interactions neurones-glie sont altérées lors du vieillissement normal.
Resumo:
Les membres de la famille SMC (Structural Maintenance of Chromosomes), présents dans tous les domaines de la vie, sont impliqués dans des processus allant de la cohésion des chromatides-sœurs jusqu’à la réparation de l’ADN. Chacun des membres de cette famille, composée de 6 membres (Smc1 à Smc6), s’associe avec un autre membre ainsi qu’à des sous-unités non-SMC pour former 3 complexes : cohésine, condensine et Smc5-6. L’implication du complexe Smc5-6 dans plusieurs aspects du maintien de l’intégrité génomique est bien démontrée. Néanmoins, une question fondamentale concernant ce complexe demeure encore sans réponse: comment peut-il être impliqué dans autant d’aspects de la vie d’une cellule? Encore à ce jour, il est difficile de répondre à cette question en raison du manque d’information disponible au sujet des activités biochimiques de ce complexe. C’est pourquoi l’objectif de ce travail consiste en la caractérisation biochimique du complexe Smc5-6. La biochimie de cohésine et condensine suggère diverses possibilités en ce qui a trait aux activités biochimiques du complexe Smc5-6. La première étape de mon projet fut donc d’élaborer une procédure pour la purification de Smc5 et Smc6 après surexpression en levure. Après plusieurs expériences, il apparut clair que les deux protéines possèdent une activité de liaison à l’ADN simple brin (ADNsb) ainsi qu’à l’ADN double brins (ADNdb) et que, même si les protéines peuvent se lier aux deux types d’ADN, elles possèdent une plus grande affinité pour l’ADNsb. De plus, ces expériences permirent de démontrer que l’interaction entre Smc5 ou Smc6 et l’ADNsb est très stable, alors que l’interaction avec l’ADNdb ne l’est pas. Suite à l’obtention de ces résultats, la seconde étape fut la détermination de la ou des partie(s) de Smc5 et Smc6 permettant la liaison à l’ADN. Pour répondre à cette question, une dissection moléculaire fut réalisée, suivi d’une caractérisation des différents domaines constituants Smc5 et Smc6. De cette façon, il fut possible de démontrer qu’il existe deux sites de liaison à l’ADN sur Smc5 et Smc6 ; le premier site se trouvant dans le domaine «hinge» ainsi que dans la région adjacente du domaine «coiled-coil» et le second au niveau de la tête ATPase des deux protéines. Bien que les deux domaines puissent lier l’ADNsb, il fut démontré qu’une différence majeure existe au niveau de leur affinité pour ce type d’ADN. En effet, le domaine «hinge» possède une affinité plus forte pour l’ADNsb que la tête ATPase. De plus, cette dernière est incapable de lier l’ADNdb alors que le domaine «hinge» le peut. L’identification des sites de liaison à l’ADN sur Smc5 et Smc6 permettra de créer de nouveaux mutants possédant un défaut dans la liaison à l’ADN. Ainsi, l’étude du complexe Smc5-6 durant la réparation de l’ADN in vivo sera facilité.
Resumo:
One of the fastest expanding areas of computer exploitation is in embedded systems, whose prime function is not that of computing, but which nevertheless require information processing in order to carry out their prime function. Advances in hardware technology have made multi microprocessor systems a viable alternative to uniprocessor systems in many embedded application areas. This thesis reports the results of investigations carried out on multi microprocessors oriented towards embedded applications, with a view to enhancing throughput and reliability. An ideal controller for multiprocessor operation is developed which would smoothen sharing of routines and enable more powerful and efficient code I data interchange. Results of performance evaluation are appended.A typical application scenario is presented, which calls for classifying tasks based on characteristic features that were identified. The different classes are introduced along with a partitioned storage scheme. Theoretical analysis is also given. A review of schemes available for reducing disc access time is carried out and a new scheme presented. This is found to speed up data base transactions in embedded systems. The significance of software maintenance and adaptation in such applications is highlighted. A novel scheme of prov1d1ng a maintenance folio to system firmware is presented, alongwith experimental results. Processing reliability can be enhanced if facility exists to check if a particular instruction in a stream is appropriate. Likelihood of occurrence of a particular instruction would be more prudent if number of instructions in the set is less. A new organisation is derived to form the basement for further work. Some early results that would help steer the course of the work are presented.
Resumo:
Refiners today operate their equipment for prolonged periods without shutdown. This is primarily due to the increased pressures of the market resulting in extended shutdown-to-shutdown intervals. This places extreme demands on the reliability of the plant equipment. The traditional methods of reliability assurance, like Preventive Maintenance, Predictive Maintenance and Condition Based Maintenance become inadequate in the face of such demands. The alternate approaches to reliability improvement, being adopted the world over are implementation of RCFA programs and Reliability Centered Maintenance. However refiners and process plants find it difficult to adopt this standardized methodology of RCM mainly due to the complexity and the large amount of analysis that needs to be done, resulting in a long drawn out implementation, requiring the services of a number of skilled people. These results in either an implementation restricted to only few equipment or alternately, one that is non-standard. The paper presents the current models in use, the core requirements of a standard RCM model, the alternatives to classical RCM, limitations in the existing model, classical RCM and available alternatives to RCM and will then go on to present an ‗Accelerated‘ approach to RCM implementation, that, while ensuring close conformance to the standard, does not place a large burden on the implementers
Resumo:
One of the objectives of the current investigation was to evaluate the effectiveness of Spirodela polyrhiza to remove heavy metals and other contaminants from the water samples collected from wetland sites of Eloor and Kannamaly under controlled conditions .The results obtained from the current study suggest that the test material S. polyrrhiza should be used in the biomonitoring and phytoremediation of municipal, agricultural and industrial effluents because of their simplicity, sensitivity and cost-effectiveness. The study throws light on the potential of this plant which can be used as an assessment tool in two diverse wetland in Ernakulum district. The results show the usefulness of combining physicochemical analysis with bioassays as such approach ensures better understanding of the toxicity of chemical pollutants and their influence on plant health. The results shows the suitability of Spirodela plant for surface water quality assessment as all selected parameters showed consistency with respect to water samples collected over a 3-monitoring periods. Similarly the relationship between the change in exposure period (2, 4 and 8 days) with the parameters were also studied in detail. Spirodela are consistent test material as they are homogeneous plant material; due to predominantly vegetative reproduction. New fronds are formed by clonal propagation thus, producing a population of genetically homogeneous plants. The result is small variability between treated individuals. It has been observed that phytoremediation of water samples collected from Eloor and Kannamaly using the floating plant system is a predominant method which is economic to construct, requires little maintenance and eco friendly.
Resumo:
Urban and peri-urban agriculture (UPA) increasingly supplies food and non-food values to the rapidly growing West African cities. However, little is known about the resource use efficiencies in West African small-scale UPA crop and livestock production systems, and about the benefits that urban producers and retailers obtain from the cultivation and sale of UPA products. To contribute to filling this gap of knowledge, the studies comprising this doctoral thesis determined nutrient use efficiencies in representative urban crop and livestock production system in Niamey, Niger, and investigated potential health risks for consumers. Also assessed was the economic efficiency of urban farming activities. The field study, which was conducted during November 2005 to January 2008, quantified management-related horizontal nutrient flows in 10 vegetable gardens, 9 millet fields and 13 cattle and small ruminant production units. These farms, selected on the basis of a preceding study, represented the diversity of UPA crop and livestock production systems in Niamey. Based on the management intensity, the market orientation and especially the nutrient input to individual gardens and fields, these were categorized as high or low input systems. In the livestock study, high and low input cattle and small ruminant units were differentiated based on the amounts of total feed dry matter offered daily to the animals at the homestead. Additionally, economic returns to gardeners and market retailers cultivating and selling amaranth, lettuce, cabbage and tomato - four highly appreciated vegetables in Niamey were determined during a 6-months survey in forty gardens and five markets. For vegetable gardens and millet fields, significant differences in partial horizontal nutrient balances were determined for both management intensities. Per hectare, average annual partial balances for carbon (C), nitrogen (N), phosphorus (P) and potassium (K) amounted to 9936 kg C, 1133 kg N, 223 kg P and 312 kg K in high input vegetable gardens as opposed to 9580 kg C, 290 kg N, 125 kg P and 351 kg K in low input gardens. These surpluses were mainly explained by heavy use of mineral fertilizers and animal manure to which irrigation with nutrient rich wastewater added. In high input millet fields, annual surpluses of 259 kg C ha-1, 126 kg N ha-1, 20 kg P ha-1 and 0.4 kg K ha-1 were determined. Surpluses of 12 kg C ha-1, 17 kg N ha-1, and deficits of -3 kg P ha-1 and -3 kg K ha-1 were determined for low input millet fields. Here, carbon and nutrient inputs predominantly originated from livestock manure application through corralling of sheep, goats and cattle. In the livestock enterprises, N, P and K supplied by forages offered at the farm exceeded the animals’ requirements for maintenance and growth in high and low input sheep/goat as well as cattle units. The highest average growth rate determined in high input sheep/goat units was 104 g d-1 during the cool dry season, while a maximum average gain of 70 g d-1 was determined for low input sheep/goat units during the hot dry season. In low as well as in high input cattle units, animals lost weight during the hot dry season, and gained weight during the cool dry season. In all livestock units, conversion efficiencies for feeds offered at the homestead were rather poor, ranging from 13 to 42 kg dry matter (DM) per kg live weight gain (LWG) in cattle and from 16 to 43 kg DM kg-1 LWG in sheep/goats, pointing to a substantial waste of feeds and nutrients. The economic assessment of the production of four high value vegetables pointed to a low efficiency of N and P use in amaranth and lettuce production, causing low economic returns for these crops compared to tomato and cabbage to which inexpensive animal manure was applied. The net profit of market retailers depended on the type of vegetable marketed. In addition it depended on marketplace for amaranth and lettuce, and on season and marketplace for cabbage and tomato. Analysis of faecal pathogens in lettuce irrigated with river water and fertilized with animal manure indicated a substantial contamination by Salmonella spp. with 7.2 x 104 colony forming units (CFU) per 25 g of produce fresh matter, while counts of Escherichia coli averaged 3.9 x 104 CFU g-1. In lettuce irrigated with wastewater, Salmonella counts averaged 9.8 x 104 CFU 25 g-1 and E. coli counts were 0.6 x 104 CFU g-1; these values exceeded the tolerable contamination levels in vegetables of 10 CFU g-1 for E. coli and of 0 CFU 25 g-1 for Salmonella. Taken together, the results of this study indicate that Niamey’s UPA enterprises put environmental safety at risk since excess inputs of N, P and K to crop and livestock production units favour N volatilisation and groundwater pollution by nutrient leaching. However, more detailed studies are needed to corroborate these indications. Farmers’ revenues could be significantly increased if nutrient use efficiency in the different production (sub)systems was improved by better matching nutrient supply through fertilizers and feeds with the actual nutrient demands of plants and animals.
Resumo:
All intelligence relies on search --- for example, the search for an intelligent agent's next action. Search is only likely to succeed in resource-bounded agents if they have already been biased towards finding the right answer. In artificial agents, the primary source of bias is engineering. This dissertation describes an approach, Behavior-Oriented Design (BOD) for engineering complex agents. A complex agent is one that must arbitrate between potentially conflicting goals or behaviors. Behavior-oriented design builds on work in behavior-based and hybrid architectures for agents, and the object oriented approach to software engineering. The primary contributions of this dissertation are: 1.The BOD architecture: a modular architecture with each module providing specialized representations to facilitate learning. This includes one pre-specified module and representation for action selection or behavior arbitration. The specialized representation underlying BOD action selection is Parallel-rooted, Ordered, Slip-stack Hierarchical (POSH) reactive plans. 2.The BOD development process: an iterative process that alternately scales the agent's capabilities then optimizes the agent for simplicity, exploiting tradeoffs between the component representations. This ongoing process for controlling complexity not only provides bias for the behaving agent, but also facilitates its maintenance and extendibility. The secondary contributions of this dissertation include two implementations of POSH action selection, a procedure for identifying useful idioms in agent architectures and using them to distribute knowledge across agent paradigms, several examples of applying BOD idioms to established architectures, an analysis and comparison of the attributes and design trends of a large number of agent architectures, a comparison of biological (particularly mammalian) intelligence to artificial agent architectures, a novel model of primate transitive inference, and many other examples of BOD agents and BOD development.
Resumo:
Grass-based diets are of increasing social-economic importance in dairy cattle farming, but their low supply of glucogenic nutrients may limit the production of milk. Current evaluation systems that assess the energy supply and requirements are based on metabolisable energy (ME) or net energy (NE). These systems do not consider the characteristics of the energy delivering nutrients. In contrast, mechanistic models take into account the site of digestion, the type of nutrient absorbed and the type of nutrient required for production of milk constituents, and may therefore give a better prediction of supply and requirement of nutrients. The objective of the present study is to compare the ability of three energy evaluation systems, viz. the Dutch NE system, the agricultural and food research council (AFRC) ME system, and the feed into milk (FIM) ME system, and of a mechanistic model based on Dijkstra et al. [Simulation of digestion in cattle fed sugar cane: prediction of nutrient supply for milk production with locally available supplements. J. Agric. Sci., Cambridge 127, 247-60] and Mills et al. [A mechanistic model of whole-tract digestion and methanogenesis in the lactating dairy cow: model development, evaluation and application. J. Anim. Sci. 79, 1584-97] to predict the feed value of grass-based diets for milk production. The dataset for evaluation consists of 41 treatments of grass-based diets (at least 0.75 g ryegrass/g diet on DM basis). For each model, the predicted energy or nutrient supply, based on observed intake, was compared with predicted requirement based on observed performance. Assessment of the error of energy or nutrient supply relative to requirement is made by calculation of mean square prediction error (MSPE) and by concordance correlation coefficient (CCC). All energy evaluation systems predicted energy requirement to be lower (6-11%) than energy supply. The root MSPE (expressed as a proportion of the supply) was lowest for the mechanistic model (0.061), followed by the Dutch NE system (0.082), FIM ME system (0.097) and AFRCME system(0.118). For the energy evaluation systems, the error due to overall bias of prediction dominated the MSPE, whereas for the mechanistic model, proportionally 0.76 of MSPE was due to random variation. CCC analysis confirmed the higher accuracy and precision of the mechanistic model compared with energy evaluation systems. The error of prediction was positively related to grass protein content for the Dutch NE system, and was also positively related to grass DMI level for all models. In conclusion, current energy evaluation systems overestimate energy supply relative to energy requirement on grass-based diets for dairy cattle. The mechanistic model predicted glucogenic nutrients to limit performance of dairy cattle on grass-based diets, and proved to be more accurate and precise than the energy systems. The mechanistic model could be improved by allowing glucose maintenance and utilization requirements parameters to be variable. (C) 2007 Elsevier B.V. All rights reserved.
Resumo:
The suitability of models specifically re-parameterized for analyzing energy balance data relating metabolizable energy intake to growth rate has recently been investigated in male broilers. In this study, the more adequate of those models was applied to growing turkeys to provide estimates of their energy needs for maintenance and growth. Three functional forms were used. They were: two equations representing diminishing returns behaviour (monomolecular and rectangular hyperbola); and one equation describing smooth sigmoidal behaviour with a fixed point of inflexion (Gompertz). The models estimated the metabolizable energy requirement for maintenance in turkeys to be 359-415 kJ/kg of live-weight/day. The predicted values of average net energy requirement for producing 1 g of gain in live-weight, between 1 and 4 times maintenance, varied from 8.7 to 10.9 kJ. These results and those previously reported for broilers are a basis for accepting the general validity of these models.
Resumo:
Genealogical data have been used very widely to construct indices with which to examine the contribution of plant breeding programmes to the maintenance and enhancement of genetic resources. In this paper we use such indices to examine changes in the genetic diversity of the winter wheat crop in England and Wales between 1923 and 1995. We find that, except for one period characterized by the dominance of imported varieties, the genetic diversity of the winter wheat crop has been remarkably stable. This agrees with many studies of plant breeding programmes elsewhere. However, underlying the stability of the winter wheat crop is accelerating varietal turnover without any significant diversification of the genetic resources used. Moreover, the changes we observe are more directly attributable to changes in the varietal shares of the area under winter wheat than to the genealogical relationship between the varieties sown. We argue, therefore, that while genealogical indices reflect how well plant breeders have retained and exploited the resources with which they started, these indices suffer from a critical limitation. They do not reflect the proportion of the available range of genetic resources which has been effectively utilized in the breeding programme: complex crosses of a given set of varieties can yield high indices, and yet disguise the loss (or non-utilization) of a large proportion of the available genetic diversity.