970 resultados para AK44-5000
Resumo:
Trilobites ¥tere collected from Ordovician and Devonian formations of Ontario} New York} Ohio} Oklahoma} and Indiana. Diversity was generally low} but 19..?telllS and Ph..~tY>ps ¥tere the most abundant species from the Ordovician and Devonian} respectively. Recent marine arthropods ¥tere collected from the Atlantic shore of the middle Florida Keys} and from the Pacific and lagoonal waters at Cape Beale} B. C. Fresh-water arthropods were collected along the shore of the Severn River in northcentral Ontario. Cuticles ¥tere analyzed for major} minor and trace elements, 180 and 13C isotopes, as ¥tell as examined by scanning electron micr?scope to identify original and diagenetic fabrics. Examination of trilobite cuticles by scanning electron microscope revealed several microstructures consistent with those observed in Recent arthropods. Microstructures} such as setae and tegumental gland duct openings} in like sized Lim/IllS and Isoteline trilobites may indicate common ancestral origins for these organisms, or simply parallel cuticle evolutions. The dendritic microstructure, originally' thought to be a diagenetic indicator, was found in Recent specimens and therefore its presence in trilobites may be suggestive of the delicate nature of diagenesis in trilobites. The absence of other primary microstructures in trilobites may indicate alteration, taxonomic control} or that there is some inherent feature of S EM examination which may' not allow detection of some features} while others are apparently visit·le onl~1 under SH.·1. The region of the cuticle sampled for examination is also a major influence in detecting pristine microstructures, as not all areas of trilobite and Recent arthropod cuticles will have microstructures identifiable in a SEM study. Subtleties in the process of alteration, however} ma~·· leave pristine microstructures in cuticles that are partial~/ silicified or do 10m itized, and degree and type of alteration may vary stratigraphically and longitudinally within a unit. The presence of fused matrices, angular calcite rhombs, and pyrite in the cuticle are thought to be indicative of altered cuticles, although pyritization may not affect the entire cuticle. t-~atural processes in Recent arthropods, such as molting, lead to variations in cuticle chemistries, and are thought to reflect the area of concentration of the elements during calcification. The level of sodium in Recent arthropods was found to be higher than that in trilobites, but highly mobile when sUbjected to the actions of VY'€'athering. Less saline water produced lovy'€'r magnesium and higher calcium values in Recent specimens .. and metal variations in pristine Ordovician trilobite cuticle appears to follow the constraints outlined for Recent arthropods, of regulation due to the chemislry of the surrounding medium. In diagenetic analysis, sodium, strontium and magnesium proved most beneficial in separating altered from least altered trilobites. Using this criterion, specimens from shale show the least amount of geochemical alteration, and have an original mineralogy of 1.7 - 2.4 mole % MgC03 (8000 t(> 9500 ppm magnesium) for both /s>..?/e/11S lJA'i.riff!11S and PseIAit'11J17ites I..itmirpin..itl/~ and 2.8 - 3.3 mole % MgC03 (5000 to 7000 ppm magnesium) for Ph.i{).?PS This is Slightly lower than the mineralogy of Recent marine arthropods (4.43 - 12.1 mole % MgC03), and slightly higher than that of fresh-water crayfish (0.96 - 1.82 mole % MgC03). Geochemically pristine trilobites were also found to possess primary microstructures. Stable isotope values and trends support the assertion that marine-meteoriclburial fluids were responsible for the alteration observed in a number of the trilobite specimens. The results of this stUdy suggest that fossil material has to be evaluated separately along taxonomic and lithological lines to arrive at sensible diagenetic and e nvironmenta I interpretations.
Resumo:
GABA (4-aminobutyrate) is synthesized through the decarboxylation of LGlu- (L-Glu-+ H+ ---> GABA + C02), and compared to many free amino acids is present in high concentrations in plant cells. GABA levels rise rapidly and dramatically in response to varied stress conditions including anaerobiosis. Recent papers suggest that GABA production and associated H+ consumption are parts of a metabolic pH-stat mechanism which ameliorates the intracellular pH decline associated with anaerobiosis or other treatments. To test this hypothesis GABA production and efflux have been measured in isolated Asparagus sprengeri cells in response to three treatments which potentially cause intracellular acidification. Acid loads were imposed using 60 min of (i) anaerobiosis, (ii) H+/LGlu- cotransport, and (iii) treatment with permeant weak acids (butyric, acetic and propionic). Both intra- and extracellular GABA concentrations increased more than 100% after anaerobiosis, almost 1000% after H+/L-Glu- cotransport (light or dark) and almost 5000/0 after addition of 5 mM butyric acid at pH 5.0. HPLC analysis of amino acids indicates that as GABA concentrations increased in response to butyric acid addition, glutamate concentrations decreased. Time-course studies demonstrated that added butyric acid stimulates GABA production by 2800/0 within 15 seconds. A fluorescent determination of cytosolic pH indicates that addition of butyric or other weak acids resulted in a rapid reduction in cytosolic pH of 0.6 pH units. The half time for the response to butyric acid addition is 2.1 seconds, indicating that the decline in cytosolic pH is rapid enough to account for the rapid stimulation of GABA production. The acid load in response to butyric acid addition was assayed by measurements of 14C-butyric acid uptake. Calculations indicate that GABA production accounted for 45% of the imposed acid load. The biological significance of GABA efflux is not yet understood. The results support the original hypothesis suggesting a role for GABA production in cellular pH regulation.
Resumo:
Tesis (Maestría en Ciencias de Enfermería) UANL, 2009.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Le poly(1,3-dioxolanne) (PDOL) est un polymère semi-cristallin présentant à l’état solide quatre morphologies différentes (Phases I, IIa, IIb et III). Les transformations d'une phase à l'autre ont été suivies par microscopie optique polarisée (MOP) et microscopie à force atomique (AFM) en fonction de la température de cristallisation et de la masse molaire. La Phase I présente une morphologie sphérolitique tandis que la Phase IIa peut croître à partir de la Phase I ou spontanément. De façon inattendue, la Phase IIa, devient très biréfringente et cette nouvelle morphologie est appelée Phase IIb. Quand la transformation IIa-IIb est terminée, une nouvelle phase, la Phase III, croît à partir de la Phase IIb. La Phase III n'a jamais été observée sans la présence de Phase IIb; en outre, la Phase IIb remplace toujours la Phase IIa. Ce phénomène est appelé germination croisée. La mesure de la température de fusion des phases par MOP a permis d’établir leur stabilité relative: IIb > III >IIa. La vitesse de croissance (G) des sphérolites a été mesurée sur une plage de températures de 10,0 à 24,0 °C et montre une grande dépendance avec la masse molaire. Ces mesures ont révélé l’existence d’une masse molaire critique, autour de 5000 g.mol-1, en-dessous de laquelle nous avons observé GIIa > GIII et au-dessus de laquelle la relation est inversée avec GIII > GIIa. Finalement, nous avons exploré l’influence de l’ajout d’un deuxième polymère amorphe sur l’évolution des phases optiques dans des mélanges PDOL-PMMA, PDOL-PVC et PDOL-PVAc. Nous avons observé les mêmes transitions de phases que pour le PDOL pur et un certain degré de compatibilité dans le cas du PDOL-PMMA et du PDOL-PVC.
Resumo:
Les gènes codant pour des protéines peuvent souvent être regroupés et intégrés en modules fonctionnels par rapport à un organelle. Ces modules peuvent avoir des composantes qui suivent une évolution corrélée pouvant être conditionnelle à un phénotype donné. Les gènes liés à la motilité possèdent cette caractéristique, car ils se suivent en cascade en réponse à des stimuli extérieurs. L’hyperthermophilie, d’autre part, est interreliée à la reverse gyrase, cependant aucun autre élément qui pourrait y être associé avec certitude n’est connu. Ceci peut être dû à un déplacement de gènes non orthologues encore non résolu. En utilisant une approche bio-informatique, une modélisation mathématique d’évolution conditionnelle corrélée pour trois gènes a été développée et appliquée sur des profils phylétiques d’archaea. Ceci a permis d’établir des théories quant à la fonction potentielle du gène du flagelle FlaD/E ainsi que l’histoire évolutive des gènes lui étant liés et ayant contribué à sa formation. De plus, une histoire évolutive théorique a été établie pour une ligase liée à l’hyperthermophilie.
Resumo:
Un modèle pharmacocinétique à base physiologique (PBPK) d’exposition par inhalation à l’éthanol a antérieurement été développé en se basant sur des données provenant d’une étude chez des volontaires exposés par inhalation à plus de 5000 ppm. Cependant, une incertitude persiste sur la capacité du modèle PBPK à prédire les niveaux d’éthanolémie pour des expositions à de faibles concentrations. Ces niveaux sont fréquemment rencontrés par une large partie de la population et des travailleurs suite à l’utilisation de produits tels que les vernis et les solutions hydroalcooliques (SHA). Il est ainsi nécessaire de vérifier la validité du modèle existant et de déterminer l’exposition interne à l’éthanol dans de telles conditions. Les objectifs du mémoire sont donc 1) de documenter les niveaux d’éthanolémie résultant de l’exposition par inhalation à de faibles concentrations d’éthanol (i.e., ≤ 1000 ppm) et de valider/raffiner le modèle PBPK existant pour ces concentrations ; et 2) de déterminer les concentrations d’éthanol atmosphérique provenant d’utilisation de SHA et de vernis et de prédire les niveaux d’éthanolémie découlant de leur utilisation. Les données toxicocinétiques récoltées chez des volontaires nous suggèrent qu’il est insuffisant de limiter au foie la clairance métabolique de l’éthanol lors d’exposition à de faibles niveaux d’éthanol, contrairement aux expositions à de plus forts niveaux. De plus, il a clairement été démontré qu’un effort physique léger (50 W) influençait à la hausse (2-3 fois) l’éthanolémie des volontaires exposés à 750 ppm. L’ajout au modèle PBPK d’une clairance métabolique de haute affinité et de faible capacité associée aux tissus richement perfusés a permis de simuler plus adéquatement la cinétique de l’éthanolémie pour des expositions à des concentrations inférieures à 1000 ppm. Des mesures de concentrations d’éthanol dans l’air inhalé générées lors d’utilisation de SHA et de vernis ont permis de simuler des expositions lors de l’utilisation de ces produits. Pour l’utilisation de 1,5 g et 3 g de SHA dans un local peu ventilé, des concentrations sanguines maximales (Cmax) de 0.383 et 0.366 mg.L-1 ont été respectivement simulées. Dans un local bien ventilé, les Cmax simulées étaient de 0.264 et 0.414 mg.L-1. Selon les simulations, une application de vernis résulterait en une Cmax respectivement de 0.719 mg.L-1 et de 0.729 mg.L-1, chez les hommes et femmes. Les Cmax sanguines d’éthanol estimées suites aux différentes simulations sont inférieures à la concentration toxique pour les humains (100 mg.L-1). Ainsi, de telles expositions ne semblent pas être un danger pour la santé. Les résultats de cette étude ont permis de mieux décrire et comprendre les processus d’élimination de l’éthanol à faibles doses et permettront de raffiner l’évaluation du risque associé à l’inhalation chronique de faibles niveaux d’éthanol pour la population, particulièrement chez les travailleurs.
Resumo:
Hypothèse : Le nanobroyage d'une suspension de nystatine augmentera son efficacité antifongique in vitro et in vivo. Méthode : Une nanosupension de nystatine a été obtenue en utilisant le broyage humide. Elle a été caractérisée pour sa distribution de taille des particules et pour sa teneur en principe actif. L'activité in vitro a été évaluée contre les souches de C. albicans SC5314 et LAM-1 aux concentrations 12.5 μg/mL jusqu'à 5000 μg/mL. L'efficacité in vivo a été évaluée en utilisant un modèle murin de candidose oropharyngée. Résultats : La taille médiane des particules de la nanosuspension de nystatine a été réduite de 6577 nm à 137 nm. L'analyse CLHP a demontré une teneur de 98.7 ± 0.8%. L'activité in vitro de la nanosuspension était supérieure à la suspension aux concentrations 100 μg/mL à 5000 μg/mL. La charge fongique orale était inférieure dans le groupe traité par la nanosuspension comparativement aux autres groupes. La survie des souris était aussi supérieure.
Resumo:
Mon mémoire de maîtrise a été réalisé dans le cadre du projet Génorem (www.genorem.ca), un projet multidisciplinaire qui réunit différents chercheurs de l'Université de Montréal et de l'Université McGill dans le but d'améliorer les techniques utilisées en bioremédiation. Dans le cadre de l'étude, des saules à croissance rapide (Salix sp.) ont été utilisés comme plantes modèles dans l'étude. Ainsi, 11 cultivars de saule ont été suivis afin de déterminer leur potentiel à produire un bon rendement de biomasse, à tolérer des conditions de stress sévère causé par la présence de HAPs (hydrocarbures aromatiques polycycliques) , BPCs (biphényles polychlorés) et d'hydrocarbures pétroliers C10-C50. L'expérimentation consistait en une plantation de saule à forte densité qui a été mise en place en 2011 sur le site d'une ancienne industrie de pétrochimie à Varennes, dans le sud du Québec. Les boutures des génotypes sélectionnés ont été plantées sur une superficie d'environ 5000 m2. Les plantes ont été suivies pendant les deux saisons de croissance suivant le recépage et une série de paramètres de croissance et de mesures physiologiques ont été récoltés (surface foliaire, taux de chlorophylle, conductance stomatique et statut nutritionnel) dans le but d'évaluer et de comparer les performances de chaque génotype sur un sol pollué. Les analyses statistiques ont démontré que le cultivar S. miyabeana (SX61) était le meilleur producteur de biomasse sur le site contaminé, tandis que S. nigra (S05) et S. acutifolia (S54) présentaient la meilleure capacité photosynthétique. S. dasyclados (SV1), S. purpurea (‘Fish Creek’) et S. caprea (S365) ont semblé particulièrement affectés par la présence de contaminants. La capacité d'établissement et la croissance de S. nigra (S05), S. eriocephala (S25) and S. purpurea x S. miyabeana (‘Millbrook’) indiquent une tolérance globale supérieure à la pollution . Cette analyse comparative des différentes réponses physiologiques des saules cultivés sur un sol contaminé pourra guider le processus de sélection de plantes et les techniques de bioremédiation dans les futurs projets de phytoremédiation.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
S. album L. is the source of highly priced and fragrant heartwood which on steam distillation yields on an average 57 per cent oil of high perfumery value. Global demand for sandalwood is about 5000-6000 tons/year and that of oil is 100 tons/year. Heartwood of sandal is estimated to fetch up to Rs. 3.7 million/ton and wood oil Rs.70,000-100,000/ kg in the international market. Sandal heartwood prices have increased from Rs. 365/ton in 1900 to Rs. 6.5 lakhs/ton in 1999-2000 and to Rs. 37 lakhs/ton in 2007. Substantial decline in sandalwood production has occurred from 3176 tons/year during 1960-‘ 65 to 1500 tons/year in 1997-98, and to 500 tons/year in 2007.Depletion of sandal resources is attributed to several factors, both natural and anthropogenic. Low seed setting, poor seed germination, seedling mortality, lack of haustorial connection with host plant roots, recurrent annual fires in natural sandal forests, lopping of trees for fodder, excessive grazing, hacking, encroachments, seedling diseases and spread of sandal spike disease are the major problems facing sandal. While these factors hinder sandal regeneration in forest areas, the situation is accelerated by human activities of chronic overexploitation and illicit felling.Deterioration of natural sandal populations due to illicit felling, encroachments and diseases has an adverse effect on genetic diversity of the species. The loss of genetic diversity has aggravated during recent years due to extensive logging, changing landuse patterns and poor natural regeneration. The consequent genetic erosion is of serious concern affecting tree improvement programme in sandal. Conservation as well as mass propagation are the two strategies to be given due importance. To initiate any conservation programme, precise knowledge of the factors influencing regeneration and survival of the species is essential. Hence, the present study was undertaken with the objective of investigating the autotrophic and parasitic phase of sandal seedlings growth, the effects of shade on morphology, chlorophyll concentration and chlorophyll fluorescence of sandal seedlings, genetic diversity in sandal seed stands using ISSR markers, and the diversity of fungal isolates causing sandal seedling wilt using RAPD markers. All these factors directly influence regeneration and survival of sandal seedlings in natural forests and plantations.
Resumo:
A novel Acinetobacter sp. BTJR-IO isolated from highly acidic (pH 2.5-4.5) rubber latex centrifugation effluent with high COD (22000 rng/L) and BOD (5000 rng/L). This strain could effect 39.5% COD reduction on free cell inoculation of effluent without incorporation of additional nutrients after 8 days. CalciLnn alginate irrmobilized cells showed 16.4% and 25% COD reduction after 6 hra, without aeration and after 1 hr. with mild aeration under batch process respectively. Whereas 44.0% COD reduction could be achieved after 6 hrs. on continuous treatment in a packed bed reactor with mild aeration. Further, even after 3 cycles 37% COD reduction was recorded with continuous treatment
Resumo:
Biometrics is an efficient technology with great possibilities in the area of security system development for official and commercial applications. The biometrics has recently become a significant part of any efficient person authentication solution. The advantage of using biometric traits is that they cannot be stolen, shared or even forgotten. The thesis addresses one of the emerging topics in Authentication System, viz., the implementation of Improved Biometric Authentication System using Multimodal Cue Integration, as the operator assisted identification turns out to be tedious, laborious and time consuming. In order to derive the best performance for the authentication system, an appropriate feature selection criteria has been evolved. It has been seen that the selection of too many features lead to the deterioration in the authentication performance and efficiency. In the work reported in this thesis, various judiciously chosen components of the biometric traits and their feature vectors are used for realizing the newly proposed Biometric Authentication System using Multimodal Cue Integration. The feature vectors so generated from the noisy biometric traits is compared with the feature vectors available in the knowledge base and the most matching pattern is identified for the purpose of user authentication. In an attempt to improve the success rate of the Feature Vector based authentication system, the proposed system has been augmented with the user dependent weighted fusion technique.
Resumo:
The recent discovery of the monumental 5000 years old tower tombs on top of the up to 1850 m high Shir plateau has raised numerous questions about the economic and infrastructural basis of the agro-pastoral-piscicultural society which likely has constructed them. The scattered oasis settlement of Maqta, situated just below the towers in a rugged desert environment has therefore been studied from 2001 to 2003 to understand its prehistoric and present role along the ancient trade route which connected the inner-Omani Sharqiya across the southern Hajar mountains with the ocean port of Tiwi. Maqta consists of a central area with 59 buildings and 12 scattered temporary settlements comprising a total of about 200 semi-nomadic inhabitants and next to 900 sheep and goats. The 22 small springs with a flow rate between 5 and 1212-l h^-1 are watering 16 terrace systems totaling 4.5 ha of which 2.9 ha are planted to date palms (Phoenix dactylifera L.), 0.4 ha to wheat landraces (Triticum durum and Triticum aestivum) during the cooler winter months, 0.4 are left fallow and 0.8 h are abandoned. During a pronounced drought period from 2001 to 2003, the springs’ flow rate declined between 38% and 72%. Most of the recent buildings of the central housing area were found empty or used as temporary stores by the agro-pastoral population watching their flocks on the surrounding dry mountains. There is no indication that there ever was a settlement older than the present one. A number of Hafit (3100–2700 BC) and Umm an-Nar (2700–2000 BC) tombs just above the central housing area and further along one of the trade routes to the coast are the only indication of an old pastoral landuse in Maqta territory where oasis agriculture may have entered only well after 1000 AD. With this little evidence of existence during the 3rd millennium BC, Maqta is unlikely to have played any major role favouring the construction of the nearby monumental Shir tower tombs other than providing water for herders and their flocks, early migrant traders or tower tomb constructors.