878 resultados para overall extraction curves


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La phosphorylation des protéines constitue l’une des plus importantes modifications post-traductionnelles (PTMs) et intervient dans de multiples processus physiologiques tels, la croissance, la différenciation cellulaire, l’apoptose, etc. En dépit de son importance, l’analyse des phosphoprotéines demeure une tâche difficile en raison de leur nature dynamique (car la phosphorylation des protéines est un processus réversible) et de leur faible abondance relative. En effet, la détermination des sites de phosphorylation est souvent difficile car les phosphopeptides sont souvent difficiles à détecter par des méthodes d’analyse chromatographique classique et par spectrométrie de masse (MS). De récentes études ont démontré que les nombreuses méthodes d’enrichissement de phosphopeptides existantes ne sont pas complètes, et que le nombre total de phosphopeptides détectés ne chevauchent pas complètement ces méthodes. C’est pour cela qu’il existe une nécessité de combler les lacunes des méthodes d’enrichissement existantes afin d’avoir des analyses phosphoprotéomiques plus complètes. Dans cette étude, nous avons utilisé les liquides ioniques (LI), plus particulièrement les sels d’imidazolium, comme une technique d’enrichissement alternative, dans le but de favoriser une extraction sélective de phosphopeptides présents en solution. Les sels d’imidazolium ont donc été utilisés en raison de leurs propriétés physico-chimiques "facilement" ajustables selon la nature des substituants sur le noyau imidazolium et la nature de l’anion. Les sels de monoimidazolium et de bis-imidazolium possédant respectivement des chaînes linéaires à 4, 12 et 16 atomes de carbone et ayant différents anions ont été synthétisés et utilisés pour effectuer des extractions liquide-liquide et solide-liquide des phosphopeptides en solution. Dans un premier temps, des extractions liquide-liquide ont été réalisées en utilisant un liquide ionique (LI) ayant une chaine linéaire de 4 atomes de carbone. Ces extractions réalisées avec le bis(trifluoromethanesulfonyl) amide de 3-butyl-1-methylimidazolium (BMIM-NTf2) et l’hexafluorophosphate de 3-butyl-1-methylimidazolium (BMIM-PF6) n’ont pas montré une extraction notable du PPS comparativement au PN. Dans un deuxième temps, des extractions solide-liquide ont été réalisées en fonctionnalisant des particules solides avec des sels d’imidazolium possédant des chaines linéaires de 12 ou 16 atomes de carbone. Ces extractions ont été faites en utilisant un phosphopentapeptide Ac-Ile-pTyr-Gly-Glu-Phe-NH2 (PPS) en présence de 2 analogues acides non-phosphorylés. Il a été démontré que les sels d’imidazolium à chaine C12 étaient meilleurs pour extraire le PPS que les deux autres peptides PN (Ac-Ile-Tyr-Gly-Glu-Phe-NH2) et PE (Ac-Glu-Tyr-Gly-Glu-Phe-NH2) L’électrophorèse capillaire (CE) et la chromatographie liquide à haute performance couplée à la spectrométrie de masse (LC-MS) ont été utilisées pour quantifier le mélange des trois peptides avant et après extraction ; dans le but de mesurer la sélectivité et l’efficacité d’extraction de ces peptides par rapport à la composition chimique du liquide ionique utilisé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

S’insérant dans les domaines de la Lecture et de l’Analyse de Textes Assistées par Ordinateur (LATAO), de la Gestion Électronique des Documents (GÉD), de la visualisation de l’information et, en partie, de l’anthropologie, cette recherche exploratoire propose l’expérimentation d’une méthodologie descriptive en fouille de textes afin de cartographier thématiquement un corpus de textes anthropologiques. Plus précisément, nous souhaitons éprouver la méthode de classification hiérarchique ascendante (CHA) pour extraire et analyser les thèmes issus de résumés de mémoires et de thèses octroyés de 1985 à 2009 (1240 résumés), par les départements d’anthropologie de l’Université de Montréal et de l’Université Laval, ainsi que le département d’histoire de l’Université Laval (pour les résumés archéologiques et ethnologiques). En première partie de mémoire, nous présentons notre cadre théorique, c'est-à-dire que nous expliquons ce qu’est la fouille de textes, ses origines, ses applications, les étapes méthodologiques puis, nous complétons avec une revue des principales publications. La deuxième partie est consacrée au cadre méthodologique et ainsi, nous abordons les différentes étapes par lesquelles ce projet fut conduit; la collecte des données, le filtrage linguistique, la classification automatique, pour en nommer que quelques-unes. Finalement, en dernière partie, nous présentons les résultats de notre recherche, en nous attardant plus particulièrement sur deux expérimentations. Nous abordons également la navigation thématique et les approches conceptuelles en thématisation, par exemple, en anthropologie, la dichotomie culture ̸ biologie. Nous terminons avec les limites de ce projet et les pistes d’intérêts pour de futures recherches.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Douze contaminants émergents (composés pharmaceutiques, pesticides et hormones) ont été quantifiés et extraits de l'eau de rivières et d’échantillons d'eaux usées municipales. La séparation des solides en suspension est effectuée par filtration des échantillons d'eau. L'effet de filtration sur les concentrations de contaminants dissous a été évaluée afin de minimiser les pertes de composés cibles. Les échantillons ont été lyophilisés et ont été extraits en deux cycles par ultrasons combinés avec une étape de nettoyage sur cartouche d’extraction de type C18. La quantification a été réalisée en utilisant la spectrométrie de masse. Les recouvrements de la méthode pour tous les composés ont varié de 68 à 112% dans toutes les matrices étudiées, sauf pour le sulfaméthoxazole et le diclofénac où des recouvrements plus modestes ont été obtenus (38 à 85%). Les limites de détection pour les 12 analytes dans les sédiments et particules en suspension (SPM) de la rivière variaient de 0,7 à 9,4 ng g-1 et de 21 à 92 ng g-1, pour les échantillons SPM de station d'épuration. Tous les contaminants émergents cibles ont été détectés à des concentrations variant de 3 à 5440 ng g-1 dans les matrices étudiées, les concentrations les plus élevées ont été observées dans les échantillons SPM de stations d'épuration. Une partie importante de certains de ces contaminants est clairement associée aux sédiments de rivière ou aux particules en suspension. L’optimisation des processus de traitement de l'eau et le devenir environnemental doit absolument tenir compte de la fraction de contaminants qui liée à des particules si on espère avoir un bilan de masse raisonnable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this chapter is to provide an elementary introduction to the non-renewable resource model with multiple demand curves. The theoretical literature following Hotelling (1931) assumed that all energy needs are satisfied by one type of resource (e.g. ‘oil’), extractible at different per-unit costs. This formulation implicitly assumes that all users are the same distance from each resource pool, that all users are subject to the same regulations, and that motorist users can switch as easily from liquid fossil fuels to coal as electric utilities can. These assumptions imply, as Herfindahl (1967) showed, that in competitive equilibrium all users will exhaust a lower cost resource completely before beginning to extract a higher cost resource: simultaneous extraction of different grades of oil or of oil and coal should never occur. In trying to apply the single-demand curve model during the last twenty years, several teams of authors have independently found a need to generalize it to account for users differing in their (1) location, (2) regulatory environment, or (3) resource needs. Each research team found that Herfindahl's strong, unrealistic conclusion disappears in the generalized model; in its place, a weaker Herfindahl result emerges. Since each research team focussed on a different application, however, it has not always been clear that everyone has been describing the same generalized model. Our goal is to integrate the findings of these teams and to exposit the generalized model in a form which is easily accessible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diverses études cliniques ont démontré l’existence d’un métabolisme extrahépatique du propofol. Le lieu exact de ce métabolisme n’est pas encore complètement élucidé chez l’homme. Des données chez l’animal suggèreraient que le poumon pourrait contribuer à la clairance totale du propofol. Le présent projet vise à investiguer la contribution pulmonaire à l’élimination systémique du propofol chez des patients sous anesthésie générale. Quatorze patients de type ASA I ou II, âgés entre 35 et 70 ans, pour lesquels une chirurgie cardiaque de routine était prévue, ont été inclus dans la présente étude. Le protocole a été préalablement approuvé par le comité d’éthique et les patients ont tous donné par écrit leur consentement éclairé. Le recrutement des patients a eu lieu à l’hôpital Royal Victoria. Le propofol a été administré en induction sous forme de bolus intraveineux, suivi d’une perfusion continue de 50 g/kg/min. Chez un même patient, des prélèvements sanguins pré- et post pulmonaires ont été pris simultanément de l’artère radiale et de l’artère pulmonaire, sous des conditions de ventilation contrôlée ou apnéiques, dans le but de mesurer les concentrations plasmatiques du propofol. Le gradient artério-veineux a été évalué à l’état d’équilibre afin de déterminer la contribution du poumon à l’élimination totale de propofol. Nous n’avons pas pu démontrer l’existence d’une extraction pulmonaire du propofol chez l’humain. Ceci pourrait être dû à plusieurs facteurs méthodologiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’Inventaire des risques et des besoins liés aux facteurs criminogènes (IRBC) est un instrument utilisé depuis le début des années 1990 pour évaluer les risques de récidive des jeunes contrevenants québécois. Il est le produit d’une collaboration du Québec avec l’Ontario, survenue dans le cadre de travaux de recherche effectués sur les instruments d’évaluation du risque de récidive des jeunes contrevenants. L’IRBC est donc le seul instrument précisément conçu pour évaluer les risques de récidive des jeunes contrevenants québécois et il n’a jamais fait l’objet d’une démarche visant à tester sa validité prédictive. Le but de ce projet de mémoire est de tester la validité prédictive de l’IRBC. Des analyses de courbes ROC et des analyses de survie ont été utilisées pour tester les propriétés métriques de l’instrument. Ces analyses suggèrent que, dans l’ensemble, l’IRBC arrive à prédire la récidive de façon acceptable. Quatre des huit grands domaines associés à la récidive, communément appelé BIG FOUR, seraient des prédicteurs modérés de la récidive lorsque testés avec les données issues de l’IRBC. Il s’agit des domaines Antécédents, Pairs, Personnalité-Comportements, et Attitudes-Tendances. Des aspects en lien avec la fidélité de l’instrument témoignent toutefois d’irrégularités dans le processus d’évaluation, ce qui interroge le niveau de rigueur maintenu au jour le jour par les professionnels. Des aspects en lien avec la fidélité de l’IRBC demeureraient à investiguer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Present work is aimed at development of an appropriate microbial technology for protection of larvae of macrobrachium rosenbergii from disease and to increase survival rate in hatcheries. Application of immunostimulants to activate the immune system of cultured animals against pathogen is the widely accepted alternative to antibiotics in aquaculture. The most important immunostimulant is glucan. Therefore a research programme entitled as extraction of glucan from Acremonium diospyri and its application in macrobrachium rosenbergii larval rearing system along with bacterians as microspheres. The main objectives of the study are development of aquaculture grade glucan from acremonium diospyri, microencapsulated drug delivery system for the larvae of M. rosenbergii and microencapsulated glucan with bacterian preparation for the enhanced production of M. rosenbergii in larval rearing system. Based on the results of field trials microencapsulated glucan with bacterin preparation, it is concluded that the microencapsulated preparation at a concentration of 25g per million larvae once in seven days will enhance the production and quality seed of M. rosenbergii.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The thesis entitled “ Investigations on the solvent extraction and luminescence of lanthanoids with mixtures of heterocyclic β-diketone S and various neutral oxo-donors” embodies the results of investigations carried out on the solvent extraction of trivalent lanthanoids with various heterocyclic β-diketones in the presence and absence of neutral oxo-donors and also on the luminescent studies of Eu3+-heterocyclic β-diketonate complexes with Lewis bases. The primary objective of the present work is to generate the knowledge base, especially to understand the interactions of lanthanoid-heterocyclic β-diketonates with various macrocyclic ligands such as crown ethers and neutral organophosphorus extractants , with a view to achieve better selectivity. The secondary objective of this thesis is to develop novel lanthanoid luminescent materials based on 3-phenyl-4-aroyl-5-isoxazolones and organophosphorus ligands, for use in electroluminescent devices. In the beginning it describes the need for the development of new mixed-ligand systems for the separation of lanthanoids and the development and importance of novel luminescent lanthanoid- β-diketonate complexes for display devices. The syntheses of various para substituted derivatives of 4-aroyl-5-isoxazolones and their characterization by various spectroscopic techniques are described. It also investigate the solvent extraction behaviour of trivalent lanthanoids with 4-aroyl-5-isoxazolones in the presence and absence of various crown ethers such as 18C6, DC18C6, DB18C6 and B18C6. Elemental analysis, IR and H NMR spectral studies are used to understand the interactions of crown ethers with 4-aroyl-5-isoxazolonate complexes of lanthanoids. The synergistic extraction of trivalent lanthanoids with sterically hindered 1-phenyl-3-methyl-4-pivaloyl-5-pyrazolone in the presence of various structurally related crown ethers are studied. The syntheses, characterization and photyphysical properties of Eu3+-4-aroyl-5-isoxazolonate complexes in the presence of Lewis bases like trictylphosphine oxide or triphenylphosphine oxide were studied.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The thesis entitled “Synergistic solvent extraction of Thorium(IV) and Uranium(VI) with β-diketones in presence of oxo-donors” embodies the results of the investigations carried out on the extraction of thorium(IV) an uranium(VI) with heterocyclic β-diketones in the presence and absence of various macrocyclic ligands and neutral organophosphorus extractants. The objective of this work is to generate the knowledge base to achieve better selectivity between thorium(IV) and uranium(VI) by understanding the interactions of crown ethers or neutral organophosphorus extractants with metal-heterocyclic β-diketonate complexes. Para-substituted 1-phenyl-3-methyl-4-aroyl-5-pyrazolones, namely,1-phenyl-3-methyl-4-(4-fluorobenzoyl)-5-pyrazolone (HPMFBP) and 1-phenyl-3-methyl-4-(4-toluoyl)-5-pyrazolone (HPMTP) were synthesized and characterized by elemental analysis, IR and H NMR spectral data. The synthesized ligands have been utilized for the extraction of thorium(IV) and uranium(VI) from nitric acid solutions in the presence and absence of various crown ethers. Thorium(IV) and uranium(VI) complexes with HPMPP(1-Phenyl-3-methyl-4-pivaloyl-5-pyrazolone) and neutral organophosphorus extractants were synthesized and characterized by IR and P NMR spectral data to further understand the interactions of neutral organophosphorus extractants with metal-chelates. Solid complexes of thorium(IV) and uranium(VI) with para-substituted 4-aroyl-5-isoxazolones and crown ethers were isolated and characterized by various spectroscopic techniques to further clarify the nature of the extracted complexes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Solid phase extraction (SPE) is a powerful technique for preconcentration/removal or separation of trace and ultra trace amounts of toxic and nutrient elements. SPE effectively simplifies the labour intensive sample preparation, increase its reliability and eliminate the clean up step by using more selective extraction procedures. The synthesis of sorbents with a simplified procedure and diminution of the risks of errors shows the interest in the areas of environmental monitoring, geochemical exploration, food, agricultural, pharmaceutical, biochemical industry and high purity metal designing, etc. There is no universal SPE method because the sample pretreatment depends strongly on the analytical demand. But there is always an increasing demand for more sensitive, selective, rapid and reliable analytical procedures. Among the various materials, chelate modified naphthalene, activated carbon and chelate functionalized highly cross linked polymers are most important. In the biological and environmental field, large numbers of samples are to be analysed within a short span of time. Hence, online flow injection methods are preferred as they allow extraction, separation, identification and quantification of many numbers of analytes. The flow injection online preconcentration flame AAS procedure developed allows the determination of as low as 0.1 µg/l of nickel in soil and cobalt in human hair samples. The developed procedure is precise and rapid and allows the analysis of 30 samples per hour with a loading time of 60 s. The online FI manifold used in the present study permits high sampling, loading rates and thus resulting in higher preconcentration/enrichment factors of -725 and 600 for cobalt and nickel respectively with a 1 min preconcentration time compared to conventional FAAS signal. These enrichment factors are far superior to hitherto developed on line preconcentration procedures for inorganics. The instrumentation adopted in the present study allows much simpler equipment and low maintenance costs compared to costlier ICP-AES or ICP-MS instruments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The standard models for statistical signal extraction assume that the signal and noise are generated by linear Gaussian processes. The optimum filter weights for those models are derived using the method of minimum mean square error. In the present work we study the properties of signal extraction models under the assumption that signal/noise are generated by symmetric stable processes. The optimum filter is obtained by the method of minimum dispersion. The performance of the new filter is compared with their Gaussian counterparts by simulation.