9 resultados para ArcGIS API
em Université de Lausanne, Switzerland
Resumo:
L'inventaire des géotopes d'importance nationale, aujourd'hui proche de son état final, est le fruit d'un long travail de sélection, de documentation ainsi que de définition et de numérisation des périmètres des sites initié dans les années 1990 par le groupe de travail pour la protection des géotopes en Suisse (Strasser et al. 1995, Berger et al. 2008). Il représente un outil au service de la diffusion et à la promotion du géopatrimoine suisse, auprès de la population en général et des professionnels des géosciences en particulier, dans un but de valorisation patrimoniale et de protection et par une sensibilisation à la valeur particulière et à la vulnérabilité des géotopes.¦C'est dans cet objectif qu'a été développée une interface cartographique rendant accessible sur Internet le contenu de cet inventaire. L'outil de web mapping utilisé - GoogleMaps API - permet en effet d'enrichir une interface de navigation intuitive de diverses fonctions additionnelles offertes par la cartographie sur internet (Kraak 2004, Plewe 2007). La carte n'est donc pas seulement une représentation de la réalité permettant la localisation de différents objets, mais également un outil de recherche thématique et spatiale ainsi qu'un index reliant chaque objet cartographié à diverses informations.¦Porte d'accès aux données des site à une échelle individuelle ou globale, mais aussi outil d'exploration, cette interface propose plusieurs niveaux d'utilisation, correspondant aux diverses interactions possibles avec ces données : naviguer et découvrir les sites, réaliser des sélections multiples, comparer les géotopes à d'autres données, comme l'inventaire fédéral des paysages. L'utilisateur peut ainsi produire à chaque fois la carte qui répond à ses besoins et à ses questions. En donnant à tous accès au contexte et aux particularités de chaque site par delà la globalité abstraite de l'inventaire, cette application se veut avant tout un outil au service de la médiation du géopatrimoine.
Resumo:
Raman spectroscopy has become an attractive tool for the analysis of pharmaceutical solid dosage forms. In the present study it is used to ensure the identity of tablets. The two main applications of this method are release of final products in quality control and detection of counterfeits. Twenty-five product families of tablets have been included in the spectral library and a non-linear classification method, the Support Vector Machines (SVMs), has been employed. Two calibrations have been developed in cascade: the first one identifies the product family while the second one specifies the formulation. A product family comprises different formulations that have the same active pharmaceutical ingredient (API) but in a different amount. Once the tablets have been classified by the SVM model, API peaks detection and correlation are applied in order to have a specific method for the identification and allow in the future to discriminate counterfeits from genuine products. This calibration strategy enables the identification of 25 product families without error and in the absence of prior information about the sample. Raman spectroscopy coupled with chemometrics is therefore a fast and accurate tool for the identification of pharmaceutical tablets.
Resumo:
The MyHits web site (http://myhits.isb-sib.ch) is an integrated service dedicated to the analysis of protein sequences. Since its first description in 2004, both the user interface and the back end of the server were improved. A number of tools (e.g. MAFFT, Jacop, Dotlet, Jalview, ESTScan) were added or updated to improve the usability of the service. The MySQL schema and its associated API were revamped and the database engine (HitKeeper) was separated from the web interface. This paper summarizes the current status of the server, with an emphasis on the new services.
Resumo:
The Microbe browser is a web server providing comparative microbial genomics data. It offers comprehensive, integrated data from GenBank, RefSeq, UniProt, InterPro, Gene Ontology and the Orthologs Matrix Project (OMA) database, displayed along with gene predictions from five software packages. The Microbe browser is daily updated from the source databases and includes all completely sequenced bacterial and archaeal genomes. The data are displayed in an easy-to-use, interactive website based on Ensembl software. The Microbe browser is available at http://microbe.vital-it.ch/. Programmatic access is available through the OMA application programming interface (API) at http://microbe.vital-it.ch/api.
Resumo:
Two minor saponins obtained from the methanolic extract of the leaves of Ilex paraguariensis have been characterised by 13C-NMR, 1H-NMR, API-MS and chemical hydrolysis as oleanolic acid-3-O-(beta-D-glucopyranosyl-(1-->3)-alpha-L-arabinopyranosyl)-(28-->1)- beta-D-glucopyranosyl ester (guaiacin B) and oleanolic acid-3-O-(beta-D-glucopyranosyl-(1-->3)-(alpha-L-rhamnopyranosyl- (1-->2))-alpha-L-arabinopyranosyl)-(28-->1)-beta-D-glucopyranosyl ester (nudicaucin C). Both are isomeric forms of the known matesaponins 1 (MSP 1) and 2 (MSP 2) and differ only by the nature of the aglycone: they have oleanolic acid instead of ursolic acid, as found in the matesaponins. These minor saponins have not been fully separated from their major isomers MSP 1 and 2 and were characterised by in-mixture NMR analysis, LC-MS and LC-MSn experiments.
Resumo:
A sensitive method was developed for quantifying a wide range of cannabinoids in oral fluid (OF) by liquid chromatography-tandem mass spectrometry (LC-MS/MS). These cannabinoids include a dagger(9)-tetrahydrocannabinol (THC), 11-hydroxy-a dagger(9)-tetrahydrocannabinol (11-OH-THC), 11-nor-9-carboxy-a dagger(9)-tetrahydrocannabinol (THCCOOH), cannabinol (CBN), cannabidiol (CBD), a dagger(9)-tetrahydrocannabinolic acid A (THC-A), 11-nor-9-carboxy-a dagger(9)-tetrahydrocannabinol glucuronide (THCCOOH-gluc), and a dagger(9)-tetrahydrocannabinol glucuronide (THC-gluc). Samples were collected using a Quantisal (TM) device. The advantages of performing a liquid-liquid extraction (LLE) of KCl-saturated OF using heptane/ethyl acetate versus a solid-phase extraction (SPE) using HLB copolymer columns were determined. Chromatographic separation was achieved in 11.5 min on a Kinetex (TM) column packed with 2.6-mu m core-shell particles. Both positive (THC, 11-OH-THC, CBN, and CBD) and negative (THCCOOH, THC-gluc, THCCOOH-gluc, and THC-A) electrospray ionization modes were employed with multiple reaction monitoring using a high-end AB Sciex API 5000 (TM) triple quadrupole LC-MS/MS system. Unlike SPE, LLE failed to extract THC-gluc and THCCOOH-gluc. However, the LLE method was more sensitive for the detection of THCCOOH than the SPE method, wherein the limit of detection (LOD) and limit of quantification (LOQ) decreased from 100 to 50 pg/ml and from 500 to 80 pg/ml, respectively. The two extraction methods were successfully applied to OF samples collected from volunteers before and after they smoked a homemade cannabis joint. High levels of THC were measured soon after smoking, in addition to significant amounts of THC-A. Other cannabinoids were found in low concentrations. Glucuronide conjugate levels were lower than the method's LOD for most samples. Incubation studies suggest that glucuronides could be enzymatically degraded by glucuronidase prior to OF collection
Resumo:
Raman spectroscopy combined with chemometrics has recently become a widespread technique for the analysis of pharmaceutical solid forms. The application presented in this paper is the investigation of counterfeit medicines. This increasingly serious issue involves networks that are an integral part of industrialized organized crime. Efficient analytical tools are consequently required to fight against it. Quick and reliable authentication means are needed to allow the deployment of measures from the company and the authorities. For this purpose a method in two steps has been implemented here. The first step enables the identification of pharmaceutical tablets and capsules and the detection of their counterfeits. A nonlinear classification method, the Support Vector Machines (SVM), is computed together with a correlation with the database and the detection of Active Pharmaceutical Ingredient (API) peaks in the suspect product. If a counterfeit is detected, the second step allows its chemical profiling among former counterfeits in a forensic intelligence perspective. For this second step a classification based on Principal Component Analysis (PCA) and correlation distance measurements is applied to the Raman spectra of the counterfeits.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
[Summary] 2. Roles of quality control in the pharmaceutical and biopharmaceutical industries. - 2.1. Pharmaceutical industry. - 2.2. Biopharmaceutical industry. - 2.3. Policy and regulatory. - 2.3.1. The US Food and Drug Administration (FDA). - 2.3.2. The European Medicine Agency (EMEA). - 2.3.3. The Japanese Ministry of Work, Labor and Welfare (MHLW). - 2.3.4. The Swiss Agency for Therapeutic Products (Swissmedic). - 2.3.5. The International Conference on Harmonization (ICH). - - 3. Types of testing. - 3.1. Microbiological purity tests. - 3.2. Physiochemical tests. - 3.3. Critical to quality steps. - 3.3.1. API starting materials and excipients. - 3.3.2. Intermediates. - 3.3.3. APIs (drug substances) and final drug product. - 3.3.4. Primary and secondary packaging materials fro drug products. - - 4. Manufacturing cost and quality control. - 4.1.1. Pharmaceutical manufacturing cost breakdown. - 4.1.2. Biopharmaceutical manufacturing cost breakdown. - 4.2. Batch failure / rejection / rework / recalls. - - 5. Future trends in the quality control of pharmaceuticals and biopharmaceuticals. - 5.1. Rapid and real time testing. - 5.1.1. Physio-chemicals testing. - 5.1.2. Rapid microbiology methods