877 resultados para Segmentation, Targeting and Positioning


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työn teoriaosuudessa tutustutaan ensin yleisimpiin paikannusmenetelmiin. Käsiteltävänä ovat GPS-satelliittipaikannus sekä radiosoluverkkojen paikannusmenetelmät solupaikannuksesta monimutkaisempiin signaalin ominaisuuksia tutkiviin menetelmiin. Teoriaosuudessa käsitellään myös IEEE 802.11 –standardin PHY- ja MAC-kerrosten toimintaa sekä WLAN-verkon siirtotien ominaisuuksia paikannuksen kannalta. Ennen paikannusjärjestelmän toteuttamista työssä esitellään menetelmiä ja tuloksia muista tutkimuksista samalta tutkimusalueelta. Työssä toteutetaan paikannusjärjestelmä sekä solupaikannusta että signaalitasopaikannusta hyödyntäen. Solupaikannusjärjestelmälle määritellään palvelurajapinta, jonka kautta paikannuspalvelua voidaan hyödyntää muissa palveluissa. Kaksi paikannuspalvelun päälle luotua palvelua esitellään lyhyesti malliesimerkkeinä. Signaalitasopaikannuksen osalta kuvataan kaksi menetelmään kuuluvaa vaihetta ja yksittäisten komponenttien toiminta näissä vaiheissa. Paikannusmenetelmien tarkkuutta tutkitaan mittausten avulla ja testituloksista muodostetaan paikannustarkkuutta kuvaavat tilastot. Solupaikannuksen keskimääräinen virhe on ±50 metriä. Vastaavasti signaalitasopaikannuksen virhe on ±4 metriä ja parannettua algoritmia käyttäen ±3 metriä.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notch is a membrane inserted protein activated by the membrane-inserted γ-secretase proteolytic complex. The Notch pathway is a potential therapeutic target for the treatment of renal diseases but also controls the function of other cells, requiring cell-targeting of Notch antagonists. Toward selective targeting, we have developed the γ-secretase inhibitor-based prodrugs 13a and 15a as substrates for γ-glutamyltranspeptidase (γ-GT) and/or γ-glutamylcyclotransferase (γ-GCT) as well as aminopeptidase A (APA), which are overexpressed in renal diseases, and have evaluated them in experimental in vitro and in vivo models. In nondiseased mice, the cleavage product from Ac-γ-Glu-γ-secretase inhibitor prodrug 13a (γ-GT-targeting and γ-GCT-targeting) but not from Ac-α-Glu-γ-secretase inhibitor prodrug 15a (APA-targeting) accumulated in kidneys when compared to blood and liver. Potential nephroprotective effects of the γ-secretase inhibitor targeted prodrugs were investigated in vivo in a mouse model of acute kidney injury, demonstrating that the expression of Notch1 and cleaved Notch1 could be selectively down-regulated upon treatment with the Ac-γ-Glu-γ-secretase-inhibitor 13a.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Supporting patients with acute respiratory distress syndrome (ARDS), using a protective mechanical ventilation strategy characterized by low tidal volume and limitation of positive end-expiratory pressure (PEEP) is a standard practice in the intensive care unit. However, these strategies can promote lung de-recruitment, leading to the cyclic closing and reopening of collapsed alveoli and small airways. Recruitment maneuvers (RM) can be used to augment other methods, like positive end-expiratory pressure and positioning, to improve aerated lung volume. Clinical practice varies widely, and the optimal method and patient selection for recruitment maneuvers have not been determined, considerable uncertainty remaining regarding the appropriateness of RM. This review aims to discuss recent findings about the available types of RM, and compare the effectiveness, indications and adverse effects among them, as well as their impact on morbidity and mortality in ARDS patients. Recent developments include experimental and clinical evidence that a stepwise extended recruitment maneuver may cause an improvement in aerated lung volume and decrease the biological impact seen with the traditionally used sustained inflation, with less adverse effects. Prone positioning can reduce mortality in severe ARDS patients and may be an useful adjunct to recruitment maneuvers and advanced ventilatory strategies, such noisy ventilation and BIVENT, which have been useful in providing lung recruitment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the environment of ever-changing needs of customers, technologies and competitors, the survival of the company depends on how well it researches, develops and implements new products to the market. The need for development of new products relates to many factors: globalization, international competition which is now underway on a global scale, scientific advances and development of production, changes in consumer preferences and consumer behavior. In this study the focus is on the company form a dairy products industry. This study is aimed to defining the role of product innovation launch strategy in an overall enterprise strategy, and to select the optimal combination of its marketing tools. The main purpose of this study is to determine place and the role of innovative marketing based in the innovation process, and to determine launch and positioning strategies in the general concept of an innovative product. The object of the study is the Russian enterprise, which is aimed to achieve a competitive advantage through the continuous production of new products, upgrade existing ones and improve innovation management practices. Research showed that the differentiation strategy is suitable for launching the dairy industry product innovation to a market.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Personalized nanomedicine has been shown to provide advantages over traditional clinical imaging, diagnosis, and conventional medical treatment. Using nanoparticles can enhance and clarify the clinical targeting and imaging, and lead them exactly to the place in the body that is the goal of treatment. At the same time, one can reduce the side effects that usually occur in the parts of the body that are not targets for treatment. Nanoparticles are of a size that can penetrate into cells. Their surface functionalization offers a way to increase their sensitivity when detecting target molecules. In addition, it increases the potential for flexibility in particle design, their therapeutic function, and variation possibilities in diagnostics. Mesoporous nanoparticles of amorphous silica have attractive physical and chemical characteristics such as particle morphology, controllable pore size, and high surface area and pore volume. Additionally, the surface functionalization of silica nanoparticles is relatively straightforward, which enables optimization of the interaction between the particles and the biological system. The main goal of this study was to prepare traceable and targetable silica nanoparticles for medical applications with a special focus on particle dispersion stability, biocompatibility, and targeting capabilities. Nanoparticle properties are highly particle-size dependent and a good dispersion stability is a prerequisite for active therapeutic and diagnostic agents. In the study it was shown that traceable streptavidin-conjugated silica nanoparticles which exhibit a good dispersibility could be obtained by the suitable choice of a proper surface functionalization route. Theranostic nanoparticles should exhibit sufficient hydrolytic stability to effectively carry the medicine to the target cells after which they should disintegrate and dissolve. Furthermore, the surface groups should stay at the particle surface until the particle has been internalized by the cell in order to optimize cell specificity. Model particles with fluorescently-labeled regions were tested in vitro using light microscopy and image processing technology, which allowed a detailed study of the disintegration and dissolution process. The study showed that nanoparticles degrade more slowly outside, as compared to inside the cell. The main advantage of theranostic agents is their successful targeting in vitro and in vivo. Non-porous nanoparticles using monoclonal antibodies as guiding ligands were tested in vitro in order to follow their targeting ability and internalization. In addition to the targeting that was found successful, a specific internalization route for the particles could be detected. In the last part of the study, the objective was to clarify the feasibility of traceable mesoporous silica nanoparticles, loaded with a hydrophobic cancer drug, being applied for targeted drug delivery in vitro and in vivo. Particles were provided with a small molecular targeting ligand. In the study a significantly higher therapeutic effect could be achieved with nanoparticles compared to free drug. The nanoparticles were biocompatible and stayed in the tumor for a longer time than a free medicine did, before being eliminated by renal excretion. Overall, the results showed that mesoporous silica nanoparticles are biocompatible, biodegradable drug carriers and that cell specificity can be achieved both in vitro and in vivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of the thesis is to study how mathematics is experienced and used in preschool children’s activities and how preschool teachers frame their teaching of mathematical content. The studies include analyses of children’s actions in different activities from a mathematical perspective and preschool teachers’ intentions with and their teaching of mathematics. Preschool teachers’ understanding of the knowledge required in this area is also scrutinised. The theoretical points of departure are variation theory and sociocultural theory. With variation theory the focus is directed towards how mathematical content is dealt with in teaching situations where preschool teachers have chosen the learning objects. The sociocultural perspective has been chosen because children’s mathematical learning in play often takes place in interactions with others and in the encounter with culturally mediated concepts. The theoretical framework also includes didactical points of departure. The study is qualitative, with videography and phenomenography as metholological research approaches. In the study, video observations and interviews with preschool teachers have been used as data collection methods. The results show that in children’s play mathematics consists of volume, geometrical shapes, gravity, quantity and positioning. The situations also include size, patterns, proportions, counting and the creation of pairs. The preschool teachers’ intentions, planning and staging of their goal-oriented work are that all children should be given the opportunity to discern a mathematical content. This also includes making learning objects visible in here-and-now-situations. Variation and a clear focus on the mathematical content are important in this context. One of the study’s knowledge contributions concerns the didactics of mathematics in the preschool. This relates to the teaching of mathematics and includes the knowledge that preschool teachers regard as essential for their teaching. This includes theoretical and practical knowledge about children and children’s learning and didactical issues and strategies. The conclusion is that preschool teachers need to have a basic knowledge of mathematics and the didactics of mathematics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Arvoverkostojen välinen kilpailu nykyisessä liiketoiminnassa on johtanut siihen, että toimittajaportfolioita pyritään hallitsemaan yhä strategisemmin. Yksi tapa hallita yrityksen toimittajaportfoliota on segmentoida toimittajat eri kategorioihin ja asettaa näille kategorioille strategiset tavoitteet. Segmentoinnin työkaluina voidaan käyttää ostoportfolioita, joita on suunniteltu useita erilaisia erilaisiin tarpeisiin. Käytetyin portfoliomalli on Kraljicin ostoportfolio, jota käytetään visualisoimaan yrityksen toimittajia ja tuotteita niiden tuottovaikutuksen ja toimitusriskin perusteella. Tutkimuksen tavoite oli ymmärtää, miten hankinta-alan asiantuntijat hallitsevat toimittajaportfoliotaan, painottaen erityisesti sitä, miten hankinta-asiantuntijat käyttävät tieteellisiä ostoportfolioita todellisessa liike-elämässä. Tutkimus toteutettiin laadullisin menetelmin, koska työn tarkoituksena oli ymmärtää syvällisesti tutkittavia kohteita ja pohtia niitä taustatekijöitä, jotka puoltavat tai hidastavat ostoportfolioiden käyttöä yrityksissä. Työssä haastateltiin viittä hankinta-alan asiantuntijaa, joista kaksi työskentelee johtavissa tehtävissä yksityisessä osakeyhtiössä ja kolme työskentelee johtavissa tehtävissä julkisessa osakeyhtiössä. Työn lopputuloksena voidaan todeta, että Kraljicin ostoportfoliota käytetään laajasti erilaisissa hankinnoissa, mutta muita tieteellisiä malleja ei käytetä. Portfolionanalyysin käyttö liittyy usein hankintaosaston kokoon, hankintahenkilöstön asiantuntevuuteen ja koulutukseen, strategisuuteen ja strategiseen vaikutusvaltaan yrityksessä. Niiden käyttö riippuu myös siitä, minkälaisia hankintoja tehdään. Haastavimmaksi ostoportfolioiden käyttö koetaan palveluiden hankinnoissa. Portfoliomallia hyödynnetään erityisesti, kun yritys kartoittaa toimittajakenttäänsä hakiessaan uusia muutossuuntia liiketoimintaansa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Globalization and interconnectedness in the worldwide sphere have changed the existing and prevailing modus operandi of organizations around the globe and have challenged existing practices along with the business as usual mindset. There are no rules in terms of creating a competitive advantage and positioning within an unstable, constantly changing and volatile globalized business environment. The financial industry, the locomotive or the flagship industry of global economy, especially, within the aftermath of the financial crisis, has reached a certain point trying to recover and redefine its strategic orientation and positioning within the global business arena. Innovation has always been a trend and a buzzword and by many has been considered as the ultimate answer to any kind of problem. The mantra Innovate or Die has been prevailing in any organizational entity in a, sometimes, ruthless endeavour to develop cutting-edge products and services and capture a landmark position in the market. The emerging shift from a closed to an open innovation paradigm has been considered as new operational mechanism within the management and leadership of the company of the future. To that respect, open innovation has been experiencing a tremendous growth research trajectory by putting forward a new way of exchanging and using surplus knowledge in order to sustain innovation within organizations and in the level of industry. In the abovementioned reality, there seems to be something missing: the human element. This research, by going beyond the traditional narratives for open innovation, aims at making an innovative theoretical and managerial contribution developed and grounded on the on-going discussion regarding the individual and organizational barriers to open innovation within the financial industry. By functioning across disciplines and researching out to primary data, it debunks the myth that open innovation is solely a knowledge inflow and outflow mechanism and sheds light to the understanding on the why and the how organizational open innovation works by enlightening the broader dynamics and underlying principles of this fascinating paradigm. Little attention has been given to the role of the human element, the foundational pre-requisite of trust encapsulated within the precise and fundamental nature of organizing for open innovation, the organizational capabilities, the individual profiles of open innovation leaders, the definition of open innovation in the realms of the financial industry, the strategic intent of the financial industry and the need for nurturing a societal impact for human development. To that respect, this research introduces the trust-embedded approach to open innovation as a new insightful way of organizing for open innovation. It unveils the peculiarities of the corporate and individual spheres that act as a catalyst towards the creation of productive open innovation activities. The incentive of this research captures the fundamental question revolving around the need for financial institutions to recognise the importance for organizing for open innovation. The overarching question is why and how to create a corporate culture of openness in the financial industry, an organizational environment that can help open innovation excel. This research shares novel and cutting edge outcomes and propositions both under the prism of theory and practice. The trust-embedded open innovation paradigm captures the norms and narratives around the way of leading open innovation within the 21st century by cultivating a human-centricity mindset that leads to the creation of human organizations, leaving behind the dehumanization mindset currently prevailing within the financial industry.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le récepteur mélanocortine de type 4 (MC4R) est un récepteur couplé aux protéines G impliqué dans la régulation de la prise alimentaire et de l’homéostasie énergétique. Quatre-vingt pour cent des mutants du MC4R reliés à l’obésité morbide précoce (OMP) sont retenus à l’intérieur de la cellule. Le système de contrôle de qualité (SCQ) est probablement responsable de cette rétention, par la reconnaissance d’une conformation inadéquate des mutants. Le rétablissement de l’expression à la surface cellulaire et de la fonctionnalité de ces mutants est donc d’intérêt thérapeutique. Dans cette optique, des composés lipophiles spécifiques pour le MC4R ont été sélectionnés sur la base de leur sélectivité. Nous avons démontré qu’ils agissent à titre de chaperone pharmacologique (CP) en rétablissant l’expression à la surface cellulaire et la fonctionnalité des récepteurs mutants S58C et R165W, et qu’ils favorisent leur N-glycosylation complexe (maturation). Le suivi par BRET du site d’action des CP du MC4R suggère une action en aval de l’interaction calnexine-MC4R. De manière générale, une CP peut avoir un effet différent selon le mutant traité en induisant des conformations distinctes du récepteur plus ou moins aptes à se dissocier du SCQ et à activer la voie de signalisation, et un mutant peut répondre différemment selon la CP utilisée par des différences d’affinité pour le ligand, la CP et les effecteurs. Une meilleure compréhension du mode d’action des CP pourrait aider au développement de nouvelles approches thérapeutiques non seulement pour l’OMP, mais aussi pour d’autres maladies conformationnelles causées par le mauvais repliement de protéines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acétylation des résidus de glucosamine terminaux par la N-acétyltransférase lysosomale (HGSNAT) est une étape essentielle de la dégradation catabolique de l’héparan sulfate. Des défauts dans cette réaction causent une maladie de surcharge lysosomale autosomale récessive rare : le désordre de Sanfilippo type C (SFC). À ce jour, 54 mutations ont été rapportées chez des patients SFC, incluant 13 mutations des sites d’épissage, 11 insertions et délétions, 8 mutations non-sens, 18 mutations faux-sens et 4 polymorphismes, avec différentes manifestations phénotypiques. Nous avons identifié 10 d’entre elles et effectué une étude exhaustive portant sur l’éventail des mutations SFC, leur distribution dans la population de patients, ainsi que leur impact potentiel sur la structure de la HGSNAT. Les erreurs d’épissage, les mutations non-sens, les insertions et les délétions devraient toutes entraîner un ARN non fonctionnel qui est rapidement dégradé par des mécanismes de contrôle qualité cellulaire. Les 4 polymorphismes identifiés sont des changements d'acides aminés qui ne modifient pas l'activité enzymatique, la glycosylation ou la localisation et n'ont donc pas de signification au niveau clinique. Au niveau des enzymes, les polymorphismes sont des changements d’acides aminés qui n’affectent pas la fonction, mais dans un contexte d’acides nucléiques ils peuvent être considérés comme des mutations faux-sens. Les dix-huit mutations faux-sens qui ont été exprimées ont produit des protéines inactives, en raison d'erreurs dans leur repliement. Ceci expliquerait donc la progression sévère de la maladie chez les personnes porteuses de ces mutations. Les protéines mutantes mal repliées sont anormalement glycosylées et conservées dans le réticulum endoplasmique. La thérapie par amélioration de l’activité enzymatique par des chaperonnes est une option thérapeutique potentielle, spécifiquement conçue pour exploiter l'activité enzymatique résiduelle de mutants mal repliés, afin d’éliminer les substrats stockés. Nous avons démontré que le traitement de plusieurs lignées de fibroblastes de patients SFC avec le chlorhydrate de glucosamine, un inhibiteur spécifique de la HGSNAT, a partiellement restauré l’activité de l'enzyme mutante, fournissant une preuve de l’utilité future de la thérapie par des chaperonnes dans le traitement de la maladie de SFC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le GABA est le principal neurotransmetteur inhibiteur du SNC et est impliqué dans le développement du cerveau, la plasticité synaptique et la pathogénèse de maladies telles que l’épilepsie, les troubles de l’anxiété et la douleur chronique. Le modèle actuel de fonctionnement du récepteur GABA-B implique l’hétérodimérisation GABA-B1/B2, laquelle est requise au ciblage à la surface membranaire et au couplage des effecteurs. Il y est cependant des régions du cerveau, des types cellulaires et des périodes du développement cérébral où la sous-unité GABA-B1 est exprimée en plus grande quantité que GABA-B2, ce qui suggère qu’elle puisse être fonctionnelle seule ou en association avec des partenaires inconnus, à la surface cellulaire ou sur la membrane réticulaire. Dans le cadre de cette thèse, nous montrons la capacité des récepteurs GABA-B1 endogènes à activer la voie MAPK-ERK1/2 dans la lignée dérivée de la glie DI-TNC1, qui n’exprime pas GABA-B2. Les mécanismes qui sous-tendent ce couplage demeurent mal définis mais dépendent de Gi/o et PKC. L’immunohistochimie de récepteurs endogènes montre par ailleurs que des anticorps GABA-B1 dirigés contre la partie N-terminale reconnaissent des protéines localisées au RE tandis des anticorps C-terminaux (CT) marquent une protéine intranucléaire. Ces données suggèrent que le domaine CT de GABA-B1 pourrait être relâché par protéolyse. L’intensité des fragments potentiels est affectée par le traitement agoniste tant en immunohistochimie qu’en immunobuvardage de type western. Nous avons ensuite examiné la régulation du clivage par le protéasome en traitant les cellules avec l’inhibiteur epoxomicine pendant 12 h. Cela a résulté en l’augmentation du marquage intranucléaire de GABA-B1-CT et d’un interacteur connu, le facteur de transcription pro-survie ATF-4. Dans des cellules surexprimant GABA-B1-CT, l’induction et la translocation nucléaire d’ATF-4, qui suit le traitement epoxomicine, a complètement été abolie. Cette observation est associée à une forte diminution du décompte cellulaire. Étant donné que les trois derniers résidus de GABA-B1-CT (LYK) codent un ligand pseudo-PDZ et que les protéines à domaines PDZ sont impliquées dans la régulation du ciblage nucléaire et de la stabilité de protéines, en complément de leur rôle d’échaffaud à la surface cellulaire, nous avons muté les trois derniers résidus de GABA-B1-CT en alanines. Cette mutation a complètement annulé les effets de GABA-B1-CT sur l’induction d’ATF-4 et le décompte cellulaire. Cette deuxième série d’expériences suggère l’existence possible de fragments GABA-B1 intranucléaires régulés par le traitement agoniste et le protéasome dans les cellules DI-TNC1. Cette régulation d’ATF-4 dépend des résidus LYK de GABA-B1-CT, qui modulent la stabilité de GABA-B1-CT et favorisent peut-être la formation d’un complexe multiprotéique incluant GABA-B1-CT, ATF-4, de même qu’une protéine d’échaffaudage inconnue. En somme, nous démontrons que les sous-unités GABA-B1 localisées au RE, lorsque non-hétérodimérisées avec GABA-B2, demeurent capables de moduler les voies de signalisation de la prolifération, la différentiation et de la survie cellulaire, via le couplage de protéines G et possiblement la protéolyse régulée. Les mécanismes de signalisation proposés pourraient servir de nouvelle plate-forme dans la compréhension des actions retardées résultant de l’activation des récepteurs 7-TMs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.