942 resultados para materials for electric energy distribution networks


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Corporations practice company acquisitions in order to create shareholder’s value. During the last few decades, the companies in emerging markets have become active in the acquisition business. During the last decade, large and significant acquisitions have occurred especially in automotive industry. While domestic markets have become too competitive and companies are lacking required capabilities, they seek possibilities to expand into Western markets by attaining valuable assets through acquisitions of developed country corporations. This study discusses the issues and characteristics of these acquisitions through case studies. The purpose of this study was to identify the acquisition motives and strategies for post-transaction brand and product integration as well as analyze the effect of the motives to the integration strategy. The cases chosen for the research were Chinese Geely acquiring Swedish Volvo in 2010 and Indian Tata Motors buying British Jaguar Land Rover in 2008. The main topics were chosen according to their significance for companies in automotive industry as well as those are most visible parts for consumers. The study is based on qualitative case study methods, analyzing secondary data from academic papers and news articles as well as companies’ own announcements e.g. stock exchange and press releases. The study finds that the companies in the cases mainly possessed asset-seeking and market-seeking motives. In addition, the findings refer to rather minimal post-acquisition brand and product integration strategies. Mainly the parent companies left the target company autonomous to make their own business strategies and decisions. The most noticeable integrations were in the product development and production processes. Through restructuring the product architectures, the companies were able to share components and technology between product families and brands, which results in cutting down costs and in increase of profitability and efficiency. In the Geely- Volvo case, the strategy focused more on component sharing and product development know-how, whereas in Tata Motors-Jaguar Land Rover case, the main actions were to cut down costs through component sharing and combine production and distribution networks especially in Asian markets. However, it was evident that in both cases the integration and technology sharing were executed cautiously to prevent on harming the valuable image of the luxury brand. This study has concluded that the asset-seeking motives have significant influence on the posttransaction brand and model line-up integration strategies. By taking a cautious approach in acquiring assets, such as luxury brand, the companies in the cases have implemented a successful post-acquisition strategy and managed to create value for the shareholders at least in short-term. Yritykset harjoittavat yritysostoja luodakseen osakkeenomistajille lisäarvoa. Viimeisten muutamien vuosikymmenien aikana yritykset kehittyvissä maissa ovat myös aktivoituneet yritysostoissa. Viimeisen vuosikymmenen aikana erityisesti autoteollisuudessa on esiintynyt suuria ja merkittäviä yritysostoja. Koska kilpailu kotimaan markkinoilla on kiristynyt ja yritykset ovat vailla vaadittavia valmiuksia, ne etsivät mahdollisuuksiaan laajentaa länsimaisiin markkinoihin hankkimalla arvokkaita etuja kehittyneiden maiden yrityksistä yritysostojen avulla. Tämä tutkimus pohtii näiden yritysostojen olennaisia kysymyksiä ja ominaisuuksia casetutkimuksien kautta. Tutkimuksen tarkoitus oli tunnistaa sekä yritysostojen motiiveja ja brändi- ja mallisto-integraation strategioita että analysoida kyseisten motiivien vaikutusta integraatiostrategiaan. Tapaus-tutkimuksiksi valittiin kiinalaisen Geelyn yritysosto ruotsalaisesta Volvosta vuonna 2010 ja intialaisen Tata Motorsin yritysosto englantilaisesta Jaguar Land Roverista vuonna 2008. Tutkimus on kvalitatiivinen case-tutkimus ja siinä analysoidaan toissijaista tietoa sekä akateemisten ja uutisartikkeleiden että yritysten omien ilmoitusten, kuten pörssi- ja lehdistötiedotteiden, kautta. Tutkimuksen tulokset osoittavat, että tutkittujen yritysten toiminnat perustuivat motiiveihin, joita ajoivat etujen and uusien markkinoiden tarve. Sen lisäksi tutkimustulokset osoittivat, että yritysoston jälkeinen brändi- ja mallisto-integraatio pidettiin minimaalisena. Pääasiallisesti kohdeyrityksille jätettiin autonomia tehdä omat liikkeenjohdolliset päätökset yritysstrategioihin liittyen. Huomattavimmat integraatiot koskivat tuotekehityksellisiä ja tuotannollisia prosesseja. Kehittämällä uudelleen tuotearkkitehtuureja, yritykset pystyivät jakamaan komponentteja ja teknologiaa tuoteperheiden ja brändien välillä. Tämä mahdollisti kustannusleikkauksia sekä kannattavuuden ja tehokkuuden parantamista. Geely-Volvo –tapauksessa integraatiostrategia keskittyi komponenttien jakamiseen yhteisten tuotearkkitehtuurien avulla ja tuotekehityksen ammattitaitoon, kun taas Tata Motors-JLR –tapauksessa päätoiminnat olivat kustannuksien leikkaus sekä tuotannon ja jakeluverkoston yhdistäminen erityisesti Aasian maissa. Yhteistä yrityskaupoissa oli, että brändi- ja mallisto-integraatio sekä teknologian jakaminen suoritettiin varoen ehkäistäkseen arvokkaiden luksus-brändien tuotekuvan vahingoittamista. Tutkimuksen lopputulokset osoittavat, että yrityskaupan motiiveilla on huomattava vaikutus brändija mallisto-integraation strategiaan. Toteuttamalla varovaista lähestymistapaa luksus-brändin hankinnassa ja integraatiossa, yritykset ovat onnistuneet luomaan lisäarvoa osakkeenomistajille vähintään lyhyellä aikavälillä.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The distribution of excitation energy between the two photosystems (PSII and PSI) of photosynthesis is regulated by the light state transition. Three models have been proposed for the mechanism of the state transition in phycobilisome (PBS) containing organisms, two involving protein phosphorylation. A procedure for the rapid isolation of thylakoid membranes and PBS fractions from the cyanobacterium Synechococcus m. PCC 6301 in light state 1 and light state 2 was developed. The phosphorylation of thylakoid and soluble proteins rapidly isolated from intact cells in state 1 and state 2 was investigated. 77 K fluorescence emission spectra revealed that rapidly isolated thylakoid membranes retained the excitation energy distribution characteristic of intact cells in state 1 and state 2. Phosphoproteins were identified by gel electrophoresis of both thylakoid membrane and phycobilisome fractions isolated from cells labelled with 32p orthophosphate. The results showed very close phosphoprotein patterns for either thylakoid membrane or PBS fractions in state 1 and state 2. These results do not support proposed models for the state transition which required phosphorylation of PBS or thylakoid membrane proteins.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mathematical predictions of flow conditions along a steep gradient rock bedded stream are examined. Stream gage discharge data and Manning's Equation are used to calculate alternative velocities, and subsequently Froude Numbers, assuming varying values of velocity coefficient, full depth or depth adjusted for vertical flow separation. Comparison of the results with photos show that Froude Numbers calculated from velocities derived from Manning's Equation, assuming a velocity coefficient of 1.30 and full depth, most accurately predict flow conditions, when supercritical flow is defined as Froude Number values above 0.84. Calculated Froude Number values between 0.8 and 1.1 correlate well with observed transitional flow, defined as the first appearance of small diagonal waves. Transitions from subcritical through transitional to clearly supercritical flow are predictable. Froude Number contour maps reveal a sinuous rise and fall of values reminiscent of pool riffle energy distribution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude s’insère dans une étude s’intitulant « Choix alimentaires d’adolescents canadiens et attitudes de leurs entraîneurs impliqués dans des activités sportives organisées ». Les objectifs étaient d’étudier chez des adolescents impliqués dans une compétition sportive provinciale où l’offre alimentaire est contrôlée 1) leur maîtrise des recommandations nutritionnelles 2) les facteurs individuels, comportementaux, socio-environnementaux influençant leurs choix alimentaires. Deux observateurs ont visité les différents sites alimentaires et de compétition pendant les Jeux du Québec de 2011 à Valleyfield. Les plateaux des athlètes ont été photographiés à table au moment des repas avec une caméra numérique et les commentaires oraux colligés par écrit. Au total, 173 photographies ont été analysées et comparées aux recommandations reconnues en nutrition sportive. Dans notre étude, les préférences alimentaires, l’offre alimentaire et la présence des coéquipiers sont les facteurs qui influencent le plus les choix alimentaires en compétition. Par contre, le sexe de l’athlète n’a pas influencé les choix alimentaires des athlètes observés. En pré-compétition, 85,4% des plateaux présentent une valeur énergétique supérieure aux recommandations et 66,3% d’entre eux ont une répartition en énergie inadéquate, peu importe le sexe. Un excès de lipides et de protéines au sein du repas précédant l’effort caractérise majoritairement les plateaux dont la répartition en énergie est non optimale (69,5%). Les recommandations en post-compétition (100%) et lors des jours de repos (95,8%) ont facilement été rencontrées. Il en est de même pour l’hydratation (99,4%). Le lait au chocolat est la boisson la plus populaire (59,5%). Les produits céréaliers (99,4%), le lait et substituts (87,3%), les légumes (85,7%), les viandes et substituts (83,2%), les aliments riches en sucres (79,8%), les fruits (70,5%) et les mets riches en gras (59,4%) sont particulièrement appréciés par les athlètes. Les commentaires recueillis font ressortir une vision dichotomique des aliments chez certains athlètes qui classifient les aliments en « bons » ou « mauvais ». Notre étude démontre que la présence d’une politique alimentaire permet de promouvoir des habitudes alimentaires saines et favorise la consommation d’aliments nutritifs lors d’une compétition sportive d’envergure. Cependant, de l’éducation en nutrition est toujours requise pour viser l’amélioration du comportement alimentaire avant l’effort.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les nanotubes de carbone et le graphène sont des nanostructures de carbone hybridé en sp2 dont les propriétés électriques et optiques soulèvent un intérêt considérable pour la conception d’une nouvelle génération de dispositifs électroniques et de matériaux actifs optiquement. Or, de nombreux défis demeurent avant leur mise en œuvre dans des procédés industriels à grande échelle. La chimie des matériaux, et spécialement la fonctionnalisation covalente, est une avenue privilégiée afin de résoudre les difficultés reliées à la mise en œuvre de ces nanostructures. La fonctionnalisation covalente a néanmoins pour effet de perturber la structure cristalline des nanostructures de carbone sp2 et, par conséquent, d’affecter non seulement lesdites propriétés électriques, mais aussi les propriétés optiques en émanant. Il est donc primordial de caractériser les effets des défauts et du désordre dans le but d’en comprendre les conséquences, mais aussi potentiellement d’en exploiter les retombées. Cette thèse traite des propriétés optiques dans l’infrarouge des nanotubes de carbone et du graphène, avec pour but de comprendre et d’expliquer les mécanismes fondamentaux à l’origine de la réponse optique dans l’infrarouge des nanostructures de carbone sp2. Soumise à des règles de sélection strictes, la spectroscopie infrarouge permet de mesurer la conductivité en courant alternatif à haute fréquence des matériaux, dans une gamme d’énergie correspondant aux vibrations moléculaires, aux modes de phonons et aux excitations électroniques de faible énergie. Notre méthode expérimentale consiste donc à explorer un espace de paramètres défini par les trois axes que sont i. la dimensionnalité du matériau, ii. le potentiel chimique et iii. le niveau de désordre, ce qui nous permet de dégager les diverses contributions aux propriétés optiques dans l’infrarouge des nanostructures de carbone sp2. Dans un premier temps, nous nous intéressons à la spectroscopie infrarouge des nanotubes de carbone monoparois sous l’effet tout d’abord du dopage et ensuite du niveau de désordre. Premièrement, nous amendons l’origine couramment acceptée du spectre vibrationnel des nanotubes de carbone monoparois. Par des expériences de dopage chimique contrôlé, nous démontrons en effet que les anomalies dans lespectre apparaissent grâce à des interactions électron-phonon. Le modèle de la résonance de Fano procure une explication phénoménologique aux observations. Ensuite, nous établissons l’existence d’états localisés induits par la fonctionnalisation covalente, ce qui se traduit optiquement par l’apparition d’une bande de résonance de polaritons plasmons de surface (nanoantenne) participant au pic de conductivité dans le térahertz. Le dosage du désordre dans des films de nanotubes de carbone permet d’observer l’évolution de la résonance des nanoantennes. Nous concluons donc à une segmentation effective des nanotubes par les greffons. Enfin, nous montrons que le désordre active des modes de phonons normalement interdits par les règles de sélection de la spectroscopie infrarouge. Les collisions élastiques sur les défauts donnent ainsi accès à des modes ayant des vecteurs d’onde non nuls. Dans une deuxième partie, nous focalisons sur les propriétés du graphène. Tout d’abord, nous démontrons une méthode d’électrogreffage qui permet de fonctionnaliser rapidement et à haute densité le graphène sans égard au substrat. Par la suite, nous utilisons l’électrogreffage pour faire la preuve que le désordre active aussi des anomalies dépendantes du potentiel chimique dans le spectre vibrationnel du graphène monocouche, des attributs absents du spectre d’un échantillon non fonctionnalisé. Afin d’expliquer le phénomène, nous présentons une théorie basée sur l’interaction de transitions optiques intrabandes, de modes de phonons et de collisions élastiques. Nous terminons par l’étude du spectre infrarouge du graphène comportant des îlots de bicouches, pour lequel nous proposons de revoir la nature du mécanisme de couplage à l’œuvre à la lumière de nos découvertes concernant le graphène monocouche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis les années 1980, les archéologues ont remarqué l'originalité des collections de céramiques trouvées sur des sites occupés par les pêcheurs basques au cours du XVIe au XVIIIe siècle sur les côtes atlantiques du Canada. Le site de Red Bay (Labrador) a été le premier à fournir une riche collection de terre cuites communes, majoliques et grès, qui ont permis aux archéologues de reconnaître une tradition céramique distincte. Pendant plus de deux siècles, ces céramiques constituent un fil conducteur qui montre la permanence des activités commerciales basques au Canada. En utilisant une approche mutualiste et comparative de quatre sites de pêche basque (Red Bay (1530-1580), Anse-à-la-Cave (1580-1630), Petit-Mécatina (1630-1713), Pabos (1713- 1760)) et leurs ports d’attache dans l’Europe atlantique, nous observons comment à partir du milieu du XVIe siècle, l’ensemble des céramiques se transforme d'un endroit à l’autre sans perdre son air distinctif jusqu'au début du XVIIIe siècle quand les témoins des céramiques basques changent radicalement. Finalement, une perspective globale qui relie les deux côtes atlantiques par le biais de ces matériaux céramiques nous aide à mieux connaître les réseaux d'approvisionnement liés aux traversées de pêche et l’espace économique complexe qui s’articule aux routes maritimes et de l’intérieur. Ces deux éléments se veulent essentiels à la compréhension de l'expansion outremers, ses materiaux laissés et son rôle dans l'économie mondiale au début de l'époque moderne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Projecte de millores d'infrastructures de la urbanització de Santa Maria de Llorell (Tossa de Mar

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A petició d’un grup d’empreses del polígon industrial “Polígon”, es redacta el present projecte que té per objecte establir les característiques tècniques per a la construcció d’una variant de la línia de doble circuit 110 kV que uneix les dues subestacions; S.E. Polígon Nord – S.E. Polígon Sur. Actualment es disposa d’una línia de doble circuit 110 kV que uneix les dues subestacions; S.E. Polígon Nord – S.E. Polígon Sur i que travessa vàries parcel•les del polígon industrial “Polígon” sobrevolant-les i reduint, per tant, la seva capacitat d’aprofitament de sòl. Es consideraran, i es calcularan, les dues alternatives que existeixen actualment en línies de transport elèctric: variant aèria i variant soterrada

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents and compares two approaches to estimate the origin (upstream or downstream) of voltage sag registered in distribution substations. The first approach is based on the application of a single rule dealing with features extracted from the impedances during the fault whereas the second method exploit the variability of waveforms from an statistical point of view. Both approaches have been tested with voltage sags registered in distribution substations and advantages, drawbacks and comparative results are presented