925 resultados para Integrated Library System
Resumo:
Poster at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
In recent times the packaging industry is finding means to maximize profit. Wood used to be the most advantageous and everyday material for packaging, worktables, counters, constructions, interiors, tools and as materials and utensils in the food companies in the world. The use of wood has declined vigorously, and other materials like plastic, ceramic, stainless steel, concrete, and aluminum have taken its place. One way that the industry could reduce its cost is by finding possibilities of using wood for primary packaging after which it can be safely recycled or burned as a carbon source for energy. Therefore, the main objective of this thesis is to investigate the possibility of press-forming a wood film into primary packaging. In order to achieve the stated objectives, discussion on major characteristics of wood in terms of structure, types and application were studied. Two different wood species, pine and birch were used for the experimental work. These were provided by a local carpentry workshop in Lappeenranta and a workshop in Ruokolahti supervised by Professor Timo Kärki. Laboratory tests were carried out at Lappeenranta University of Technology FMS workshop on Stenhøj EPS40 M hydraulic C-frame press coupled with National Instruments VI Logger and on the Adjustable packaging line machine at LUT Packaging laboratory. The tests succeeded better on the LUT packaging line than on the Stenhoj equipment due to the integrated heating system in the machine. However, there is much work to be done before the quality of a tray produced from the wood film is comparable to that of the wood plastic composite tray.
Resumo:
Tämä diplomityö tehtiin Sampo-Rosenlewin Porin tehtaan toimeksiannosta. Työn tavoitteena oli kehittää ympäristö- ja turvallisuustoimintaa tehtaalla. Ympäristö- ja turvallisuustoimintaa kehitettiin luomalla toimintajärjestelmä sekä valitsemalla riskienhallintamenetelmä POA. Uusien työkalujen tuonti mukaan toimintakulttuuriin todettiin haastavaksi, sillä turvallisuus- ja ympäristökulttuuri on vielä matalalla tasolla. Ympäristö- ja turvallisuustoiminnan tasoa ja hallintakeinoja tutkittiin benchmarkkaamalla kolmea saman kokoluokan teollisuusyritystä ja keräämällä hyväksi todettuja metodeja toimintajärjestelmään. Sampo-Rosenlew on Porissa sijaitseva konepaja, joka valmistaa leikkuupuimureita ja metsäkoneita. Sampo-Rosenlew käyttää konepajana paljon kemikaaleja johtuen kolmesta maalaamostaan. Työn tavoitteena oli parantaa Sampo-Rosenlewin ympäristö- ja turvallisuusasioiden nykyistä tilaa erilaisten työkalujen avulla, joita yritykselle luotiin. Työssä kehitettiin Sampo-Rosenlewille toimintajärjestelmä ISO 14001 ympäristöjärjestelmästandardia ja OHSAS 18001 TTT- järjestelmästandardia mukaillen. Luotu toimintajärjestelmä on tulevaisuudessa tavoitteena sertifioida. Valittua riskianalyysimenetelmä POA:aa tullaan pilottivaiheessa testaamaan aluksi yrityksen maalaamoissa. Toimintajärjestelmä ja riskienhallintamenetelmä pyrittiin luomaan mahdollisimman yksinkertaiseksi, selkeäksi ja helpoksi kehittää. Näiden menetelmien käyttöönoton onnistumiseen vaikuttavat nykyinen toimintakulttuuri ja ylimmän johdon sitoutuminen asiaan. Järjestelmän käyttöönoton myötä on tavoitteena Sampo-Rosenlewin dokumentoinnin tason parantaminen ja kilpailukyvyn tehostaminen.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.
Resumo:
Im Rahmen dieser Arbeit wurden magneto-optische Speicherschichten und ihre Kopplungen untereinander untersucht. Hierzu wurden zum Einen die für die magneto-optische Speichertechnologie "klassischen" Schichten aus RE/TM-Legierungen verwendet, zum Anderen aber auch erfolgreich Granate integriert, die bisher nicht in diesem Anwendungsgebiet verwendet wurden. Einleitend werden die magneto-optischen Verfahren, die resultierenden Anforderungen an die dünnen Schichten und die entsprechenden physikalischen Grundlagen diskutiert. Außerdem wird auf das Hochfrequenz-Sputtern von RE/TM-Legierungen eingegangen und die verwendeten magneto-optischen Messverfahren werden erläutert [Kap. 2 & 3]. Die Untersuchungen an RE/TM-Schichten bestätigen die aus der Literatur bekannten Eigenschaften. Sie lassen sich effektiv, und für magneto-optische Anwendungen geeignet, über RF-Sputtern herstellen. Die unmittelbaren Schicht-Parameter, wie Schichtdicke und Terbium-Konzentration, lassen sich über einfache Zusammenhänge einstellen. Da die Terbium-Konzentration eine Änderung der Kompensationstemperatur bewirkt, lässt sich diese mit Messungen am Kerr-Magnetometer überprüfen. Die für die Anwendung interessante senkrechte magnetische Anisotropie konnte ebenfalls mit den Herstellungsbedingungen verknüpft werden. Bei der Herstellung der Schichten auf einer glatten Glas-Oberfläche (Floatglas) zeigt die RE/TM-Schicht bereits in den ersten Lagen ein Wachstumsverhalten, das eine senkrechte Anisotropie bewirkt. Auf einer Quarzglas- oder Keramik-Oberfläche wachsen die ersten Lagen in einer durch das Substrat induzierten Struktur auf, danach ändert sich das Wachstumsverhalten stetig, bis eine senkrechte Anisotropie erreicht wird. Dieses Verhalten kann auch durch verschiedene Pufferschichten (Aluminium und Siliziumnitrid) nur unwesentlich beeinflusst werden [Kap. 5 & Kap. 6]. Bei der direkten Aufbringung von Doppelschichten, bestehend aus einer Auslese-Schicht (GdFeCo) auf einer Speicherschicht (TbFeCo), wurde die Austausch-Kopplung demonstriert. Die Ausleseschicht zeigt unterhalb der Kompensationstemperatur keine Kopplung an die Speicherschicht, während oberhalb der Kompensationstemperatur eine direkte Kopplung der Untergitter stattfindet. Daraus ergibt sich das für den MSR-Effekt erwünschte Maskierungsverhalten. Die vorher aus den Einzelschichten gewonnen Ergebnisse zu Kompensationstemperatur und Wachstumsverhalten konnten in den Doppelschichten wiedergefunden werden. Als Idealfall erweist sich hier die einfachste Struktur. Man bringt die Speicherschicht auf Floatglas auf und bedeckt diese direkt mit der Ausleseschicht [Kap. 7]. Weiterhin konnte gezeigt werden, dass es möglich ist, den Faraday-Effekt einer Granatschicht als verstärkendes Element zu nutzen. Im anwendungstauglichen, integrierten Schichtsystem konnten die kostengünstig, mit dem Sol-Gel-Verfahren produzierten, Granate die strukturellen Anforderungen nicht erfüllen, da sich während der Herstellung Risse und Löcher gebildet haben. Bei der experimentellen Realisierung mit einer einkristallinen Granatschicht und einer RE/TM-Schicht konnte die prinzipielle Eignung des Schichtsystems demonstriert werden [Kap. 8].
Resumo:
En los últimos 15 años se ha discutido sobre las posibles soluciones a las dificultades del sistema integrado de transporte público a las que se enfrenta Bogotá. Restricciones como “Pico y Placa”, el día del “No carro”, sistemas masivos de transporte y la posibilidad de implementar el metro han sido alternativas que no han llegado a su fin de ejecución pero tampoco han logrado formalizarse y aplicarse de tal manera que favorezcan a la movilidad urbana. Nuestro centro de análisis será la movilidad urbana compuesta por diferentes variables que serán estudiadas a nivel macro como la capacidad de la malla vial a nivel de expansión territorial en la ciudad, el parque automotor, el manejo de la administración de la alcaldía en las licitaciones y chatarrización tanto a nivel micro como la cultura de movilidad y la influencia en la calidad de vida por esta tecnificación de transporte. Existen muchos estudios sobre los problemas de movilidad tanto en Latino América como en países Europeos, sin embargo lo que se pretende en este estudio es un planteamiento más general para una concertación de soluciones innovadoras y eficaces en la dirección técnica y política para una realidad territorial y urbana en calidad de servicio.
Resumo:
Las vivencias presentadas, están basadas en la experiencia de trabajo de la Biblioteca Nacional del Perú, en el establecimiento penitenciario de régimen cerrado Piedras Gordas ubicada en Ancón a 50 minutos fuera de la ciudad de Lima. Siendo la educación un derecho humano que opera como un derecho llave, ya que abre el conocimiento de otros derechos. El Sistema Nacional de Bibliotecas - SNB a través del centro coordinador de la Red Bibliotecas Educativas y Especializadas, realizó en forma experimental el servicio de maletas viajeras, como actividad de extensión bibliotecaria con el Programa Lectura sin barreras, enmarcado en los Derechos Humanos, accesibilidad a la información y la animación y fomento de la lectura. Así como el desarrollo de dos proyectos: Despertando talentos ocultos (2005) y Libres por la creatividad (2006).
Resumo:
Hoy en día, Bogotá cuenta con aproximadamente 15800 buses de servicio público, no obstante, alrededor de un 45% de esta flota se encuentra en un estado crítico. La existencia de modelos de buses previos al 2003, la falta de revisiones periódicas, negligencias en el cumplimiento de los requisitos para la prestación del servicio, la resistencia al cambio por parte de los transportistas, y demás factores dificultan la labor de actualizar y unificar la flota en el actual plan del Sistema Integrado de Transporte de la ciudad. El Sistema integrado de transporte procura introducir un sistema confiable, eficaz, y rápido que se adapte a la creciente necesidad de movilidad en Bogotá. Este sistema tiene como propósito la integración del sistema Transmilenio con la estructura tradicional de transporte masivo; se pretende complementar, fortalecer e integrar todos los eslabones de transporte segmentado que existen en la ciudad. Las primeras fases del sistema pretenden cambiar la estructura de flota afiliadora a operadora como funciona en Transmilenio, crear un sistema organizado e integrado de buses de servicio público (Urbano, Especial, Complementario, Troncal y Alimentador), y asegurar la calidad en el servicio. El presente proyecto pretende evaluar, analizar y optimizar los procesos que permitirían la adecuación extensiva de la flota de transporte público para su introducción al Sistema Integrado de Transporte. Los procesos principales incluyen la adecuación de todos los vehículos antiguos (modelos anteriores al 2003 pasan por un proceso de reparación, mantenimiento, acondicionamiento) y la implementación de sistemas de tecnológicos. En adición, se plantea crear un sistema homogéneo que permite estándares de calidad y facilidad de mantenimiento.
Resumo:
The integrated accounting system considers the natural resource depletion issues. We analyze the difference between this system and the traditional national accounting system, using data from the mining sector in Colombia (natural gas and coal). Results show that by including the impact of these two resources exhaustion, the traditional GDP would be overestimated; while it grew at an annual rate of 2.2% for the period 1995-2005, adjusted GDP would show a grow rate of 1.3%, reflecting costs on real country growth. These results open a debate given the current proposal of basing part of economic growth in Colombia on mining.
Resumo:
An investigation is made of the impact of a full linearized physical (moist) parameterization package on extratropical singular vectors (SVs) using the ECMWF integrated forecasting system (IFS). Comparison is made for one particular period with a dry physical package including only vertical diffusion and surface drag. The crucial extra ingredient in the full package is found to be the large-scale latent heat release. Consistent with basic theory, its inclusion results in a shift to smaller horizontal scales and enhanced growth for the SVs. Whereas, for the dry SVs, T42 resolution is sufficient, the moist SVs require T63 to resolve their structure and growth. A 24-h optimization time appears to be appropriate for the moist SVs because of the larger growth of moist SVs compared with dry SVs. Like dry SVs, moist SVs tend to occur in regions of high baroclinicity, but their location is also influenced by the availability of moisture. The most rapidly growing SVs appear to enhance or reduce large-scale rain in regions ahead of major cold fronts. The enhancement occurs in and ahead of a cyclonic perturbation and the reduction in and ahead of an anticyclonic perturbation. Most of the moist SVs for this situation are slightly modified versions of the dry SVs. However, some occur in new locations and have particularly confined structures. The most rapidly growing SV is shown to exhibit quite linear behavior in the nonlinear model as it grows from 0.5 to 12 hPa in 1 day. For 5 times this amplitude the structure is similar but the growth is about half as the perturbation damps a potential vorticity (PV) trough or produces a cutoff, depending on its sign.
Resumo:
One of the largest uncertainties in quantifying the impact of aviation on climate concerns the formation and spreading of persistent contrails. The inclusion of a cloud scheme that allows for ice supersaturation into the integrated forecast system (IFS) of the European Centre for Medium-Range Weather Forecasts (ECMWF) can be a useful tool to help reduce these uncertainties. This study evaluates the quality of the ECMWF forecasts with respect to ice super saturation in the upper troposphere by comparing them to visual observations of persistent contrails and radiosonde measurements of ice supersaturation over England. The performance of 1- to 3-day forecasts is compared including also the vertical accuracy of the supersaturation forecasts. It is found that the operational forecasts from the ECMWF are able to predict cold ice supersaturated regions very well. For the best cases Peirce skill scores of 0.7 are obtained, with hit rates at times exceeding 80% and false-alarm rates below 20%. Results are very similar for comparisons with visual observations and radiosonde measurements, the latter providing the better statistical significance.
Resumo:
The long observational record is critical to our understanding of the Earth’s climate, but most observing systems were not developed with a climate objective in mind. As a result, tremendous efforts have gone into assessing and reprocessing the data records to improve their usefulness in climate studies. The purpose of this paper is to both review recent progress in reprocessing and reanalyzing observations, and summarize the challenges that must be overcome in order to improve our understanding of climate and variability. Reprocessing improves data quality through more scrutiny and improved retrieval techniques for individual observing systems, while reanalysis merges many disparate observations with models through data assimilation, yet both aim to provide a climatology of Earth processes. Many challenges remain, such as tracking the improvement of processing algorithms and limited spatial coverage. Reanalyses have fostered significant research, yet reliable global trends in many physical fields are not yet attainable, despite significant advances in data assimilation and numerical modeling. Oceanic reanalyses have made significant advances in recent years, but will only be discussed here in terms of progress toward integrated Earth system analyses. Climate data sets are generally adequate for process studies and large-scale climate variability. Communication of the strengths, limitations and uncertainties of reprocessed observations and reanalysis data, not only among the community of developers, but also with the extended research community, including the new generations of researchers and the decision makers is crucial for further advancement of the observational data records. It must be emphasized that careful investigation of the data and processing methods are required to use the observations appropriately.
Resumo:
he perspective European Supergrid would consist of an integrated power system network, where electricity demands from one country could be met by generation from another country. This paper makes use of a bi-linear fixed-effects model to analyse the determinants for trading electricity across borders among 34 countries connected by the European Supergrid. The key question that this paper aims to address is the extent to which the privatisation of European electricity markets has brought about higher cross-border trade of electricity. The analysis makes use of distance, price ratios, gate closure times, size of peaks and aggregate demand as standard determinants. Controlling for other standard determinants, it is concluded that privatisation in most cases led to higher power exchange and that the benefits are more significant where privatisation measures have been in place for a longer period.
Resumo:
How tropical cyclone (TC) activity in the northwestern Pacific might change in a future climate is assessed using multidecadal Atmospheric Model Intercomparison Project (AMIP)-style and time-slice simulations with the ECMWF Integrated Forecast System (IFS) at 16-km and 125-km global resolution. Both models reproduce many aspects of the present-day TC climatology and variability well, although the 16-km IFS is far more skillful in simulating the full intensity distribution and genesis locations, including their changes in response to El Niño–Southern Oscillation. Both IFS models project a small change in TC frequency at the end of the twenty-first century related to distinct shifts in genesis locations. In the 16-km IFS, this shift is southward and is likely driven by the southeastward penetration of the monsoon trough/subtropical high circulation system and the southward shift in activity of the synoptic-scale tropical disturbances in response to the strengthening of deep convective activity over the central equatorial Pacific in a future climate. The 16-km IFS also projects about a 50% increase in the power dissipation index, mainly due to significant increases in the frequency of the more intense storms, which is comparable to the natural variability in the model. Based on composite analysis of large samples of supertyphoons, both the development rate and the peak intensities of these storms increase in a future climate, which is consistent with their tendency to develop more to the south, within an environment that is thermodynamically more favorable for faster development and higher intensities. Coherent changes in the vertical structure of supertyphoon composites show system-scale amplification of the primary and secondary circulations with signs of contraction, a deeper warm core, and an upward shift in the outflow layer and the frequency of the most intense updrafts. Considering the large differences in the projections of TC intensity change between the 16-km and 125-km IFS, this study further emphasizes the need for high-resolution modeling in assessing potential changes in TC activity.