863 resultados para Peak demand spreading
Resumo:
[EN] It is generally assumed that sinking particulate organic carbon (POC) constitutes the main source of organic carbon supply to the deep ocean's food webs. However, a major discrepancy between the rates of sinking POC supply (collected with sediment traps) and the prokaryotic organic carbon demand (the total amount of carbon required to sustain the heterotrophic metabolism of the prokaryotes; i.e., production plus respiration, PCD) of deep-water communities has been consistently reported for the dark realm of the global ocean. While the amount of sinking POC flux declines exponentially with depth, the concentration of suspended, buoyant non-sinking POC (nsPOC; obtained with oceanographic bottles) exhibits only small variations with depth in the (sub)tropical Northeast Atlantic. Based on available data for the North Atlantic we show here that the sinking POC flux would contribute only 4–12% of the PCD in the mesopelagic realm (depending on the primary production rate in surface waters). The amount of nsPOC potentially available to heterotrophic prokaryotes in the mesopelagic realm can be partly replenished by dark dissolved inorganic carbon fixation contributing between 12% to 72% to the PCD daily. Taken together, there is evidence that the mesopelagic microheterotrophic biota is more dependent on the nsPOC pool than on the sinking POC supply. Hence, the enigmatic major mismatch between the organic carbon demand of the deep-water heterotrophic microbiota and the POC supply rates might be substantially smaller by including the potentially available nsPOC and its autochthonous production in oceanic carbon cycling models.
Resumo:
[EN] In this paper, we have used Geographical Information Systems (GIS) to solve the planar Huff problem considering different demand distributions and forbidden regions. Most of the papers connected with the competitive location problems consider that the demand is aggregated in a finite set of points. In other few cases, the models suppose that the demand is distributed along the feasible region according to a functional form, mainly a uniform distribution. In this case, in addition to the discrete and uniform demand distributions we have considered that the demand is represented by a population surface model, that is, a raster map where each pixel has associated a value corresponding to the population living in the area that it covers...
Resumo:
Since the first underground nuclear explosion, carried out in 1958, the analysis of seismic signals generated by these sources has allowed seismologists to refine the travel times of seismic waves through the Earth and to verify the accuracy of the location algorithms (the ground truth for these sources was often known). Long international negotiates have been devoted to limit the proliferation and testing of nuclear weapons. In particular the Treaty for the comprehensive nuclear test ban (CTBT), was opened to signatures in 1996, though, even if it has been signed by 178 States, has not yet entered into force, The Treaty underlines the fundamental role of the seismological observations to verify its compliance, by detecting and locating seismic events, and identifying the nature of their sources. A precise definition of the hypocentral parameters represents the first step to discriminate whether a given seismic event is natural or not. In case that a specific event is retained suspicious by the majority of the State Parties, the Treaty contains provisions for conducting an on-site inspection (OSI) in the area surrounding the epicenter of the event, located through the International Monitoring System (IMS) of the CTBT Organization. An OSI is supposed to include the use of passive seismic techniques in the area of the suspected clandestine underground nuclear test. In fact, high quality seismological systems are thought to be capable to detect and locate very weak aftershocks triggered by underground nuclear explosions in the first days or weeks following the test. This PhD thesis deals with the development of two different seismic location techniques: the first one, known as the double difference joint hypocenter determination (DDJHD) technique, is aimed at locating closely spaced events at a global scale. The locations obtained by this method are characterized by a high relative accuracy, although the absolute location of the whole cluster remains uncertain. We eliminate this problem introducing a priori information: the known location of a selected event. The second technique concerns the reliable estimates of back azimuth and apparent velocity of seismic waves from local events of very low magnitude recorded by a trypartite array at a very local scale. For the two above-mentioned techniques, we have used the crosscorrelation technique among digital waveforms in order to minimize the errors linked with incorrect phase picking. The cross-correlation method relies on the similarity between waveforms of a pair of events at the same station, at the global scale, and on the similarity between waveforms of the same event at two different sensors of the try-partite array, at the local scale. After preliminary tests on the reliability of our location techniques based on simulations, we have applied both methodologies to real seismic events. The DDJHD technique has been applied to a seismic sequence occurred in the Turkey-Iran border region, using the data recorded by the IMS. At the beginning, the algorithm was applied to the differences among the original arrival times of the P phases, so the cross-correlation was not used. We have obtained that the relevant geometrical spreading, noticeable in the standard locations (namely the locations produced by the analysts of the International Data Center (IDC) of the CTBT Organization, assumed as our reference), has been considerably reduced by the application of our technique. This is what we expected, since the methodology has been applied to a sequence of events for which we can suppose a real closeness among the hypocenters, belonging to the same seismic structure. Our results point out the main advantage of this methodology: the systematic errors affecting the arrival times have been removed or at least reduced. The introduction of the cross-correlation has not brought evident improvements to our results: the two sets of locations (without and with the application of the cross-correlation technique) are very similar to each other. This can be commented saying that the use of the crosscorrelation has not substantially improved the precision of the manual pickings. Probably the pickings reported by the IDC are good enough to make the random picking error less important than the systematic error on travel times. As a further justification for the scarce quality of the results given by the cross-correlation, it should be remarked that the events included in our data set don’t have generally a good signal to noise ratio (SNR): the selected sequence is composed of weak events ( magnitude 4 or smaller) and the signals are strongly attenuated because of the large distance between the stations and the hypocentral area. In the local scale, in addition to the cross-correlation, we have performed a signal interpolation in order to improve the time resolution. The algorithm so developed has been applied to the data collected during an experiment carried out in Israel between 1998 and 1999. The results pointed out the following relevant conclusions: a) it is necessary to correlate waveform segments corresponding to the same seismic phases; b) it is not essential to select the exact first arrivals; and c) relevant information can be also obtained from the maximum amplitude wavelet of the waveforms (particularly in bad SNR conditions). Another remarkable point of our procedure is that its application doesn’t demand a long time to process the data, and therefore the user can immediately check the results. During a field survey, such feature will make possible a quasi real-time check allowing the immediate optimization of the array geometry, if so suggested by the results at an early stage.
Resumo:
[EN]Parliamentary websites have become one of the most important windows for citizens and media to follow the activities of their legislatures and to hold parliaments to account. Therefore, most parliamentary institutions aim to provide new multimedia solutions capable of displaying video fragments on demand on plenary activities. This paper presents a multimedia system for parliamentary institutions to produce video fragments on demand through a website with linked information and public feedback that helps to explain the content shown in these fragments. A prototype implementation has been developed for the Canary Islands Parliament (Spain) and shows how traditional parliamentary streaming systems can be enhanced by the use of semantics and computer vision for video analytics...
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
Electromagnetic spectrum can be identified as a resource for the designer, as well as for the manufacturer, from two complementary points of view: first, because it is a good in great demand by many different kind of applications; second, because despite its scarce availability, it may be advantageous to use more spectrum than necessary. This is the case of Spread-Spectrum Systems, those systems in which the transmitted signal is spread over a wide frequency band, much wider, in fact, than the minimum bandwidth required to transmit the information being sent. Part I of this dissertation deals with Spread-Spectrum Clock Generators (SSCG) aiming at reducing Electro Magnetic Interference (EMI) of clock signals in integrated circuits (IC) design. In particular, the modulation of the clock and the consequent spreading of its spectrum are obtained through a random modulating signal outputted by a chaotic map, i.e. a discrete-time dynamical system showing chaotic behavior. The advantages offered by this kind of modulation are highlighted. Three different prototypes of chaos-based SSCG are presented in all their aspects: design, simulation, and post-fabrication measurements. The third one, operating at a frequency equal to 3GHz, aims at being applied to Serial ATA, standard de facto for fast data transmission to and from Hard Disk Drives. The most extreme example of spread-spectrum signalling is the emerging ultra-wideband (UWB) technology, which proposes the use of large sections of the radio spectrum at low amplitudes to transmit high-bandwidth digital data. In part II of the dissertation, two UWB applications are presented, both dealing with the advantages as well as with the challenges of a wide-band system, namely: a chaos-based sequence generation method for reducing Multiple Access Interference (MAI) in Direct Sequence UWB Wireless-Sensor-Networks (WSNs), and design and simulations of a Low-Noise Amplifier (LNA) for impulse radio UWB. This latter topic was studied during a study-abroad period in collaboration with Delft University of Technology, Delft, Netherlands.
Resumo:
The global mid-ocean ridge system creates oceanic crust and lithosphere that covers more than two-thirds of the Earth. Basalts are volumetrically the most important rock type sampled at mid-ocean ridges. For this reason, our present understanding of upper mantle dynamics and the chemical evolution of the earth is strongly influenced by the study of mid-ocean ridge basalts (MORB). However, MORB are aggregates of polybarically generated small melt increments that can undergo a variety of physical and chemical processes during their ascent and consequently affect their derivative geochemical composition. Therefore, MORB do not represent “direct” windows to the underlying upper mantle. Abyssal peridotites, upper mantle rocks recovered from the ocean floor, are the residual complement to MORB melting and provide essential information on melt extraction from the upper mantle. In this study, abyssal peridotites are examined to address these overarching questions posed by previous studies of MORB: How are basaltic melts formed in the mantle, how are they extracted from the mantle and what physical and chemical processes control mantle melting? The number of studies on abyssal peridotites is small compared to those on basalts, in part because seafloor exposures of abyssal peridotites are relatively rare. For this reason, abyssal peridotite characteristics need to be considered in the context of subaerially exposed peridotites associated with ophiolites, orogenic peridotite bodies and basalt-hosted xenoliths. However, orogenic peridotite bodies are mainly associated with passive continental margins, most ophiolites are formed in supra-subduction zone settings, and peridotite xenoliths are often contaminated by their host magma. Therefore, studies of abyssal peridotites are essential to understanding the primary characteristics of the oceanic upper mantle free from the influence of continental rifting, subduction and tectonic emplacement processes. Nevertheless, numerous processes such as melt stagnation and cooling-induced, inter-mineral exchange can affect residual abyssal peridotite compositions after the cessation of melting. The aim of this study is to address these post-melting modifications of abyssal peridotites from a petrological-geochemical perspective. The samples in this study were dredged along the axis of the ultraslow-spreading Gakkel Ridge in the Arctic Ocean within the “Sparsely Magmatic Zone”, a 100 km ridge section where only mantle rocks are exposed. During two expeditions (ARK XVII-2 in 2001 and ARK XX-2 in 2004), exceptionally fresh peridotites were recovered. The boulders and cobbles collected cover a range of mantle rock compositions, with most characterized as plagioclase-free spinel peridotites or plagioclase- spinel peridotites. This thesis investigates melt stagnation and cooling processes in the upper mantle and is divided into two parts. The first part focuses on processes in the stability field of spinel peridotites (>10 kb) such as melt refertilization and cooling related trace element exchange, while the second part investigates processes in the stability field of plagioclase peridotites (< 10 kb) such as reactive melt migration and melt stagnation. The dissertation chapters are organized to follow the theoretical ascent of a mantle parcel upwelling beneath the location where the samples were collected.
Resumo:
Der irische Buchmarkt als Teil des englischsprachigen Buchmarktes ist stark von der Geschichte des Landes geprägt. Die Fremdbestimmung im Rahmen des Commonwealth unterdrückte eine eigenständige Verlagslandschaft bis weit ins 20. Jahrhundert hinein. Mit der Unabhängigkeit des irischen Staates stieg die Anzahl der Verlage langsam aber stetig an. In den 70er Jahren kam die irische Verlagslandschaft zu einem fast explosionsartigen Erblühen. Die Gründung des Verlegerverbandes Clé war einer von vielen Schritten, um den nationalen Buchmarkt von der Dominanz britischer Bücher in Buchhandlungen und Bibliotheken zu emanzipieren. Die Nachfrage nach Irish-Interest-Titeln ist im Inland hoch. Britische Verlage hatten bis dato diesen Bedarf übersehen, und so füllten irische Verlage diese Nische. Die Einführung eines von Großbritannien unabhängigen Lehrplans führte zur Etablierung eines eigenständigen Schulbuchmarktes, inklusive Lehrwerke zur irischen Sprache bzw. Titel auf Irisch. Irische Verlage sind in ihrem Programm größtenteils breit aufgestellt und selten spezialisiert. Sie sind erstaunlich häufig unabhängige mittelständische Unternehmen. Nur wenige Verlage sind staatlich geführt oder gehören ausländischen Konzernen an. Auch der stationäre Buchhandel ist überwiegend eigenständig, da die – vor dem Wirtschaftsboom wenig kaufkräftige - Republik von den expandierenden britischen Buchhandelsketten vernachlässigt wurde. Erst nach dem Wirtschaftsboom und dem damit verbundenen soziokulturellen Wandel von einer traditionellen Agrar- hin zu einer modernen Informationsgesellschaft stiegen die Umsätze mit Büchern stark an. Sobald der Buchmarkt eine nennenswerte wirtschaftliche Größe erreichte, eröffneten britische Buchhandlungen Filialen in irischen Städten. Sie vermochten jedoch nicht, die Sortimentsvielfalt der irischen Buchhandelslandschaft zu zerstören. Die fehlende Buchpreisbindung ist keine Bedrohung der Titelvielfalt, da Handelsformen wie Buchclubs, Supermärkte und Internethandel – die mit teils aggressivem Preismarketing arbeitenden Nebenmärkte – hier nur eine Randexistenz führen. In diesem Fall wandelt sich die geringe (Umsatz-) Größe und damit Attraktivität des Buchmarktes zum Vorteil. Die staatliche Kulturförderung ist ein bedeutender Beitrag zum Verlegen von Literatur, die wirtschaftlich gerechnet keine Daseinsberechtigung hätte. Irische Verleger mit relativ geringem Budget sind nicht in der Lage, solche unökonomischen Titel mit dem finanziellen Erfolg eines Bestsellers in Mischkalkulation aufzufangen. Hier greift die staatliche Unterstützung. Die Subventionierung von Titeln über die irischen Sprache bzw. von Literatur auf Irisch führte zur Herausbildung eines Marktsektors, der vor der Staatsgründung nicht existierte. Die Übersetzungsförderung verstärkt die Verbreitung von bis dato unbekannter irischer Literatur im Ausland und stimuliert das Lizenzgeschäft. Die aktuelle staatliche Kulturpolitik setzt ihren Schwerpunkt auf Marketing, PR sowie Nachfolgeregelung und fördert so nachhaltig statt bloß in Form einer kurzlebigen Titelsubvention. Eine noch mehr in die Zukunft gerichtete Förderung würde genauso wie die Unterstützung von Fortbildungsmaßnahmen zu besseren wirtschaftlichen Rahmenbedingungen führen. Auch wenn die nationale Verlagsszene im Aufschwung begriffen ist, befindet sich der irische Buchmarkt insgesamt in fester Hand der britischen Verlagsproduktion. Der britische Buchmarkt mit seinen multinationalen und finanzkräftigen Verlagen lebt vom Export. Aus Sicht von Großbritannien ist heutzutage der Nachbar Irland, einst Teil des britischen Buchmarktes, einer der besten Kunden. Dieser Aspekt bezieht sich nicht nur auf die langjährig entwickelten Handelsbeziehungen. In kulturellen Aspekten orientiert sich Irland stark am britischen Vorbild: Ein britischer Bestseller wird fast immer auch ein Bestseller in Irland. Lediglich Irish-Interest-Titel durchbrechen diesen Automatismus. Während Irish Interest im Inland hohe Umsätze vorweist, sind diese Titel im Ausland lediglich ein Nischenprodukt. Zusätzlich müssen irische Verlage außerhalb des Landes mit britischen und US-amerikanischen Verlagen in Konkurrenz treten, die ebenfalls Irish-Interest-Titel für die irische Diaspora anbieten. Es besteht daher nur eine geringe Chance, erfolgreich am globalen englischsprachigen Buchmarkt mitzuwirken. Bis dato haben Versuche, dem irischen Buchmarkt durch Export zu Umsatzwachstum zu verhelfen, keinen nennenswerten Erfolg gebracht. Lediglich auf dem Gebiet der populären Literatur und in Form von Kooperationen mit britischen Verlagskonzernen vermögen irische Verlage, am internationalen Buchhandel teilzuhaben.
Resumo:
Water is the driving force in nature. We use water for washing cars, doing laundry, cooking, taking a shower, but also to generate energy and electricity. Therefore water is a necessary product in our daily lives (USGS. Howard Perlman, 2013). The model that we created is based on the urban water demand computer model from the Pacific Institute (California). With this model we will forecast the future urban water use of Emilia Romagna up to the year of 2030. We will analyze the urban water demand in Emilia Romagna that includes the 9 provinces: Bologna, Ferrara, Forli-Cesena, Modena, Parma, Piacenza, Ravenna, Reggio Emilia and Rimini. The term urban water refers to the water used in cities and suburbs and in homes in the rural areas. This will include the residential, commercial, institutional and the industrial use. In this research, we will cover the water saving technologies that can help to save water for daily use. We will project what influence these technologies have to the urban water demand, and what it can mean for future urban water demands. The ongoing climate change can reduce the snowpack, and extreme floods or droughts in Italy. The changing climate and development patterns are expected to have a significant impact on water demand in the future. We will do this by conducting different scenario analyses, by combining different population projections, climate influence and water saving technologies. In addition, we will also conduct a sensitivity analyses. The several analyses will show us how future urban water demand is likely respond to changes in water conservation technologies, population, climate, water price and consumption. I hope the research can contribute to the insight of the reader’s thoughts and opinion.
Resumo:
A first phase of the research activity has been related to the study of the state of art of the infrastructures for cycling, bicycle use and methods for evaluation. In this part, the candidate has studied the "bicycle system" in countries with high bicycle use and in particular in the Netherlands. Has been carried out an evaluation of the questionnaires of the survey conducted within the European project BICY on mobility in general in 13 cities of the participating countries. The questionnaire was designed, tested and implemented, and was later validated by a test in Bologna. The results were corrected with information on demographic situation and compared with official data. The cycling infrastructure analysis was conducted on the basis of information from the OpenStreetMap database. The activity consisted in programming algorithms in Python that allow to extract data from the database infrastructure for a region, to sort and filter cycling infrastructure calculating some attributes, such as the length of the arcs paths. The results obtained were compared with official data where available. The structure of the thesis is as follows: 1. Introduction: description of the state of cycling in several advanced countries, description of methods of analysis and their importance to implement appropriate policies for cycling. Supply and demand of bicycle infrastructures. 2. Survey on mobility: it gives details of the investigation developed and the method of evaluation. The results obtained are presented and compared with official data. 3. Analysis cycling infrastructure based on information from the database of OpenStreetMap: describes the methods and algorithms developed during the PhD. The results obtained by the algorithms are compared with official data. 4. Discussion: The above results are discussed and compared. In particular the cycle demand is compared with the length of cycle networks within a city. 5. Conclusions
Resumo:
Analysis of the peak-to-peak output current ripple amplitude for multiphase and multilevel inverters is presented in this PhD thesis. The current ripple is calculated on the basis of the alternating voltage component, and peak-to-peak value is defined by the current slopes and application times of the voltage levels in a switching period. Detailed analytical expressions of peak-to-peak current ripple distribution over a fundamental period are given as function of the modulation index. For all the cases, reference is made to centered and symmetrical switching patterns, generated either by carrier-based or space vector PWM. Starting from the definition and the analysis of the output current ripple in three-phase two-level inverters, the theoretical developments have been extended to the case of multiphase inverters, with emphasis on the five- and seven-phase inverters. The instantaneous current ripple is introduced for a generic balanced multiphase loads consisting of series RL impedance and ac back emf (RLE). Simplified and effective expressions to account for the maximum of the output current ripple have been defined. The peak-to-peak current ripple diagrams are presented and discussed. The analysis of the output current ripple has been extended also to multilevel inverters, specifically three-phase three-level inverters. Also in this case, the current ripple analysis is carried out for a balanced three-phase system consisting of series RL impedance and ac back emf (RLE), representing both motor loads and grid-connected applications. The peak-to-peak current ripple diagrams are presented and discussed. In addition, simulation and experimental results are carried out to prove the validity of the analytical developments in all the cases. The cases with different phase numbers and with different number of levels are compared among them, and some useful conclusions have been pointed out. Furthermore, some application examples are given.