907 resultados para Burlington Way Good Roads Association (U.S.)
Resumo:
The recent reform in European antitrust enforcement is embodied in Regolation n. 1/2003/ Ce and related Communications. Since 2004 when it came into force, some crytical assessments can already be made. The work starts from some technical analysis of the reform, under a procedural perspective, to assess the proceedings’ real impact on parties’ rights and to criticize its limits. Decentralisation has brought about more complicacies, since community procedural systems are not harmonized, neither in their administrative rules, nor in their civil proceedings, which are all involved in the European antitrust network. Therefore, antitrust proceedings end un as being more jurisdictional in their effects than in their guarentees, which is a flaw to be mended by legislators. National laws shoud be harmonized, community law should be clarified and the system should turn more honestly towards a rationalized jurisdiction-cented mechanism. Otherwise, parties defense rights and the overall efficiency are put into doubt. Italy is a good exemple of how many colmlicacies can outburst from national procedures and national decentralised application. An uncertain pattern of judicial control, together with unclear relationships among the institutions to cooperate in the antitrust network can produce more problems than they aim to solve. As to the private enforcement, Regulation n.1 does not even attempt to give precise regulation to this underdeveloped sector. A continual comparison with U.S. system has brought the Commission to become aware both of the risks and of the advanteges of an increased civil antitrust litigation in fronto of national judges. In order to substain a larger development of this parallel and, presently, difficult way of judicial compensation, it is presently ongoing a consultation among states to find suitable incentives to make private enforcement more appealing and effective. The solution to this lack of private litigation is not to be sought in Regulation n. 1 which calls into action national legislators and proceedures to implement further improvements. As a conclusion, Regulation n. 1 is the outpost of an ambitious community design to create an efficient control mechanism over antitrust violations. It focuses on Commission proceedings, powers and sanctions in order to establish deterrence, then it highlights civil litigation perspectives and it involves directly states into antitrust application. It seems that more could be done to technically shape administrative proceedings in a more jurisdictionally oriented form, then to clarify respective roles and coordination mecanisms in order to prevent difficulties easy to forsee. Some of jurisprudential suggestions have been accepted, but much more is left to be done in the future to improve european antitrust enforcement system.
Resumo:
La ricerca si propone di definire le linee guida per la stesura di un Piano che si occupi di qualità della vita e di benessere. Il richiamo alla qualità e al benessere è positivamente innovativo, in quanto impone agli organi decisionali di sintonizzarsi con la soggettività attiva dei cittadini e, contemporaneamente, rende evidente la necessità di un approccio più ampio e trasversale al tema della città e di una più stretta relazione dei tecnici/esperti con i responsabili degli organismi politicoamministrativi. La ricerca vuole indagare i limiti dell’urbanistica moderna di fronte alla complessità di bisogni e di nuove necessità espresse dalle popolazioni urbane contemporanee. La domanda dei servizi è notevolmente cambiata rispetto a quella degli anni Sessanta, oltre che sul piano quantitativo anche e soprattutto sul piano qualitativo, a causa degli intervenuti cambiamenti sociali che hanno trasformato la città moderna non solo dal punto di vista strutturale ma anche dal punto di vista culturale: l’intermittenza della cittadinanza, per cui le città sono sempre più vissute e godute da cittadini del mondo (turisti e/o visitatori, temporaneamente presenti) e da cittadini diffusi (suburbani, provinciali, metropolitani); la radicale trasformazione della struttura familiare, per cui la famiglia-tipo costituita da una coppia con figli, solido riferimento per l’economia e la politica, è oggi minoritaria; l’irregolarità e flessibilità dei calendari, delle agende e dei ritmi di vita della popolazione attiva; la mobilità sociale, per cui gli individui hanno traiettorie di vita e pratiche quotidiane meno determinate dalle loro origini sociali di quanto avveniva nel passato; l’elevazione del livello di istruzione e quindi l’incremento della domanda di cultura; la crescita della popolazione anziana e la forte individualizzazione sociale hanno generato una domanda di città espressa dalla gente estremamente variegata ed eterogenea, frammentata e volatile, e per alcuni aspetti assolutamente nuova. Accanto a vecchie e consolidate richieste – la città efficiente, funzionale, produttiva, accessibile a tutti – sorgono nuove domande, ideali e bisogni che hanno come oggetto la bellezza, la varietà, la fruibilità, la sicurezza, la capacità di stupire e divertire, la sostenibilità, la ricerca di nuove identità, domande che esprimono il desiderio di vivere e di godere la città, di stare bene in città, domande che non possono essere più soddisfatte attraverso un’idea di welfare semplicemente basata sull’istruzione, la sanità, il sistema pensionistico e l’assistenza sociale. La città moderna ovvero l’idea moderna della città, organizzata solo sui concetti di ordine, regolarità, pulizia, uguaglianza e buon governo, è stata consegnata alla storia passata trasformandosi ora in qualcosa di assai diverso che facciamo fatica a rappresentare, a descrivere, a raccontare. La città contemporanea può essere rappresentata in molteplici modi, sia dal punto di vista urbanistico che dal punto di vista sociale: nella letteratura recente è evidente la difficoltà di definire e di racchiudere entro limiti certi l’oggetto “città” e la mancanza di un convincimento forte nell’interpretazione delle trasformazioni politiche, economiche e sociali che hanno investito la società e il mondo nel secolo scorso. La città contemporanea, al di là degli ambiti amministrativi, delle espansioni territoriali e degli assetti urbanistici, delle infrastrutture, della tecnologia, del funzionalismo e dei mercati globali, è anche luogo delle relazioni umane, rappresentazione dei rapporti tra gli individui e dello spazio urbano in cui queste relazioni si muovono. La città è sia concentrazione fisica di persone e di edifici, ma anche varietà di usi e di gruppi, densità di rapporti sociali; è il luogo in cui avvengono i processi di coesione o di esclusione sociale, luogo delle norme culturali che regolano i comportamenti, dell’identità che si esprime materialmente e simbolicamente nello spazio pubblico della vita cittadina. Per studiare la città contemporanea è necessario utilizzare un approccio nuovo, fatto di contaminazioni e saperi trasversali forniti da altre discipline, come la sociologia e le scienze umane, che pure contribuiscono a costruire l’immagine comunemente percepita della città e del territorio, del paesaggio e dell’ambiente. La rappresentazione del sociale urbano varia in base all’idea di cosa è, in un dato momento storico e in un dato contesto, una situazione di benessere delle persone. L’urbanistica moderna mirava al massimo benessere del singolo e della collettività e a modellarsi sulle “effettive necessità delle persone”: nei vecchi manuali di urbanistica compare come appendice al piano regolatore il “Piano dei servizi”, che comprende i servizi distribuiti sul territorio circostante, una sorta di “piano regolatore sociale”, per evitare quartieri separati per fasce di popolazione o per classi. Nella città contemporanea la globalizzazione, le nuove forme di marginalizzazione e di esclusione, l’avvento della cosiddetta “new economy”, la ridefinizione della base produttiva e del mercato del lavoro urbani sono espressione di una complessità sociale che può essere definita sulla base delle transazioni e gli scambi simbolici piuttosto che sui processi di industrializzazione e di modernizzazione verso cui era orientata la città storica, definita moderna. Tutto ciò costituisce quel complesso di questioni che attualmente viene definito “nuovo welfare”, in contrapposizione a quello essenzialmente basato sull’istruzione, sulla sanità, sul sistema pensionistico e sull’assistenza sociale. La ricerca ha quindi analizzato gli strumenti tradizionali della pianificazione e programmazione territoriale, nella loro dimensione operativa e istituzionale: la destinazione principale di tali strumenti consiste nella classificazione e nella sistemazione dei servizi e dei contenitori urbanistici. E’ chiaro, tuttavia, che per poter rispondere alla molteplice complessità di domande, bisogni e desideri espressi dalla società contemporanea le dotazioni effettive per “fare città” devono necessariamente superare i concetti di “standard” e di “zonizzazione”, che risultano essere troppo rigidi e quindi incapaci di adattarsi all’evoluzione di una domanda crescente di qualità e di servizi e allo stesso tempo inadeguati nella gestione del rapporto tra lo spazio domestico e lo spazio collettivo. In questo senso è rilevante il rapporto tra le tipologie abitative e la morfologia urbana e quindi anche l’ambiente intorno alla casa, che stabilisce il rapporto “dalla casa alla città”, perché è in questa dualità che si definisce il rapporto tra spazi privati e spazi pubblici e si contestualizzano i temi della strada, dei negozi, dei luoghi di incontro, degli accessi. Dopo la convergenza dalla scala urbana alla scala edilizia si passa quindi dalla scala edilizia a quella urbana, dal momento che il criterio del benessere attraversa le diverse scale dello spazio abitabile. Non solo, nei sistemi territoriali in cui si è raggiunto un benessere diffuso ed un alto livello di sviluppo economico è emersa la consapevolezza che il concetto stesso di benessere sia non più legato esclusivamente alla capacità di reddito collettiva e/o individuale: oggi la qualità della vita si misura in termini di qualità ambientale e sociale. Ecco dunque la necessità di uno strumento di conoscenza della città contemporanea, da allegare al Piano, in cui vengano definiti i criteri da osservare nella progettazione dello spazio urbano al fine di determinare la qualità e il benessere dell’ambiente costruito, inteso come benessere generalizzato, nel suo significato di “qualità dello star bene”. E’ evidente che per raggiungere tale livello di qualità e benessere è necessario provvedere al soddisfacimento da una parte degli aspetti macroscopici del funzionamento sociale e del tenore di vita attraverso gli indicatori di reddito, occupazione, povertà, criminalità, abitazione, istruzione, etc.; dall’altra dei bisogni primari, elementari e di base, e di quelli secondari, culturali e quindi mutevoli, trapassando dal welfare state allo star bene o well being personale, alla wellness in senso olistico, tutte espressioni di un desiderio di bellezza mentale e fisica e di un nuovo rapporto del corpo con l’ambiente, quindi manifestazione concreta di un’esigenza di ben-essere individuale e collettivo. Ed è questa esigenza, nuova e difficile, che crea la diffusa sensazione dell’inizio di una nuova stagione urbana, molto più di quanto facciano pensare le stesse modifiche fisiche della città.
Resumo:
The first part of my thesis presents an overview of the different approaches used in the past two decades in the attempt to forecast epileptic seizure on the basis of intracranial and scalp EEG. Past research could reveal some value of linear and nonlinear algorithms to detect EEG features changing over different phases of the epileptic cycle. However, their exact value for seizure prediction, in terms of sensitivity and specificity, is still discussed and has to be evaluated. In particular, the monitored EEG features may fluctuate with the vigilance state and lead to false alarms. Recently, such a dependency on vigilance states has been reported for some seizure prediction methods, suggesting a reduced reliability. An additional factor limiting application and validation of most seizure-prediction techniques is their computational load. For the first time, the reliability of permutation entropy [PE] was verified in seizure prediction on scalp EEG data, contemporarily controlling for its dependency on different vigilance states. PE was recently introduced as an extremely fast and robust complexity measure for chaotic time series and thus suitable for online application even in portable systems. The capability of PE to distinguish between preictal and interictal state has been demonstrated using Receiver Operating Characteristics (ROC) analysis. Correlation analysis was used to assess dependency of PE on vigilance states. Scalp EEG-Data from two right temporal epileptic lobe (RTLE) patients and from one patient with right frontal lobe epilepsy were analysed. The last patient was included only in the correlation analysis, since no datasets including seizures have been available for him. The ROC analysis showed a good separability of interictal and preictal phases for both RTLE patients, suggesting that PE could be sensitive to EEG modifications, not visible on visual inspection, that might occur well in advance respect to the EEG and clinical onset of seizures. However, the simultaneous assessment of the changes in vigilance showed that: a) all seizures occurred in association with the transition of vigilance states; b) PE was sensitive in detecting different vigilance states, independently of seizure occurrences. Due to the limitations of the datasets, these results cannot rule out the capability of PE to detect preictal states. However, the good separability between pre- and interictal phases might depend exclusively on the coincidence of epileptic seizure onset with a transition from a state of low vigilance to a state of increased vigilance. The finding of a dependency of PE on vigilance state is an original finding, not reported in literature, and suggesting the possibility to classify vigilance states by means of PE in an authomatic and objectic way. The second part of my thesis provides the description of a novel behavioral task based on motor imagery skills, firstly introduced (Bruzzo et al. 2007), in order to study mental simulation of biological and non-biological movement in paranoid schizophrenics (PS). Immediately after the presentation of a real movement, participants had to imagine or re-enact the very same movement. By key release and key press respectively, participants had to indicate when they started and ended the mental simulation or the re-enactment, making it feasible to measure the duration of the simulated or re-enacted movements. The proportional error between duration of the re-enacted/simulated movement and the template movement were compared between different conditions, as well as between PS and healthy subjects. Results revealed a double dissociation between the mechanisms of mental simulation involved in biological and non-biologial movement simulation. While for PS were found large errors for simulation of biological movements, while being more acurate than healthy subjects during simulation of non-biological movements. Healthy subjects showed the opposite relationship, making errors during simulation of non-biological movements, but being most accurate during simulation of non-biological movements. However, the good timing precision during re-enactment of the movements in all conditions and in both groups of participants suggests that perception, memory and attention, as well as motor control processes were not affected. Based upon a long history of literature reporting the existence of psychotic episodes in epileptic patients, a longitudinal study, using a slightly modified behavioral paradigm, was carried out with two RTLE patients, one patient with idiopathic generalized epilepsy and one patient with extratemporal lobe epilepsy. Results provide strong evidence for a possibility to predict upcoming seizures in RTLE patients behaviorally. In the last part of the thesis it has been validated a behavioural strategy based on neurobiofeedback training, to voluntarily control seizures and to reduce there frequency. Three epileptic patients were included in this study. The biofeedback was based on monitoring of slow cortical potentials (SCPs) extracted online from scalp EEG. Patients were trained to produce positive shifts of SCPs. After a training phase patients were monitored for 6 months in order to validate the ability of the learned strategy to reduce seizure frequency. Two of the three refractory epileptic patients recruited for this study showed improvements in self-management and reduction of ictal episodes, even six months after the last training session.
Resumo:
Einfluß der internen Architektur von Polymermikronetzwerken auf Struktur und Dynamik konzentrierter Kolloid-Dispersionen Kugelförmige Polymermikronetzwerk-Kolloide gehören zur Klasse der sogenannten Mikrogele. Dabei handelt es sich um kolloidale Modellsysteme, die durch ihre interne Vernetzungsdichte charakterisiert werden.In dieser Arbeit sollte untersucht werden, ob sich die Wechselwirkungen zwischen den Mikrogel-Kolloiden über ein repulsives Potential der Form U(r) = 1/rn beschreiben lassen und ob der Poten-tialexponent n von der Vernetzungsdichte abhängt. Dazu wurden vor allem die innere Architektur, das Phasenverhalten und der statische Strukturfaktor 1:10, 1:50, 1:72 und 1:100 vernetzter Polymer-Mikronetzwerk-Kolloide bis in den Bereich hochkonzentrierter Dispersionen mit den Mitteln der Kleinwinkelneutronenstreuung, der Digitalphotographie und der statischen Lichtstreuung untersucht. Polymeranalytische Untersuchungen ergaben einen bei der Synthese anfallenden Anteil von unver-netztem, freiem Polymer innerhalb der Mikronetzwerke, welcher sich beim Lösen aus den Netzwerken herausbewegte. Das freie Polymer spielte vor allem beim Phasenverhalten der untersuchten Teilchen eine große Rolle und verursachte bei den Untersuchungen der statischen Strukturfaktoren Abweichun-gen vom 'harte Kugel'-Verhalten. Als Ergebnis der Kleinwinkel-Neutronenstreuung konnte eine ab-nehmende Verteilungsdichte der Vernetzer innerhalb der Polymermikronetzwerke in Richtung der -Teilchenoberfläche nachgewiesen werden. Die damit verbundene Konformationsfreiheit der Polymer-segmente auf der Teilchenoberfläche (bis hin zu 'mushroom'-Strukturen) wurde als Grund dafür an-gesehen, daß sich die Resultate der untersuchten Mikrogele aller Vernetzungsdichten im wesentlichen auf 'harte Kugeln' skalieren lassen.
Resumo:
Im Rahmen der vorliegenden Arbeit wurden zum ersten Mal kalorimetrische Tieftemperatur-Detektoren in der Beschleuniger-Massenspektrometrie (Accelerator Mass Spectrometry AMS), einer Standard-Methode zur Bestimmung kleinster Isotopenverhältnisse, eingesetzt, um das Isotopenverhältnis von 236U zu 238U zu bestimmen. Das Uran-Isotop 236U entsteht in der Neutroneneinfang-Reaktion 235U(n,gamma)236U und kann daher als Monitor-Nuklid für Neutronenflüsse verwendet werden. Die Detektoren bestehen aus einem Saphir-Absorber, auf den ein supraleitender Aluminium-Film aufgedampft ist, der als Thermistor dient. Ein energetisches Schwerion deponiert seine kinetische Energie als Wärme im Absorber, dessen Temperaturänderung durch die Widerstandsänderung des Supraleiters nachgewiesen wird. Mit solchen Detektoren konnte in vorhergehenden Experimenten bei GSI in einem Energiebereich von E = 5 - 300 MeV/amu für eine Vielzahl von Ionen von Neon bis Uran eine relative Energieauflösung von (1 - 4) E-3 erreicht werden. Der für die Beschleuniger-Massenspektrometrie typische Energiebereich liegt bei E = 0.1 - 1 MeV/amu. Im ersten Schritt wurde daher die systematische Untersuchung der Detektoreigenschaften auf diesen Energiebereich ausgedehnt. Diese Untersuchungen sowie die AMS-Messungen wurden am Tandem-Beschleuniger VERA des Instituts für Isotopenforschung und Kernphysik der Universität Wien durchgeführt. In einem Energiebereich von 10 - 60 MeV konnte für verschiedene Ionen (13C, 197Au, 238U) zunächst eine relative Energieauflösung von DeltaE/E = 7 E-3 erreicht werden. Dies übertrifft die Auflösung konventioneller Ionisations-Detektoren um ca. eine Größenordnung. Durch eine Verbesserung thermischer und elektronischer Rauschbeiträge konnte in einem zweiten Experiment für Uran der Energie 17 MeV die Auflösung auf DeltaE/E = 4.6 E-3 verbessert werden. Die Energie-Response des Detektors war linear über den gesamten beobachteten Energiebereich und unabhängig von der Ionenmasse; bis auf ein Niveau von 0.1 % wurde kein Pulshöhendefekt beobachtet. Diese Ergebnisse zeigen, daß solche Detektoren ein wertvolles Werkzeug in der Schwerionenphysik im Bereich relativ niedriger Ionenenergien darstellen. Mit der erreichten Energieauflösung war es möglich, für mehrere Proben aus natürlichem Uran das Isotopenverhältnis 236U/238U zu bestimmen: Um einen Material-Standard für Uran in der AMS zu etablieren, wurde das Isotopenverhältnis 236U/238U für zwei Proben aus der Mine ''K.u.K. Joachimsthal'' möglichst präzise bestimmt. Die Ergebnisse in der vorliegenden Arbeit stimmen gut mit früheren Messungen überein, die mit einem konventionellen Detektorsystem durchgeführt wurden. Sowohl der statistische als auch der systematische Fehler konnten deutlich reduziert werden. Für eine weitere Probe, extrahiert aus dem Wasser einer Uran-haltigen Quelle in Bad Gastein, wurde ein Isotopenverhältnis von 6.1 E-12 gemessen. Dies stellt das kleinste bislang für 236U/238U gemessene Isotopenverhältnis dar und bedeutet eine Steigerung der Sensitivität um eine Größenordnung. Die erreichte Energieauflösung ermöglicht es außerdem, die Detektoren zur direkten Massenidentifikation von schweren Ionen mittels einer kombinierten Energie-Flugzeit-Messung einzusetzen. In ersten Test-Messungen im Rahmen der vorliegenden Arbeit wurde eine Massenauflösung von DeltaM/M = (8.5 - 11.0) E-3 erreicht. In einem ersten Test für den Einsatz dieser Detektoren zum Nachweis sog. ''superschwerer Elemente (Z >= 112)'' erlaubte der große dynamische Bereich, die Reaktionsprodukte und ihre nachfolgenden Alpha-Zerfälle mit hoher Energieauflösung simultan und zeitaufgelöst nachzuweisen.
Resumo:
Le musiche “popolaresche” urbane, in genere trascurate nella letteratura etnomusicologica, sono state quasi completamente ignorate nel caso della Romania. Il presente studio si propone di colmare almeno in parte questa lacuna, indagando questo fenomeno musicale nella Bucarest degli anni Trenta e Quaranta del Novecento. Le musiche esaminate sono tuttavia inserite entro una cornice storica più ampia, che data a partire dalla fine del XVIII secolo, e messe in relazione con alcune produzioni di origine rurale che con queste hanno uno stretto rapporto. Il caso di Maria Lătărețu (1911-1972) si è rivelato particolarmente fecondo in questo senso, dal momento che la cantante apparteneva ad entrambi i versanti musicali, rurale e urbano, e nepadroneggiava con disinvoltura i rispettivi repertori. Dopo il suo trasferimento nella capitale, negli anni Trenta, è diventata una delle figure di maggior spicco di quel fenomeno noto come muzică populară (creazione musicale eminentemente urbana e borghese con radici però nel mondo delle musiche rurali). L’analisi del repertorio (o, per meglio dire, dei due repertori) della Lătărețu, anche nel confronto con repertori limitrofi, ha permesso di comprendere più da vicino alcuni dei meccanismi musicali alla base di questa creazione. Un genere musicale che non nasce dal nulla nel dopo-guerra, ma piuttosto continua una tradizione di musica urbana, caratterizzata in senso locale, ma influenzata dal modello della canzone europea occidentale, che data almeno dagli inizi del Novecento. Attraverso procedimenti in parte già collaudati da compositori colti che sin dal XIX secolo, in Romania come altrove, si erano cimentati con la creazione di melodie in stile popolare o nell’armonizzazione di musiche di provenienza contadina, le melodie rurali nel bagaglio della cantante venivano trasformate in qualcosa di inedito. Una trasformazione che, come viene dimostrato efficacemente nell’ultimo capitolo, non investe solo il livello superficiale, ma coinvolge in modo profondo la sintassi musicale.
Resumo:
Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.
Resumo:
Die Themengebiete dieser Arbeit umfassen sowohl methodische Weiterentwicklungen im Rahmen der ab initio zweiter Ordnungsmethoden CC2 und ADC(2) als auch Anwendungen dieser Weiterentwick-lungen auf aktuelle Fragestellungen. Die methodischen Erweiterungen stehen dabei hauptsächlich im Zusammenhang mit Übergangsmomenten zwischen angeregten Zuständen. Durch die Implementie-rung der selbigen ist nun die Berechnung transienter Absorptionsspektren möglich. Die Anwendungen behandeln vorwiegend das Feld der organischen Halbleiter und deren photo-elektronische Eigen-schaften. Dabei spielen die bislang wenig erforschten Triplett-Excimere eine zentrale Rolle.rnDie Übergangsmomente zwischen angeregten Zuständen wurden in das Programmpaket TUR-BOMOLE implementiert. Dadurch wurde die Berechnung der Übergangsmomente zwischen Zustän-den gleicher Multiplizität (d.h. sowohl Singulett-Singulett- als auch Triplett-Triplett-Übergänge) und unterschiedlicher Multiplizität (also Singulett-Triplett-Übergänge) möglich. Als Erweiterung wurde durch ein Interface zum ORCA Programm die Berechnung von Spin-Orbit-Matrixelementen (SOMEs) implementiert. Des Weiteren kann man mit dieser Implementierung auch Übergänge in offenschaligen Systemen berechnen. Um den Speicherbedarf und die Rechenzeit möglichst gering zu halten wurde die resolution-of-the-identity (RI-) Näherung benutzt. Damit lässt sich der Speicherbedarf von O(N4) auf O(N3) reduzieren, da die mit O(N4) skalierenden Größen (z. B. die T2-Amplituden) sehr effizient aus RI-Intermediaten berechnet werden können und daher nicht abgespeichert werden müssen. Dadurch wird eine Berechnung für mittelgroße Moleküle (ca. 20-50 Atome) mit einer angemessenen Basis möglich.rnDie Genauigkeit der Übergangsmomente zwischen angeregten Zuständen wurde für einen Testsatz kleiner Moleküle sowie für ausgewählte größere organische Moleküle getestet. Dabei stellte sich her-aus, dass der Fehler der RI-Näherung sehr klein ist. Die Vorhersage der transienten Spektren mit CC2 bzw. ADC(2) birgt allerdings ein Problem, da diese Methoden solche Zustände nur sehr unzureichend beschreiben, welche hauptsächlich durch zweifach-Anregungen bezüglich der Referenzdeterminante erzeugt werden. Dies ist für die Spektren aus dem angeregten Zustand relevant, da Übergänge zu diesen Zuständen energetisch zugänglich und erlaubt sein können. Ein Beispiel dafür wird anhand eines Singulett-Singulett-Spektrums in der vorliegenden Arbeit diskutiert. Für die Übergänge zwischen Triplettzuständen ist dies allerdings weniger problematisch, da die energetisch niedrigsten Doppelan-regungen geschlossenschalig sind und daher für Tripletts nicht auftreten.rnVon besonderem Interesse für diese Arbeit ist die Bildung von Excimeren im angeregten Triplettzu-stand. Diese können aufgrund starker Wechselwirkungen zwischen den π-Elektronensystemen großer organischer Moleküle auftreten, wie sie zum Beispiel als organische Halbleiter in organischen Leucht-dioden eingesetzt werden. Dabei können die Excimere die photo-elktronischen Eigenschaften dieser Substanzen signifikant beeinflussen. Im Rahmen dieser Dissertation wurden daher zwei solcher Sys-teme untersucht, [3.3](4,4’)Biphenylophan und das Naphthalin-Dimer. Hierzu wurden die transienten Anregungsspektren aus dem ersten angeregten Triplettzustand berechnet und diese Ergebnisse für die Interpretation der experimentellen Spektren herangezogen. Aufgrund der guten Übereinstimmung zwischen den berechneten und den experimentellen Spektren konnte gezeigt werden, dass es für eine koplanare Anordnung der beiden Monomere zu einer starken Kopplung zwischen lokal angereg-ten und charge-transfer Zuständen kommt. Diese Kopplung resultiert in einer signifikanten energeti-schen Absenkung des ersten angeregten Zustandes und zu einem sehr geringen Abstand zwischen den Monomereinheiten. Dabei ist der angeregte Zustand über beide Monomere delokalisiert. Die star-ke Kopplung tritt bei einem intermolekularen Abstand ≤4 Å auf, was einem typischen Abstand in orga-nischen Halbleitern entspricht. In diesem Bereich kann man zur Berechnung dieser Systeme nicht auf die Förster-Dexter-Theorie zurückgreifen, da diese nur für den Grenzfall der schwachen Kopplung gültig ist.
Resumo:
Efficient energy storage and conversion is playing a key role in overcoming the present and future challenges in energy supply. Batteries provide portable, electrochemical storage of green energy sources and potentially allow for a reduction of the dependence on fossil fuels, which is of great importance with respect to the issue of global warming. In view of both, energy density and energy drain, rechargeable lithium ion batteries outperform other present accumulator systems. However, despite great efforts over the last decades, the ideal electrolyte in terms of key characteristics such as capacity, cycle life, and most important reliable safety, has not yet been identified. rnrnSteps ahead in lithium ion battery technology require a fundamental understanding of lithium ion transport, salt association, and ion solvation within the electrolyte. Indeed, well-defined model compounds allow for systematic studies of molecular ion transport. Thus, in the present work, based on the concept of ‘immobilizing’ ion solvents, three main series with a cyclotriphosphazene (CTP), hexaphenylbenzene (HBP), and tetramethylcyclotetrasiloxane (TMS) scaffold were prepared. Lithium ion solvents, among others ethylene carbonate (EC), which has proven to fulfill together with pro-pylene carbonate safety and market concerns in commercial lithium ion batteries, were attached to the different cores via alkyl spacers of variable length.rnrnAll model compounds were fully characterized, pure and thermally stable up to at least 235 °C, covering the requested broad range of glass transition temperatures from -78.1 °C up to +6.2 °C. While the CTP models tend to rearrange at elevated temperatures over time, which questions the general stability of alkoxide related (poly)phosphazenes, both, the HPB and CTP based models show no evidence of core stacking. In particular the CTP derivatives represent good solvents for various lithium salts, exhibiting no significant differences in the ionic conductivity σ_dc and thus indicating comparable salt dissociation and rather independent motion of cations and ions.rnrnIn general, temperature-dependent bulk ionic conductivities investigated via impedance spectroscopy follow a William-Landel-Ferry (WLF) type behavior. Modifications of the alkyl spacer length were shown to influence ionic conductivities only in combination to changes in glass transition temperatures. Though the glass transition temperatures of the blends are low, their conductivities are only in the range of typical polymer electrolytes. The highest σ_dc obtained at ambient temperatures was 6.0 x 10-6 S•cm-1, strongly suggesting a rather tight coordination of the lithium ions to the solvating 2-oxo-1,3-dioxolane moieties, supported by the increased σ_dc values for the oligo(ethylene oxide) based analogues.rnrnFurther insights into the mechanism of lithium ion dynamics were derived from 7Li and 13C Solid- State NMR investigations. While localized ion motion was probed by i.e. 7Li spin-lattice relaxation measurements with apparent activation energies E_a of 20 to 40 kJ/mol, long-range macroscopic transport was monitored by Pulsed-Field Gradient (PFG) NMR, providing an E_a of 61 kJ/mol. The latter is in good agreement with the values determined from bulk conductivity data, indicating the major contribution of ion transport was only detected by PFG NMR. However, the μm-diffusion is rather slow, emphasizing the strong lithium coordination to the carbonyl oxygens, which hampers sufficient ion conductivities and suggests exploring ‘softer’ solvating moieties in future electrolytes.rn
Resumo:
In dieser Arbeit wird ein vergröbertes (engl. coarse-grained, CG) Simulationsmodell für Peptide in wässriger Lösung entwickelt. In einem CG Verfahren reduziert man die Anzahl der Freiheitsgrade des Systems, so dass manrngrössere Systeme auf längeren Zeitskalen untersuchen kann. Die Wechselwirkungspotentiale des CG Modells sind so aufgebaut, dass die Peptid Konformationen eines höher aufgelösten (atomistischen) Modells reproduziert werden.rnIn dieser Arbeit wird der Einfluss unterschiedlicher bindender Wechsel-rnwirkungspotentiale in der CG Simulation untersucht, insbesondere daraufhin,rnin wie weit das Konformationsgleichgewicht der atomistischen Simulation reproduziert werden kann. Im CG Verfahren verliert man per Konstruktionrnmikroskopische strukturelle Details des Peptids, zum Beispiel, Korrelationen zwischen Freiheitsgraden entlang der Peptidkette. In der Dissertationrnwird gezeigt, dass diese “verlorenen” Eigenschaften in einem Rückabbildungsverfahren wiederhergestellt werden können, in dem die atomistischen Freiheitsgrade wieder in die CG-Strukturen eingefügt werden. Dies gelingt, solange die Konformationen des CG Modells grundsätzlich gut mit der atomistischen Ebene übereinstimmen. Die erwähnten Korrelationen spielen einerngrosse Rolle bei der Bildung von Sekundärstrukturen und sind somit vonrnentscheidender Bedeutung für ein realistisches Ensemble von Peptidkonformationen. Es wird gezeigt, dass für eine gute Übereinstimmung zwischen CG und atomistischen Kettenkonformationen spezielle bindende Wechselwirkungen wie zum Beispiel 1-5 Bindungs- und 1,3,5-Winkelpotentiale erforderlich sind. Die intramolekularen Parameter (d.h. Bindungen, Winkel, Torsionen), die für kurze Oligopeptide parametrisiert wurden, sind übertragbarrnauf längere Peptidsequenzen. Allerdings können diese gebundenen Wechselwirkungen nur in Kombination mit solchen nichtbindenden Wechselwirkungspotentialen kombiniert werden, die bei der Parametrisierung verwendet werden, sind also zum Beispiel nicht ohne weiteres mit einem andere Wasser-Modell kombinierbar. Da die Energielandschaft in CG-Simulationen glatter ist als im atomistischen Modell, gibt es eine Beschleunigung in der Dynamik. Diese Beschleunigung ist unterschiedlich für verschiedene dynamische Prozesse, zum Beispiel für verschiedene Arten von Bewegungen (Rotation und Translation). Dies ist ein wichtiger Aspekt bei der Untersuchung der Kinetik von Strukturbildungsprozessen, zum Beispiel Peptid Aggregation.rn
Resumo:
The European Community has stressed the importance of achieving a common understanding to deal with the environmental noise through community actions of the Member States. This implies the use of harmonized indicators and specific information regarding the values of indicators, the exceedance of limits and the number of people and dwellings exposed to noise. The D.Lgs. 149/2005 in compliance with the European Directive 2002/49/EC defines methodologies, noise indicators and types of outputs required. In this dissertation the work done for the noise mapping of highly trafficked roads of the Province of Bologna will be reported. The study accounts for the environmental noise generated by the road infrastructure outside the urban agglomeration of Bologna. Roads characterized by an annual traffic greater than three millions of vehicles will be considered. The process of data collection and validation will be reported, as long as the implementation of the calculation method in the software and the procedure to create and calibrate the calculation model. Results will be provided as required by the legislation, in forms of maps and tables. Moreover results regarding each road section accounted will be combined to gain a general understanding of the situation of the overall studied area. Although the understanding of the noise levels and the number of people exposed is paramount, it is not sufficient to develop strategies of noise abatement interventions. Thus a further step will be addressed: the creation of priority maps as the basis of action plans for organizing and prioritizing solutions for noise reduction and abatement. Noise reduction measures are reported in a qualitative way in the annex and constitute a preliminary research.
Resumo:
Research on congressional parties assumes, but has not directly shown, that party size affects individual members' calculations. Drawing on a key case from the nineteenth-century House the secession-driven Republican hegemony of 1861 this article explores the hypothesis that party voting not only declines but also becomes more strongly linked to constituency factors as relative party size increases. The analysis reveals that the jump in party size coincides with (1) a decrease in party voting among individual continuing members, (2) a strengthening association between some constituency factors and party voting, and (3) patterns of decline in individual party voting that are explained in part by constituency measures.