576 resultados para schema,


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die James Bond-Filme: seit über 40 Jahren sind sie ein unübersehbarer Bestandteil der Populärkultur. Anfang der 60er Jahre unter völlig anderen historischen, sozialen und nicht zuletzt filmtechnischen Voraussetzungen aus der Taufe gehoben, gelingt es ihnen auch heute noch, ein Massenpublikum für sich zu gewinnen. Inwiefern kann man bei einer so langen Laufzeit überhaupt noch von einer homogenen Serie sprechen? Und was für Gemeinsamkeiten, Unterschiede und auch Weiterentwicklungen von der ursprünglichen Machart sind hier zu beobachten? Dies sind die Grundfragen der vorliegenden Dissertation. Bei der Benennung der seriellen Eigenschaften werden sowohl inhaltliche als auch dramaturgische und filmtechnisch-formale Aspekte betrachtet. Die Figurenkonstellation von Held, Gegenspieler und der weiblichen Hauptfigur, die zwischen den beiden steht und häufig die Seiten wechselt, ist ein Schema das - kaum variiert - schon in den Romanvorlagen Ian Flemings zum Einsatz kam und auch das Rückgrat der Film-Plots bildet. Dennoch ließ dieses Gerüst den mittlerweile fünf verschiedenen Darstellern, die James Bond nacheinander verkörperten, genügend Freiraum für das Ausarbeiten eines eigenen Rollenkonzepts, das auf ihren speziellen Schauspielstil ausgerichtet war. Dadurch erhielt die James Bond-Figur jeweils eine Neuinterpretation, die sich insbesondere in ihrem sozialen Habitus bemerkbar macht, der je nach Darsteller zwischen provokantem Aufsteigertyp und aristokratischem Gentleman changierte. Zum unverwechselbaren Erkennungsmerkmal der Bond-Serie avancierte die so genannte 'gun-barrel'-Sequenz, die in den ersten Sekunden jedes Films abläuft. Auch die sich anschließende Vortitelsequenz, eine auf Spannung oder Action angelegte Szene, die einen Vorgeschmack auf den folgenden Film liefern soll, ist ein Element, das der Machart von Fernsehserien entnommen ist. Neben diesen bewusst eingesetzten Markenzeichen lässt sich auch in der Gestaltungsweise der Filme - in Kameraführung, Schnitt, Musik und Set Design - eine stilistische Kontinuität feststellen, die insbesondere dadurch bedingt ist, dass die Serie seit jeher von den Produzenten ähnlich wie ein Familienunternehmen geführt wurde und - zumindest bis Ende der 80er Jahre - auch die kreativen Köpfe der Filme konsequent im eigenen Team ausgebildet wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi propone una riflessione critica sulle pratiche della pianificazione urbanistica attraverso l’analisi di un significativo caso di studio, costituito dalla Darsena di Città a Ravenna. Questo approccio di ricerca è dal nostro punto di vista una conseguenza della difficoltà di governare le attuali problematiche di sviluppo dello spazio urbano attraverso gli strumenti tradizionali della pianificazione e dell’urbanistica. La tesi ha lo scopo di far emergere temi di dibattito attuale sulle aree di sviluppo urbano, in particolare la complessità dei compiti decisionali riguardanti aree oggetto di interventi di rigenerazione urbana. La definizione “area di sviluppo urbano” si pone come prodotto di un’attiva collaborazione tra Stato, mercato e società civile e costituisce dal nostro punto di vista una vera “questione sociale”. Prenderemo come riferimento il caso della Darsena di Città di Ravenna, oggetto della sperimentazione urbanistica degli ultimi trenta anni, sul quale diversi “stili” e strumenti di pianificazione si sono confrontati, nell’intento di guidare un processo di riqualificazione che ha portato ad oggi a risultati concreti assai limitati. Attraverso gli strumenti consultabili e un rapido sopralluogo infatti, possiamo intuire immediatamente come la realizzazione di interventi sull’area si limiti a casi localizzati come la riqualificazione della raffineria Almagià, la nuova sede dell’autorità portuale e l’ex molino Pineta, oltre agli interventi residenziali riconducibili all’edificio progettato dall’architetto Cino Zucchi e ai nuovi isolati attorno alla parte centrale di via Trieste. Le problematiche di fondo che hanno creato conflitti sono molte, dall’elevata divisione proprietaria alla cesura del comparto con il centro storico data dalla barriera ferroviaria, alla questione relativa al risanamento delle acque e dei suoli, solo per citare le più evidenti. Siamo quindi interessati a capire il problema dal punto di vista del processo di pianificazione per poi concentrare la nostra riflessione su possibili soluzioni che possano risolvere i conflitti che sembrano all’oggi non trovare una risposta condivisa. Per meglio comprendere come rapportarci al caso specifico si è cercato di analizzare alcuni aspetti teorici fondanti del “procedimento archetipico” di pianificazione urbana in contrapposizione con metodi di pianificazione “non convenzionali”. Come lo studio dei primi ci ha permesso di capire come si è arrivati all’attuale situazione di stallo nella trasformazione urbana della Darsena di Città, i secondi ci hanno aiutato a comprendere per quali ragioni i piani urbanistici di tipo “tradizionale” pensati per la Darsena di Città non sono stati portati a realizzazione. Consci che i fattori in gioco sono molteplici abbiamo deciso di affrontare questa tesi attraverso un approccio aperto al dialogo con le reali problematiche presenti sul territorio, credendo che la pianificazione debba relazionarsi con il contesto per essere in grado di proporre e finalizzare i suoi obiettivi. Conseguenza di questo è per noi il fatto che una sensibile metodologia di pianificazione debba confrontarsi sia con i processi istituzionali sia con le dinamiche e i valori socio-culturali locali. In generale gerarchie di potere e decisioni centralizzate tendono a prevalere su pratiche decisionali di tipo collaborativo; questa tesi si è proposta quindi l’obiettivo di ragionare sulle une e sulle altre in un contesto reale per raggiungere uno schema di pianificazione condiviso. La pianificazione urbanistica è da noi intesa come una previsione al futuro di pratiche di accordo e decisione finalizzate a raggiungere un obiettivo comune, da questo punto di vista il processo è parte essenziale della stessa pianificazione. Il tema è attuale in un contesto in cui l’urbanistica si è sempre confrontata in prevalenza con i temi della razionalizzazione della crescita, e con concetti da tempo in crisi che vanno oggi rimessi in discussione rispetto alle attuali istanze di trasformazione “sostenibile” delle città e dei territori. Potremmo riassumere le nostre riflessioni sull’urbanistica ed i nostri intenti rispetto al piano della Darsena di Città di Ravenna attraverso una definizione di Rem Koolhaas: l’urbanistica è la disciplina che genera potenziale, crea opportunità e causa eventi, mentre l’architettura è tradizionalmente la disciplina che manipola questo potenziale, sfrutta le possibilità e circoscrive. Il percorso di ragionamento descritto in questa tesi intende presentare attraverso alcune questioni significative l’evoluzione dello spazio urbano e delle pratiche di pianificazione, arrivando a formulare un “progetto tentativo” sul territorio della Darsena di Città.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi affronta un tema di importanza crescente nell’organizzazione economico-produttiva nel quale assume forte rilevo pure la dimensione giuslavoristica. Nei fenomeni di integrazione delle attività d’impresa, infatti, si verifica in modo sempre più ampio una utilizzazione «indiretta» di forza lavoro, per cui diventa cruciale la questione del trattamento da applicare ai rapporti di lavoro «decentrati» Con un approccio che tiene conto dei risultati delle scienze organizzative, si analizzano anzitutto le modalità tipiche delle esternalizzazioni succedutesi nell’evoluzione economico-organizzativa negli ultimi decenni. Vi è una modalità “primaria” o “perfetta”, nella quale è dedotto ad oggetto un opus, giusta lo schema dell’art. 1655 cod. civ., per cui la dinamica del rapporto obbligatorio è integralmente governata dal contratto; vi è altresì una modalità “secondaria” o “relazionale”, che si manifesta nella forma di organizzazioni integrate allargate alla partecipazione di più imprese. In queste, la lunga durata del vincolo obbligatorio impedisce che il contratto sia ex se capace di prevedere, già nel momento genetico, ogni evenienza che investirà lo svolgimento concreto del rapporto. Per questo le esternalizzazioni “relazionali” sono le più interessanti per il diritto del lavoro: i soggetti economici (decentrante e decentrato) articolano relazioni strutturate e di lungo periodo, in cui si determina una stabile interconnessione tra le varie componenti organizzative, nonché un prolungato utilizzo, ad opera del committente, delle prestazioni rese dai dipendenti del fornitore. Dall’indefinitezza circa l’oggetto delle obbligazioni incombenti a carico del debitore dell’opus o servizio – conseguente alla lunga durata della relazione col committente – si delineano però due diversi scenari del rapporto negoziale: esso può essere retto da solidarietà, partnership collaborativa e condivisione di obiettivi comuni (contractual integration “orizzontale”); oppure può essere informato a dinamiche di potere e di condizionamento verso le imprese decentrate ed i loro prestatori di opere impegnati nell’esecuzione del segmento di attività esternalizzato (contractual integration “gerarchica” o “verticale”).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema affrontato nel lavoro riguarda l'allocazione della spesa tra gruppi di beni alimentari (domestici ed extra-domestici) e le modificazioni che tale allocazione ha subito nell’arco dell’ultimo decennio. L’obiettivo principale dell'analisi proposta è, quindi, di spiegare come variazioni della quota di spesa destinata alle componenti del consumo alimentare siano attribuibili a fattori strettamente economici, oltre che alle caratteristiche struttura socio-demografiche dei consumatori. Allo scopo di valutare l’allocazione inter-temporale della spesa individuale viene proposto come schema di analisi il sistema di domanda Almost Ideal di Deaton e Muellbauer (AIDS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tematica trattata riguarda l´esame approfondito dell’istituto della detrazione nell’impianto dell’Iva comunitaria, così come concepito nell’ambito dello schema teorico di applicazione del tributo, e così come disciplinato sin dalle prime direttive comunitarie. Una compiuta disamina critica dell’istituto della detrazione, nell’ambito del sistema Iva, ha reso necessaria una preliminare analisi delle caratteristiche fondamentali dell’imposta, così come è stata concepita nelle successive direttive comunitarie, e dei principi generali cui essa è sottesa, sia in ambito interno, sia in ambito internazionale, evidenziando la natura giuridica della stessa dopo aver posto in raffronto le diverse teorie sull’argomento prospettate dalla dottrina; a tali tematiche è stato dedicato il primo capitolo. Il secondo capitolo, riferito all’istituto della detrazione, distinguendo i presupposti dall’esistenza dello stesso rispetto ai presupposti per l’esercizio del diritto, è dedicato alla descrizione delle caratteristiche generali e specifiche dell’istituto, analizzandone gli aspetti oggettivi, soggettivi, formali e sostanziali, e ponendo particolare attenzione sull’aspetto della territorialità, poiché proprio in relazione alle operazioni “extraterritoriali” emergono particolari aspetti di criticità risolvibili sulla base della natura comunitaria dell’imposta. Il terzo capitolo, dedicato all’analisi delle limitazioni alla detrazione, trova la sua ragione giustificatrice nella finalità di evidenziare le problematiche consistenti nella distorsione rispetto al naturale schema teorico di funzionamento del tributo, sia in termini di mancata incidenza al consumo, sia in termini di incisione dell’imposta sul soggetto esercente l’attività economica, ed è diretto anche a verificare se tali circostanze, residenti nello stesso tessuto normativo (esenzioni) siano coerenti rispetto alla natura dell’imposta ed ai principi tributari comunitari e costituzionali. Il quarto capitolo, infine, dopo aver evidenziato che l’istituto della detrazione costituisce il “grimaldello” attraverso il quale realizzare frodi ed abusi in ambito Iva, impostato in chiave applicativa e prospettica, evidenzia la reazione “terapeutica” dell’ordinamento tributario comunitario, alle suddette ipotesi “patologiche”, e ciò sulla base della disamina dei principi giuridici riscontrabili, in particolare, nella giurisprudenza della Corte di Giustizia. Le conclusioni contengono alcune riflessioni di chiusura sui possibili sviluppi futuri dell’imposta. Lo scopo della tesi è quello di offrire una riflessione ampia e generalizzata sull’istituto della detrazione e sui principi teorici che lo governano, al fine delimitarne i contorni, in termini oggettivi, soggettivi e territoriali nel sistema dell´Iva comunitaria e, in tale quadro, di evidenziare anche quegli elementi di divergenza, presenti nel tessuto normativo, rispetto al normale schema teorico di funzionamento del tributo, ed alle relative incidenze rispetto ai principi costituzionali e comunitari, quali la capacità contributiva e la neutralità del tributo per i soggetti passivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung Um photoschaltbare Gelbildner zu synthetisieren wurde auf bereits bekannte Gelbildner zurückgegriffen und eine Azobenzolgruppe, als photoschaltbare Einheit eingebaut. Die Modifizierung der Alkylsemicarbazide führte zu 7 Azosemicarbaziden (36-42), die alle gelbildende Eigenschaften haben. Die Gele des Alkylsemicarbazids 1 und der Azosemicarbazide 37 und 38 erwiesen sich als die stabilsten, weshalb an ihnen die meisten Untersuchungen durchgeführt wurden. Ihre Struktur ist in Abbildung 1 noch einmal aufgeführt. Die Alkylsemicarbazide vergelen Toluol, 1,2-Dichlorbenzol, Decalin, Tetralin und Cyclohexan. Die minimalen Gelbildnerkonzentration geht dabei von ~0,5 Gew.% für Toluol bis ~10 Gew.% für Tetralin und Cyclohexan. Die Azosemicarbazide 36-40 vergelen Toluol und Tetralin mit ~10 Gew.%, 1,2-Dichlorbenzol und Decalin mit ~4-7 Gew.Durch den Vergleich verschiedener Kristallstrukturen (von 1, 5, 19 und 43) und einer Röntgenkleinwinkelmessung eines Gels wurden zwei mögliche Kristallstrukturen für 37 vorgestellt. Die Tatsache, dass die IR-Spektren aller Semicarbazide im Bulk und als Gel sehr ähnliche Absorptionsbanden im Bereich der N-H-Schwingungen besitzen, zeigt, dass das vorgestellt Wasserstoffbrückenmotiv (Kapitel 4.1, Schema 4.1) für alle Semicarbazide nahezu gleich ist. Des Weiteren konnte ein Zusammenhang von der minimalen Gelbildner-konzentration, dem Schmelzpunkt und der Struktur des Gelnetz-werks gefunden werden. Je feiner das Netzwerk und damit je größer die Oberfläche, desto niedriger die minimale Gelbildnerkonzentration und desto niedriger der Schmelzpunkt der Gele. Gele mit Decalin fallen dabei durch eine andere Morphologie und besonders hohe Schmelzpunkte auf (Abbildung 2). Die Photoschaltbarkeit wurde im Gel mit organischen Lösungsmitteln und mit den Flüssigkristallmischungen durch UV/Vis-Messungen, Polarisationsmikroskopie, sowie durch die Bestimmung der Schaltzeiten und der Schwellspannung für LC II-Gele nachgewiesen. Erste dielektrische Messungen an einem LC II-Gel zeigen, dass die Goldstone-Mode im Gel unterdrück wird. Diese Ergebnisse sollen mit weiteren Untersuchungen untermauert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Time-of-Flight Aerosol Mass Spectrometer (ToF-AMS) der Firma Aerodyne ist eine Weiterentwicklung des Aerodyne Aerosolmassenspektrometers (Q-AMS). Dieses ist gut charakterisiert und kommt weltweit zum Einsatz. Beide Instrumente nutzen eine aerodynamische Linse, aerodynamische Partikelgrößenbestimmung, thermische Verdampfung und Elektronenstoß-Ionisation. Im Gegensatz zum Q-AMS, wo ein Quadrupolmassenspektrometer zur Analyse der Ionen verwendet wird, kommt beim ToF-AMS ein Flugzeit-Massenspektrometer zum Einsatz. In der vorliegenden Arbeit wird anhand von Laborexperimenten und Feldmesskampagnen gezeigt, dass das ToF-AMS zur quantitativen Messung der chemischen Zusammensetzung von Aerosolpartikeln mit hoher Zeit- und Größenauflösung geeignet ist. Zusätzlich wird ein vollständiges Schema zur ToF-AMS Datenanalyse vorgestellt, dass entwickelt wurde, um quantitative und sinnvolle Ergebnisse aus den aufgenommenen Rohdaten, sowohl von Messkampagnen als auch von Laborexperimenten, zu erhalten. Dieses Schema basiert auf den Charakterisierungsexperimenten, die im Rahmen dieser Arbeit durchgeführt wurden. Es beinhaltet Korrekturen, die angebracht werden müssen, und Kalibrationen, die durchgeführt werden müssen, um zuverlässige Ergebnisse aus den Rohdaten zu extrahieren. Beträchtliche Arbeit wurde außerdem in die Entwicklung eines zuverlässigen und benutzerfreundlichen Datenanalyseprogramms investiert. Dieses Programm kann zur automatischen und systematischen ToF-AMS Datenanalyse und –korrektur genutzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di ricerca prende le mosse da una premessa di ordine economico. Il fenomeno delle reti di impresa, infatti, nasce dalla realtà economica dei mercati. In tale contesto non può prescindere dal delineare un quadro della situazione- anche di crisi- congiunturale che ha visto coinvolte specialmente le imprese italiane. In tale prospettiva, si è reso necessario indagare il fenomeno della globalizzazione, con riferimento alle sue origini,caratteristiche e conseguenze. Ci si sofferma poi sulla ricostruzione dogmatica del fenomeno. Si parte dalla ricostruzione dello stesso in termini di contratto plurilaterale- sia esso con comunione di scopo oppure plurilaterale di scambio- per criticare tale impostazione, non del tutto soddisfacente, in quanto ritenuto remissiva di fronte alla attuale vis espansiva del contratto plurilaterale. Più convincente appare lo schema del collegamento contrattuale, che ha il pregio di preservare l’autonomia e l’indipendenza degli imprenditori aderenti, pur inseriti nel contesto di un’operazione economica unitaria, volta a perseguire uno scopo comune, l’“interesse di rete”, considerato meritevole di tutela secondo l’ordinamento giuridico ex art. 1322 2.co. c.c. In effetti il contratto ben si presta a disegnare modelli di rete sia con distribuzione simmetrica del potere decisionale, sia con distribuzione asimmetrica, vale a dire con un elevato livello di gerarchia interna. Non può d’altra parte non ravvisarsi un’affinità con le ipotesi di collegamento contrattuale in fase di produzione, consistente nel delegare ad un terzo parte della produzione, e nella fase distributiva, per cui la distribuzione avviene attraverso reti di contratti. Si affronta la materia della responsabilità della rete, impostando il problema sotto due profili: la responsabilità interna ed esterna. La prima viene risolta sulla base dell’affidamento reciproco maturato da ogni imprenditore. La seconda viene distinta in responsabilità extracontrattuale, ricondotta nella fattispecie all’art. 2050 c.c., e contrattuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit wurde durch die Erkenntnis motiviert, daß die Theorie der Intentionalität ohne eine Theorie der impliziten Intentionalität unvollständig ist. Die Anlage einer solchen Theorie gründet in der Annahme, daß die impliziten ("ergänzenden oder "mit-bewußten") Erfahrungsinhalte Inhalte intentional wirksam sind: daß sie zur "Konstitution" der intentionalen Objekte – im Sinne vom Husserl und Gurwitsch – beitragen. Die Bedingungen und Umstände dieser Wirksamkeit herauszuarbeiten, ist das Hauptziel der vorliegenden Untersuchungen. Dazu wurde (1) eine phänomenologische Theorie des impliziten Inhalts kritisch expliziert, und (2) diese anhand einiger aktueller Ansätze der analytischen Philosophie auf die Probe gestellt. Im phänomenologischen Teil der Arbeit wurden zuerst die methodologischen Voraussetzungen von Gurwitschs gestalttheoretischer Neuformulierung des Husserlschen Projekts unter Berücksichtigung der sogenannten Konstanzannahme kritisch untersucht. Weiterhin wurden Husserls Noema-Konzeption und seine Horizontlehre aus der Perspektive von Gurwitschs Feldtheorie des Bewußtseins expliziert, und in der Folge Gurwitschs dreifache Gliederung des Bewußtseinsfeldes – das Kopräsenz-Kohärenz-Relevanz-Schema – um die phänomenologischen Begriffe "Potentialität", "Typik" und "Motivation" erweitert. Die Beziehungen, die diesen Begriffen zugrunde liegen, erwiesen sich als "mehr denn bloß kontigent, aber als weniger denn logisch oder notwendig" (Mulligan). An Beispielen aus der analytischen Philosphie der Wahrnehmung (Dretske, Peacocke, Dennett, Kelly) und der Sprache (Sperber, Wilson, Searle) wurde das phänomenologische Konzept des impliziten Inhalts kritisch beurteilt und weiterentwickelt. Hierbei wurde(n) unter anderem (1) der Zusammenhang zwischen dem phänomenologischen Begriff "vorprädikativer Inhalt" und dem analytischen Begriff "nichtkonzeptueller Inhalt" aufgezeigt und (2) Kriterien für die Zuschreibung impliziter Überzeugungen in den typischen Fällen der prädikativen Intentionalität zusammengetragen und systematisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione. Recenti studi hanno dimostrato che il Rituximab (RTX) è un’alternativa sicura ed efficace alla ciclofosfamide nell’indurre la remissione in pazienti con severa vasculite ANCA-associata (AAV) di nuova diagnosi o recidiva. Scopo dello studio era valutare l’efficacia e la sicurezza del RTX nei nostri pazienti con AAV. Metodi. Studio retrospettivo delle caratteristiche cliniche, dei risultati e della tolleranza al RTX dei pazienti con AAV trattati presso il nostro centro da Gennaio 2006 a Dicembre 2011. Inizialmente veniva utilizzato lo schema convenzionale delle 4 somministrazioni settimanali da 375 mg/m2. Dal 2011 sulla base dell’esperienza maturata e dei nuovi dati della letteratura si decideva di non adottare uno schema fisso per le recidive, ma di somministrare una o due dosi secondo la severità della recidiva ed il rischio infettivo. Risultati. Venivano trattati 51 pazienti con AAV, 15/51 (29%) di nuova diagnosi e 36/51 (71%) ad una recidiva. La maggior parte dei pazienti con nuova diagnosi presentavano una micropoliangioite con severo interessamento renale, 5/15 (33%) erano in dialisi dall’esordio. 32/36 (89%) pazienti trattati ad una recidiva presentavano una recidiva granulomatosa di Granulomatosi di Wegener (WG). Tutti ottenevano una remissione, più rapidamente per le manifestazioni vasculitiche. 2/5 pazienti in dialisi dall’esordio recuperavano la funzione renale. Si osservavano 11 recidive in 9 pazienti con GW mediamente dopo 23.1 mesi, tutti ottenevano nuovamente la remissione. Ad un follow-up medio di 20.1 mesi si registravano 4 decessi, 3 (3/15, 20%) nel gruppo di pazienti con nuova diagnosi, uno (1/36, 3%) nel gruppo trattato ad una recidiva. Quattro pazienti sospendevano il RTX per infezioni. Conclusioni. Nella nostra casistica il RTX si è dimostrato efficace e sicuro nell’indurre la remissione in pazienti con severa AAV, sia all’esordio che alla recidiva. I pazienti con WG presentano maggior rischio di recidiva e dovrebbero pertanto essere mantenuti in terapia immunosoppressiva dopo RTX.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus ein­em Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Glei­chung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrö­din­ger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells be­rück­sich­tigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Glei­chung mit Fokker-Planck Kollisions-Ope­ra­tor hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Max­well­ians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Ge­schwin­dig­keit. Dadurch bleibt die Gleichspannungs-Kurve für die Re­so­nanz-Tunnel­diode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Ge­schwin­dig­keits-Term die Lösung des Systems stabilisiert.