908 resultados para run length
Resumo:
Reinforced concrete columns might fail because of buckling of the longitudinal reinforcing bar when exposed to earthquake motions. Depending on the hoop stiffness and the length-over-diameter ratio, the instability can be local (in between two subsequent hoops) or global (the buckling length comprises several hoop spacings). To get insight into the topic, an extensive literary research of 19 existing models has been carried out including different approaches and assumptions which yield different results. Finite element fiberanalysis was carried out to study the local buckling behavior with varying length-over-diameter and initial imperfection-over-diameter ratios. The comparison of the analytical results with some experimental results shows good agreement before the post buckling behavior undergoes large deformation. Furthermore, different global buckling analysis cases were run considering the influence of different parameters; for certain hoop stiffnesses and length-over-diameter ratios local buckling was encountered. A parametric study yields an adimensional critical stress in function of a stiffness ratio characterized by the reinforcement configuration. Colonne in cemento armato possono collassare per via dell’instabilità dell’armatura longitudinale se sottoposte all’azione di un sisma. In funzione della rigidezza dei ferri trasversali e del rapporto lunghezza d’inflessione-diametro, l’instabilità può essere locale (fra due staffe adiacenti) o globale (la lunghezza d’instabilità comprende alcune staffe). Per introdurre alla materia, è proposta un’esauriente ricerca bibliografica di 19 modelli esistenti che include approcci e ipotesi differenti che portano a risultati distinti. Tramite un’analisi a fibre e elementi finiti si è studiata l’instabilità locale con vari rapporti lunghezza d’inflessione-diametro e imperfezione iniziale-diametro. Il confronto dei risultati analitici con quelli sperimentali mostra una buona coincidenza fino al raggiungimento di grandi spostamenti. Inoltre, il caso d’instabilità globale è stato simulato valutando l’influenza di vari parametri; per certe configurazioni di rigidezza delle staffe e lunghezza d’inflessione-diametro si hanno ottenuto casi di instabilità locale. Uno studio parametrico ha permesso di ottenere un carico critico adimensionale in funzione del rapporto di rigidezza dato dalle caratteristiche dell’armatura.
Resumo:
Das Ziel der vorliegenden Arbeit ist die Untersuchung der räumlichen und zeitlichen Aspekte der heterogenen Dynamik in Modellglasbildnern. Dabei wird vor allem die langsame alpha-Relaxationsdynamik oberhalb des Glasüberganges Tg untersucht. Die nukleare Magnetresonanz zeigt ihre einmalige Vielseitigkeit bei der Untersuchung molekularer Dynamik, wenn die angewandten Techniken und Experimente durch Simulationen unterstützt werden. Die räumliche Aspekt dynamischer Heterogenitäten wird untersucht durch ein reduziertes vierdimensionales Spindiffusionsexperiment (4D3CP), ein Experiment, das Reorientierungsraten örtlich korreliert. Eine Simulation dieses Experimentes an einem System harter Kugeln liefert wertvolle Informationen über die Auswertemethode des 4D3CP Experiments. Glycerol und o-terphenyl werden durch das 4D3CP Experiment untersucht. Die erhaltenen Resultate werden mit bereits publizierten Daten des polymeren Glasbildners PVAc verglichen. Während PVAc und o-terphenyl eine Längenskale von 3.7 nm bzw. 2.9 nm aufweisen, ist die Längenskale von Glycerol signifikant kleiner bei 1.1 nm. Ein neues Experiment, welches sensitiv auf Translationsbewegung reagiert, wird vorgestellt. Durch Verwendung eines pi-Impulszuges kann eine separate Evolution unter dem Hamiltonian der dipolaren Kopplung und der chemischen Verschiebungsanisotropie erreicht werden.
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
Therapeutisches Drug Monitoring (TDM) wird zur individuellen Dosiseinstellung genutzt, um die Effizienz der Medikamentenwirkung zu steigern und das Auftreten von Nebenwirkungen zu senken. Für das TDM von Antipsychotika und Antidepressiva besteht allerdings das Problem, dass es mehr als 50 Medikamente gibt. Ein TDM-Labor muss dementsprechend über 50 verschiedene Wirkstoffe und zusätzlich aktive Metaboliten messen. Mit der Flüssigchromatographie (LC oder HPLC) ist die Analyse vieler unterschiedlicher Medikamente möglich. LC mit Säulenschaltung erlaubt eine Automatisierung. Dabei wird Blutserum oder -plasma mit oder ohne vorherige Proteinfällung auf eine Vorsäule aufgetragen. Nach Auswaschen von störenden Matrixbestandteilen werden die Medikamente auf einer nachgeschalteten analytischen Säule getrennt und über Ultraviolettspektroskopie (UV) oder Massenspektrometrie (MS) detektiert. Ziel dieser Arbeit war es, LC-Methoden zu entwickeln, die die Messung möglichst vieler Antipsychotika und Antidepressiva erlaubt und die für die TDM-Routine geeignet ist. Eine mit C8-modifiziertem Kieselgel gefüllte Säule (20 µm 10x4.0 mm I.D.) erwies sich in Vorexperimenten als optimal geeignet bezüglich Extraktionsverhalten, Regenerierbarkeit und Stabilität. Mit einer ersten HPLC-UV-Methode mit Säulenschaltung konnten 20 verschiedene Psychopharmaka einschließlich ihrer Metabolite, also insgesamt 30 verschiedene Substanzen quantitativ erfasst werden. Die Analysenzeit betrug 30 Minuten. Die Vorsäule erlaubte 150 Injektionen, die analytische Säule konnte mit mehr als 300 Plasmainjektionen belastet werden. Abhängig vom Analyten, musste allerdings das Injektionsvolumen, die Flussrate oder die Detektionswellenlänge verändert werden. Die Methode war daher für eine Routineanwendung nur eingeschränkt geeignet. Mit einer zweiten HPLC-UV-Methode konnten 43 verschiedene Antipsychotika und Antidepressiva inklusive Metaboliten nachgewiesen werden. Nach Vorreinigung über C8-Material (10 µm, 10x4 mm I.D.) erfolgte die Trennung auf Hypersil ODS (5 µm Partikelgröße) in der analytischen Säule (250x4.6 mm I.D.) mit 37.5% Acetonitril im analytischen Eluenten. Die optimale Flussrate war 1.5 ml/min und die Detektionswellenlänge 254 nm. In einer Einzelprobe, konnten mit dieser Methode 7 bis 8 unterschiedliche Substanzen gemessen werden. Für die Antipsychotika Clozapin, Olanzapin, Perazin, Quetiapin und Ziprasidon wurde die Methode validiert. Der Variationskoeffizient (VK%) für die Impräzision lag zwischen 0.2 und 6.1%. Im erforderlichen Messbereich war die Methode linear (Korrelationskoeffizienten, R2 zwischen 0.9765 und 0.9816). Die absolute und analytische Wiederfindung lagen zwischen 98 und 118 %. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Für Olanzapin betrug sie 5 ng/ml. Die Methode wurde an Patienten für das TDM getestet. Sie erwies sich für das TDM als sehr gut geeignet. Nach retrospektiver Auswertung von Patientendaten konnte erstmalig ein möglicher therapeutischer Bereich für Quetiapin (40-170 ng/ml) und Ziprasidon (40-130 ng/ml) formuliert werden. Mit einem Massenspektrometer als Detektor war die Messung von acht Neuroleptika und ihren Metaboliten möglich. 12 Substanzen konnten in einem Lauf bestimmt werden: Amisulprid, Clozapin, N-Desmethylclozapin, Clozapin-N-oxid, Haloperidol, Risperidon, 9-Hydroxyrisperidon, Olanzapin, Perazin, N-Desmethylperazin, Quetiapin und Ziprasidon. Nach Vorreinigung mit C8-Material (20 µm 10x4.0 mm I.D.) erfolgte die Trennung auf Synergi MAX-RP C12 (4 µm 150 x 4.6 mm). Die Validierung der HPLC-MS-Methode belegten einen linearen Zusammenhang zwischen Konzentration und Detektorsignal (R2= 0,9974 bis 0.9999). Die Impräzision lag zwischen 0.84 bis 9.78%. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Es gab keine Hinweise auf das Auftreten von Ion Suppression durch Matrixbestandteile. Die absolute und analytische Wiederfindung lag zwischen 89 und 107 %. Es zeigte sich, dass die HPLC-MS-Methode ohne Modifikation erweitert werden kann und anscheinend mehr als 30 verschiedene Psychopharmaka erfasst werden können. Mit den entwickelten flüssigchromatographischen Methoden stehen neue Verfahren für das TDM von Antipsychotika und Antidepressiva zur Verfügung, die es erlauben, mit einer Methode verschiedene Psychopharmaka und ihre aktiven Metabolite zu messen. Damit kann die Behandlung psychiatrischer Patienten insbesondere mit Antipsychotika verbessert werden.
Resumo:
The quark condensate is a fundamental free parameter of Chiral Perturbation Theory ($chi PT$), since it determines the relative size of the mass and momentum terms in the power expansion. In order to confirm or contradict the assumption of a large quark condensate, on which $chi PT$ is based, experimental tests are needed. In particular, the $S$-wave $pipi$ scattering lengths $a_0^0$ and $a_0^2$ can be predicted precisely within $chi PT$ as a function of this parameter and can be measured very cleanly in the decay $K^{pm} to pi^{+} pi^{-} e^{pm} stackrel{mbox{tiny(---)}}{nu_e}$ ($K_{e4}$). About one third of the data collected in 2003 and 2004 by the NA48/2 experiment were analysed and 342,859 $K_{e4}$ candidates were selected. The background contamination in the sample could be reduced down to 0.3% and it could be estimated directly from the data, by selecting events with the same signature as $K_{e4}$, but requiring for the electron the opposite charge with respect to the kaon, the so-called ``wrong sign'' events. This is a clean background sample, since the kaon decay with $Delta S=-Delta Q$, that would be the only source of signal, can only take place through two weak decays and is therefore strongly suppressed. The Cabibbo-Maksymowicz variables, used to describe the kinematics of the decay, were computed under the assumption of a fixed kaon momentum of 60 GeV/$c$ along the $z$ axis, so that the neutrino momentum could be obtained without ambiguity. The measurement of the form factors and of the $pipi$ scattering length $a_0^0$ was performed in a single step by comparing the five-dimensional distributions of data and MC in the kinematic variables. The MC distributions were corrected in order to properly take into account the trigger and selection efficiencies of the data and the background contamination. The following parameter values were obtained from a binned maximum likelihood fit, where $a_0^2$ was expressed as a function of $a_0^0$ according to the prediction of chiral perturbation theory: f'_s/f_s = 0.133+- 0.013(stat)+- 0.026(syst) f''_s/f_s = -0.041+- 0.013(stat)+- 0.020(syst) f_e/f_s = 0.221+- 0.051(stat)+- 0.105(syst) f'_e/f_s = -0.459+- 0.170(stat)+- 0.316(syst) tilde{f_p}/f_s = -0.112+- 0.013(stat)+- 0.023(syst) g_p/f_s = 0.892+- 0.012(stat)+- 0.025(syst) g'_p/f_s = 0.114+- 0.015(stat)+- 0.022(syst) h_p/f_s = -0.380+- 0.028(stat)+- 0.050(syst) a_0^0 = 0.246+- 0.009(stat)+- 0.012(syst)}+- 0.002(theor), where the statistical uncertainty only includes the effect of the data statistics and the theoretical uncertainty is due to the width of the allowed band for $a_0^2$.
Resumo:
This dissertation analyzes the effect of market analysts’ expectations of share prices (price targets) on executive compensation. It examines how well the estimated effects of price targets on compensation fit with two competing views on determining executive compensation: the arm’s length bargaining model, which assumes that a board seeks to maximize shareholders’ interests, and the managerial power model, which assumes that a board seeks to maximize managers’ compensation (Bebchuk et al. 2005). The first chapter documents the pattern of CEO pay from fiscal year 1996 to 2010. The second chapter analyzes the Institutional Broker Estimate System Detail History Price Target data file, which that reports analysts’ price targets for firms. I show that the number of price target announcements is positively associated with company share price’s volatility, that price targets are predictive of changes in the value of stocks, and that when analysts announce positive (negative) expectations of future stock price, share prices change in the same direction in the short run. The third chapter analyzes the effect of price targets on executive compensation. I find that analysts' price targets alter the composition of executive pay between cash-based compensation and stock-based compensation. When analysts forecast a rise (fall) in the share price for a firm, the compensation package tilts toward stock-based (cash-based) compensation. The substitution effect is stronger in companies that have weaker corporate governance. The fourth chapter explores the effect of the introduction of the Sarbanes-Oxley Act (SOX) in 2002 and its reinforcement in 2006 on the options granting process. I show that the introduction of SOX and its reinforcement eliminated the practice of backdating options but increased “spring-loading” of option grants around price targets announcements. Overall, the dissertation shows that price targets provide insights into the determinants of executive pay in favor of the managerial power model.
Resumo:
The behaviour of a polymer depends strongly on the length- and time scale as well as on the temperature rnat which it is probed. In this work, I describe investigations of polymer surfaces using scanning probe rnmicroscopy with heatable probes. With these probes, surfaces can be heated within seconds down to rnmicroseconds. I introduce experiments for the local and fast determination of glass transition and melting rntemperatures. I developed a method which allows the determination of glass transition and melting rntemperatures on films with thicknesses below 100 nm: A background measurement on the substrate was rnperformed. The resulting curve was subtracted from the measurement on the polymer film. The rndifferential measurement on polystyrene films with thicknesses between 35 nm and 160 nm showed rncharacteristic signals at 95 ± 1 °C, in accordance with the glass transition of polystyrene. Pressing heated rnprobes into polymer films causes plastic deformation. Nanometer sized deformations are currently rninvestigated in novel concepts for high density data storage. A suitable medium for such a storage system rnhas to be easily indentable on one hand, but on the other hand it also has to be very stable towards rnsurface induced wear. For developing such a medium I investigated a new approach: A comparably soft rnmaterial, namely polystyrene, was protected with a thin but very hard layer made of plasma polymerized rnnorbornene. The resulting bilayered media were tested for surface stability and deformability. I showed rnthat the bilayered material combines the deformability of polystyrene with the surface stability of the rnplasma polymer, and that the material therefore is a very good storage medium. In addition we rninvestigated the glass transition temperature of polystyrene at timescales of 10 µs and found it to be rnapprox. 220 °C. The increase of this characteristic temperature of the polymer results from the short time rnat which the polymer was probed and reflects the well-known time-temperature superposition principle. rnHeatable probes were also used for the characterization of silverazide filled nanocapsules. The use of rnheatable probes allowed determining the decomposition temperature of the capsules from few rnnanograms of material. The measured decomposition temperatures ranged from 180 °C to 225 °C, in rnaccordance with literature values. The investigation of small amounts of sample was necessary due to the rnlimited availability of the material. Furthermore, investigating larger amounts of the capsules using rnconventional thermal gravimetric analysis could lead to contamination or even damage of the instrument. rnBesides the analysis of material parameters I used the heatable probes for the local thermal rndecomposition of pentacene precursor material in order to form nanoscale conductive structures. Here, rnthe thickness of the precursor layer was important for complete thermal decomposition. rnAnother aspect of my work was the investigation of redox active polymers - Poly-10-(4-vinylbenzyl)-10H-rnphenothiazine (PVBPT)- for data storage. Data is stored by changing the local conductivity of the material rnby applying a voltage between tip and surface. The generated structures were stable for more than 16 h. It rnwas shown that the presence of water is essential for succesfull patterning.
Resumo:
The major index has been deeply studied from the early 1900s and recently has been generalized in different directions, such as the case of labeled forests and colored permutations. In this thesis we define new types of labelings for forests in which the labels are colored integers. We extend the definition of the flag-major index for these labelings and we present an analogue of well known major index hook length formulas. Finally, this study (which has just apparently a simple combinatoric nature) allows us to show a notion of duality for two particular families of groups obtained from the product G(r,n)×G(r,m).
Resumo:
A spatial, electro-optical autocorrelation (EOA) interferometer using the vertically polarized lobes of coherent transition radiation (CTR) has been developed as a single-shot electron bunch length monitor at an optical beam port downstream the 100 MeV preinjector LINAC of the Swiss Light Source. This EOA monitor combines the advantages of step-scan interferometers (high temporal resolution) [D. Mihalcea et al., Phys. Rev. ST Accel. Beams 9, 082801 (2006) and T. Takahashi and K. Takami, Infrared Phys. Technol. 51, 363 (2008)] and terahertz-gating technologies [U. Schmidhammer et al., Appl. Phys. B: Lasers Opt. 94, 95 (2009) and B. Steffen et al., Phys. Rev. ST Accel. Beams 12, 032802 (2009)] (fast response), providing the possibility to tune the accelerator with an online bunch length diagnostics. While a proof of principle of the spatial interferometer was achieved by step-scan measurements with far-infrared detectors, the single-shot capability of the monitor has been demonstrated by electro-optical correlation of the spatial CTR interference pattern with fairly long (500 ps) neodymium-doped yttrium aluminum garnet (Nd:YAG) laser pulses in a ZnTe crystal. In single-shot operation, variations of the bunch length between 1.5 and 4 ps due to different phase settings of the LINAC bunching cavities have been measured with subpicosecond time resolution.
Resumo:
By measuring the total crack lengths (TCL) along a gunshot wound channel simulated in ordnance gelatine, one can calculate the energy transferred by a projectile to the surrounding tissue along its course. Visual quantitative TCL analysis of cut slices in ordnance gelatine blocks is unreliable due to the poor visibility of cracks and the likely introduction of secondary cracks resulting from slicing. Furthermore, gelatine TCL patterns are difficult to preserve because of the deterioration of the internal structures of gelatine with age and the tendency of gelatine to decompose. By contrast, using computed tomography (CT) software for TCL analysis in gelatine, cracks on 1-cm thick slices can be easily detected, measured and preserved. In this, experiment CT TCL analyses were applied to gunshots fired into gelatine blocks by three different ammunition types (9-mm Luger full metal jacket, .44 Remington Magnum semi-jacketed hollow point and 7.62 × 51 RWS Cone-Point). The resulting TCL curves reflected the three projectiles' capacity to transfer energy to the surrounding tissue very accurately and showed clearly the typical energy transfer differences. We believe that CT is a useful tool in evaluating gunshot wound profiles using the TCL method and is indeed superior to conventional methods applying physical slicing of the gelatine.
Resumo:
The objective of this pilot investigation was to evaluate the utility and precision of already existing limited cone-beam computed tomography (CBCT) scans in measuring the endodontic working length, and to compare it with standard clinical procedures.
Resumo:
Software must be constantly adapted due to evolving domain knowledge and unanticipated requirements changes. To adapt a system at run-time we need to reflect on its structure and its behavior. Object-oriented languages introduced reflection to deal with this issue, however, no reflective approach up to now has tried to provide a unified solution to both structural and behavioral reflection. This paper describes Albedo, a unified approach to structural and behavioral reflection. Albedo is a model of fined-grained unanticipated dynamic structural and behavioral adaptation. Instead of providing reflective capabilities as an external mechanism we integrate them deeply in the environment. We show how explicit meta-objects allow us to provide a range of reflective features and thereby evolve both application models and environments at run-time.