999 resultados para Recht.
Resumo:
Mit Hilfe der Vorhersage von Kontexten können z. B. Dienste innerhalb einer ubiquitären Umgebung proaktiv an die Bedürfnisse der Nutzer angepasst werden. Aus diesem Grund hat die Kontextvorhersage einen signifikanten Stellenwert innerhalb des ’ubiquitous computing’. Nach unserem besten Wissen, verwenden gängige Ansätze in der Kontextvorhersage ausschließlich die Kontexthistorie des Nutzers als Datenbasis, dessen Kontexte vorhersagt werden sollen. Im Falle, dass ein Nutzer unerwartet seine gewohnte Verhaltensweise ändert, enthält die Kontexthistorie des Nutzers keine geeigneten Informationen, um eine zuverlässige Kontextvorhersage zu gewährleisten. Daraus folgt, dass Vorhersageansätze, die ausschließlich die Kontexthistorie des Nutzers verwenden, dessen Kontexte vorhergesagt werden sollen, fehlschlagen könnten. Um die Lücke der fehlenden Kontextinformationen in der Kontexthistorie des Nutzers zu schließen, führen wir den Ansatz zur kollaborativen Kontextvorhersage (CCP) ein. Dabei nutzt CCP bestehende direkte und indirekte Relationen, die zwischen den Kontexthistorien der verschiedenen Nutzer existieren können, aus. CCP basiert auf der Singulärwertzerlegung höherer Ordnung, die bereits erfolgreich in bestehenden Empfehlungssystemen eingesetzt wurde. Um Aussagen über die Vorhersagegenauigkeit des CCP Ansatzes treffen zu können, wird dieser in drei verschiedenen Experimenten evaluiert. Die erzielten Vorhersagegenauigkeiten werden mit denen von drei bekannten Kontextvorhersageansätzen, dem ’Alignment’ Ansatz, dem ’StatePredictor’ und dem ’ActiveLeZi’ Vorhersageansatz, verglichen. In allen drei Experimenten werden als Evaluationsbasis kollaborative Datensätze verwendet. Anschließend wird der CCP Ansatz auf einen realen kollaborativen Anwendungsfall, den proaktiven Schutz von Fußgängern, angewendet. Dabei werden durch die Verwendung der kollaborativen Kontextvorhersage Fußgänger frühzeitig erkannt, die potentiell Gefahr laufen, mit einem sich nähernden Auto zu kollidieren. Als kollaborative Datenbasis werden reale Bewegungskontexte der Fußgänger verwendet. Die Bewegungskontexte werden mittels Smartphones, welche die Fußgänger in ihrer Hosentasche tragen, gesammelt. Aus dem Grund, dass Kontextvorhersageansätze in erster Linie personenbezogene Kontexte wie z.B. Standortdaten oder Verhaltensmuster der Nutzer als Datenbasis zur Vorhersage verwenden, werden rechtliche Evaluationskriterien aus dem Recht des Nutzers auf informationelle Selbstbestimmung abgeleitet. Basierend auf den abgeleiteten Evaluationskriterien, werden der CCP Ansatz und weitere bekannte kontextvorhersagende Ansätze bezüglich ihrer Rechtsverträglichkeit untersucht. Die Evaluationsergebnisse zeigen die rechtliche Kompatibilität der untersuchten Vorhersageansätze bezüglich des Rechtes des Nutzers auf informationelle Selbstbestimmung auf. Zum Schluss wird in der Dissertation ein Ansatz für die verteilte und kollaborative Vorhersage von Kontexten vorgestellt. Mit Hilfe des Ansatzes wird eine Möglichkeit aufgezeigt, um den identifizierten rechtlichen Probleme, die bei der Vorhersage von Kontexten und besonders bei der kollaborativen Vorhersage von Kontexten, entgegenzuwirken.
Resumo:
Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.
Resumo:
Der Beitrag entstand im Rahmen des Forschungsprojektes "Kooperatives Prozess-Register: Serviceorientierte Modellierung und Nutzung von Prozess-Wissen durch Bürger, Unternehmen und Sachbearbeiter im Zweckverband Grevesmühlen (KPR. Grevesmühlen)" und beleuchtet am Beispiel der Trinkwasserhausanschlusserstellung sowie der Hydrantenprüfung des Zweckverbandes Grevesmühlen zentrale Rechtsfragen, die sich bei dem Einsatz von kooperativer Prozess-Register stellen.
Resumo:
Vortragsfolien eines auf dem SAP ABAP-Jahrestreffen 20.-22.9.1995 in Ottrott/Elsaß gehaltenen Vortrags. - Zusammenfassung: Unter Pointer Swizzling versteht man eine Technik, persistente Zeiger in Datenbeständen zur Laufzeit so geschickt durch Hauptspeicherzeiger zu ersetzen, dass schnelles Durchlaufen komplexer Objektstrukturen möglich wird. Den Begriff umgibt ein Hauch von „Magie“, vielleicht auch wegen der Geheimniskrämerei, mit der eine Firma diese Technik in ihrem Datenbankprodukt umgibt. Der Vortrag soll zeigen, dass die Grundprinzipien des Pointer Swizzling eigentlich sehr einfach sind. Andererseits gibt es eine erstaunliche Vielfalt von recht unterschiedlichen Spielarten, was eine sachliche Diskussion über das Konzept und die Vor- und Nachteile erschwert. An einem durchgängigen Beispiel wird die Umsetzung in eine eigene Anwendung veranschaulicht, wobei - wie im Softwaregeschäft üblich - einige gut getarnte Fallgruben auf den Implementierer warten.
Resumo:
1986 bis 1988 eintwickelte die Projektjektgruppe verfassungsverträgliche Technikgestaltung (provet) in einer konditionalen Prognose ein Szenario für die Entwicklung und Anwendung der Informationstechnik in Deutschland. Daraus wurden Thesen für die Verletzlichkeit der Gesellschaft und deren Folgen sowie Gestaltungsvorschläge abgeleitet, mit denen die Verletzlichkeit reduziert werden könne. Der Forschungsbericht "Die Verletzlichkeit der Informationsgesellschaft" wurde vor 25 Jahren publiziert. In dem vorliegenden Beitrag prüfen Mitglieder von provet, inwieweit das Szenario und die diesbezügliche angenommene Verletzlichkeit eingetreten sind, ob eine Gegensteuerung gegen zu viel Verletzlichkeit stattfand und welche Rolle die Gestaltungsvorschläge der Studie dabei spielten. Daraus lässt sich mittelbar auch erkennen, wie nützlich der methodische Ansatz der Technikfolgenforschung und die Gestaltungsvorschläge waren und heute sein können.
Resumo:
Die Berechnung des 1912 von Birkhoff eingeführten chromatischen Polynoms eines Graphen stellt bekanntlich ein NP-vollständiges Problem dar. Dieses gilt somit erst recht für die Verallgemeinerung des chromatischen Polynoms zum bivariaten chromatischen Polynom nach Dohmen, Pönitz und Tittmann aus dem Jahre 2003. Eine von Averbouch, Godlin und Makowsky 2008 vorgestellte Rekursionsformel verursacht durch wiederholte Anwendung im Allgemeinen einen exponentiellen Rechenaufwand. Daher war das Ziel der vorliegenden Dissertation, Vereinfachungen zur Berechnung des bivariaten chromatischen Polynoms spezieller Graphentypen zu finden. Hierbei wurden folgende Resultate erzielt: Für Vereinigungen von Sternen, für vollständige Graphen, aus welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken gelöscht wurden, für spezielle Splitgraphen und für vollständig partite Graphen konnten rekursionsfreie Gleichungen zur Berechnung des bivariaten chromatischen Polynoms mit jeweils linear beschränkter Rechenzeit gefunden werden. Weiterhin werden Möglichkeiten der Reduktion allgemeiner Splitgraphen, bestimmter bipartiter Graphen sowie vollständig partiter Graphen vorgestellt. Bei letzteren erweist sich eine hierbei gefundene Rekursionsformel durch eine polynomiell beschränkte Laufzeit als effektive Methode. Ferner konnte in einem Abschnitt zu Trennern in Graphen gezeigt werden, dass der Spezialfall der trennenden Cliquen, welcher im univariaten Fall sehr einfach ist, im bivariaten Fall sehr komplexe Methoden erfordert. Ein Zusammenhang zwischen dem bivariaten chromatischen Polynom und dem Matchingpolynom wurde für vollständige Graphen, welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken entnommen wurden, sowie für Bicliquen hergestellt. Die vorliegende Dissertation liefert darüber hinaus auch einige Untersuchungen zum trivariaten chromatischen Polynom, welches auf White (2011) zurückgeht und eine weitere Verallgemeinerung des bivariaten chromatischen Polynoms darstellt. Hierbei konnte gezeigt werden, dass dessen Berechnung selbst für einfache Graphentypen schon recht kompliziert ist. Dieses trifft sogar dann noch zu, wenn man die einzelnen Koeffizienten als bivariate Polynome abspaltet und einzeln berechnet. Abschließend stellt die Arbeit zu vielen Resultaten Implementierungen mit dem Computeralgebrasystem Mathematica bereit, welche zahlreiche Möglichkeiten zu eigenständigen Versuchen bieten.
Resumo:
Die vorliegende Arbeit befasst sich mit dem lateralen Auflösungsvermögen in der kurzkohärenten Interferenzmikroskopie. Das 3D-Auflösungsvermögen von Phasenobjekten ist im Gegensatz zu dem von Intensitätsobjekten stark nichtlinear und vom spezifischen Messverfahren abhängig. In diesem Zusammenhang sind systematische Messfehler von entscheidender Bedeutung. Für die kurzkohärente Interferenzmikroskopie ist das Überschwingen an Kanten von besonderem Belang, da sich der Effekt bei der Messung vieler technischer Oberflächen negativ auswirkt. Er entsteht durch die Überlagerung von Interferenzsignalen lateral benachbarter Objektpunkte von unterschiedlichen Höhenniveaus. Es wird an speziell für diesen Zweck entwickelten Messsystemen untersucht in wie weit dieser Effekt physikalisch reduziert werden kann und wie sich dies auf die laterale Auflösung auswirkt. An einem für den Einsatz in einer Nanomessmaschine optimierten Linnik-Interferometer wird die Justage eines solchen Systems erläutert. Der Sensor verfügt über die Option mit NUV-Licht betrieben zu werden, um die laterale Auflösung zu verbessern. Aufgrund des Einsatzzweckes ist der Arbeitsabstand relativ groß, was die laterale Auflösung einschränkt. Mit einem zweiten auf die Untersuchungen in dieser Arbeit optimierten Versuchsaufbau können die physikalischen Grenzen der kurzkohärenten Interferenzmikroskopie praktisch untersucht werden. Zu diesem Zweck ist der Aufbau mit einem Mikrospiegelarray ausgestattet, um hierüber variable konfokale Blenden zu schaffen. Mit diesem System wird erstmalig konfokale Mikroskopie mit Weißlichtinterferometrie kombiniert. Durch die optische Selektion der konfokalen Mikroskopie soll die Ursache für die Überschwinger an Kanten reduziert werden. Eine weitere Möglichkeit der Einflussnahme stellt die optionale Beleuchtung mit polarisiertem Licht dar, wodurch die laterale Auflösung weiter gesteigert werden kann. Zusätzlich kann auch dieser Aufbau mit kurzwelligem blauem Licht betrieben werden, um die laterale Auflösung zu optimieren. Die Messergebnisse, die mit diesen Versuchsaufbauten gemacht wurden, zeigen, dass im Gegensatz zu den in der derzeitigen Normung genutzten Modellen das Übertragungsverhalten in der Weißlichtinterferometrie bei der Messung von Phasenobjekten stark nichtlinear ist. Das laterale Auflösungsvermögen deckt sich je nach Auswerteverfahren recht gut mit dem von klassischen Mikroskopen bei der Wiedergabe von Intensitätsobjekten. Für die Untersuchungen wurde überwiegend ein Auflösungsnormal mit neun unterschiedlichen eindimensionalen Rechteckstrukturen verwendet, die eine Nominalhöhe im kritischen Bereich kleiner der Kohärenzlänge der verwendeten Lichtquelle aufweisen. Die Ergebnisse bestätigen sich aber auch an technischen Messobjekten aus der Praxis wie beispielsweise einer „digital video disc“.
Resumo:
Introducción: La hemofilia es una enfermedad poco frecuente; no obstante, los avances en los tratamientos de pacientes hemofílicos en las últimas décadas han generado cambios en su calidad de vida. Esto ha motivado el desarrollo de múltiples investigaciones al respecto. Objetivo: Revisar la literatura sobre la calidad de vida en el paciente hemofílico, producida en el periodo 2008-2012. Método: Se consultaron algunas bases de datos científicas utilizando como palabras clave “hemofilia” y “calidad de vida”. Se recopiló la información encontrada y se organizó según los objetivos propuestos en “factores negativos” y “factores protectores” de la calidad de vida a nivel fisiológico, psicosocial y cultural; “instrumentos para la evaluación de la calidad de vida” a nivel específico y general; y antecedentes empíricos de los últimos cinco años en los que se evaluara la calidad de vida o se realizara alguna intervención en la misma. Resultados: En general la información disponible sobre el comportamiento epidemiológico de la hemofilia es limitada. El interés por factores protectores y negativos es principalmente de tipo fisiológico, aunque se encontraron factores de tipo psicosocial y cultural, lo que indica la importancia de profundizar en esta temática. Existen pocos instrumentos especializados para la evaluación de la calidad de vida en hemofílicos. La evidencia empírica se centra en la evaluación. Conclusión: El estudio de la calidad de vida en pacientes hemofílicos amerita ser abordado de manera interdisciplinaria.
Resumo:
De la Doctrina de Intervención Humanitaria y ex post facto Instituciones Judiciales a la noción de responsabilidad de proteger y el papel preventivo de la Corte Penal Internacional. Lección inaugural como Presidente en Derecho Penal Internacional y Procedimiento Penal Internacional en la Universidad de Utrecht, emitido el 18 de octubre 2010
Resumo:
El objetivo de este trabajo es analizar el fenómeno de la participación de las ONG en el marco de la Organización de Naciones Unidas (ONU) y las implicaciones del mismo en las dinámicas de la gobernanza global. Se explican los conceptos principales para el análisis y posteriormente se hace una revisión de los antecedentes que permitieron el desarrollo de dicho fenómeno dentro de la organización y fuera de ella. Luego se centra el análisis en la incidencia de las ONG en la ONU y para la gobernanza global; se concluye con una reflexión sobre lo que puede esperarse de esta incidencia para el futuro de la organización.
A reorientação do princípio republicano a partir da solidariedade: o cosmopolitismo na coisa pública
Resumo:
Im Rahmen dieser Arbeit wurde an derDrei-Spektrometer-Anlage des Beschleunigers MAMI das erstehochauflösende (e,e'pp)-Experiment in super-parallelerKinematik zur Untersuchung kurzreichweitiger Korrelationendurchgeführt. Mit der erzielten Energieauflösung in derAnregungsenergie des Restkerns von ?Ex ? 500 keVkonnten die einzelnen Endzustände der Reaktion16O(e,e'pp)14C gut voneinandergetrennt werden. Die Durchführung mehrerer Messungen mitunterschiedlichen Einstellungen der Hadronspektrometer hates ermöglicht, Verteilungen im fehlende Impuls für dieeinzelnen Endzustände von 14C im Bereich von -100MeV/c bis etwa 300 MeV/c anzugeben. Die apparativen Voraussetzungen für die Durchführung diesesExperimentes wurden durch den Aufbau und die Inbetriebnahmedes Spurdetektors von Spektrometer C im Rahmen dieser Arbeitgeschaffen. Der Detektor besteht aus vier Ebenen vonvertikalen Driftkammern mit einer sensitiven Fläche von(0.34 x 2.32) m2. Die Ortsauflösung ist besserals 100 ?m, die Winkelauflösung besser als 0.3 mrad in dendispersiven Koordinaten des Spektrometers. Durch den Einsatzspezieller Programme zur Spurrekonstruktion könnenNachweiswahrscheinlichkeiten von nahezu 100 % erzieltwerden. Nach der Inbetriebnahme von Spektrometer C wurde im Rahmendieser Arbeit die erste Dreifach-Koinzidenz-Testmessung ander Drei-Spektrometer-Anlage vorbereitet und erfolgreichdurchgeführt, sowie die ersten Messungen zum3He(e,e'pp)n-Experiment begonnen. Das bestehendeWassertarget wurde in Betrieb genommen, an die speziellenErfordernisse des C-Experimentes angepaßt und dessenZuverlässigkeit verbessert. Die Ergebnisse des16O(e,e'pp)14C-Experimentes wurden mitzwei mikroskopischen Rechnungen, die von realistischenNukleon-Nukleon-Potentialen ausgehen, verglichen, denModellen der Pavia- und der Gent-Gruppe. Der Vergleich zeigtein recht gute Übereinstimmung zwischen Theorie undExperiment. Gerade die gute Beschreibung des Grundzustandesum pm = 0 MeV/c gibt deutliche Hinweise aufkurzreichweitige Korrelationen im Grundzustand von16O. Die Untergrundprozesse, insbesondere dieAnregung der ?-Resonanz, werden von den Modellen gutbehandelt. Dies wird durch die sehr gute Beschreibung desÜberganges zum 1+ Zustandes bei Ex =11.3 MeV belegt, da dieser Übergang durch die Emission von3P Protonpaare dominiert wird. Bei derBeschreibung des Überganges zum ersten 2+ Zustandgibt es noch Diskrepanzen, die eine nicht ausreichendeBeschreibung dieses Überganges durch die theoretischenModelle andeuten.
Resumo:
Die Morphogenese einer Pflanzenzelle wird in großem Maße durch die Dynamik kortikaler Mikrotubuli (MT) bestimmt, die auf die Zellwandsynthese Einfluß nehmen. In dieser Arbeit wurden die Transkriptmengen der alpha-Tubulin-Isotypen und des gamma-Tubulin während der Entwicklung des Gerstenblattes analysiert, um Zusammenhänge zu bereits beschriebenen Umwandlungen im kortikalen MT-Cytoskelett der Mesophyllzellen aufzudecken. Erstmals konnte bei einer höheren Pflanze die Genexpression auf RNA-Ebene innerhalb einer Tubulin-Multigenfamilie im Verlauf der Blattentwicklung umfassend dargestellt werden.Es wurden blattspezifische cDNA-Bibliotheken erstellt und mittels RT-PCR homologe DNA-Gensonden für die Screeningprozesse der cDNA-Bibliotheken hergestellt. cDNA-Sequenzen von alpha-, beta-, und gamma-Tubulin konnten isoliert werden. Weitere, weniger abundante alpha-Tubulin-Sequenzen wurden während zusätzlicher Screeningrunden über PCR-Ausschluß häufig vertretener, bereits bekannter Isotypen isoliert.Die cDNA-Sequenzen von insgesamt fünf verschiedenen Isotypen des alpha-Tubulin konnten aufgeklärt werden, drei Isotypen wiesen bis zu fünf im nicht kodierenden 3´-Bereich verkürzte Varianten auf, die aber in ihrer Anzahl deutlich unterrepräsentiert waren. Die abgeleiteten Aminosäuresequenzen umfassten bei drei Isotypen 451 Aminosäuren (AS), zwei Isotypen waren im C-Terminus um eine bzw. um zwei AS kürzer. Die fünf alpha-Tubulin-Isotypen wiesen charakteristische Expressionsmuster auf, die in drei Klassen unterteilbar waren. Die Isotypen HVATUB1 und HVATUB5 (MT-Band-Isotypen) hatten den maximalen Gehalt in Blattbereichen, in denen auch hauptsächlich Mesophyllzellen mit kortikalen MT-Bänderungen vorkommen, wobei HVATUB5 den am schwächsten exprimierte Isotyp darstellte. HVATUB3 (Random-MT-Isotyp) zeigte die stärksten Expressionsraten. Die im Meristem und meristemnahen Bereichen bereits recht hohe Abundanz erreichte erst nach der Zellstreckungszone in einer Blattzone das Maximum, in dem hauptsächlich Mesophyllzellen mit zerstreut angeordneten MT anzutreffen sind. Die Isotypen HVATUB2 und HVATUB4 (MImax-Isotypen) waren in mitotisch aktiven, basalen Blattbereichen dominant.Die cDNA-Sequenz vom gamma-Tubulin der Gerste, HVGTUB, wurde ermittelt; die abgeleitete Aminosäuresequenz bestand aus 469 AS. Das Auftreten einer im nicht kodierenden 3´-Bereich kürzeren Variante konnte erstmals bei pflanzlichem gamma-Tubulin beschrieben werden. Southernblot-Analysen ließen darauf schließen, daß gamma-Tubulin nur als Einzelkopie im Genom der Gerste vorkommt. gamma-Tubulin wurde im mitosereichen Meristem der Blattbasis am stärksten exprimiert. Da die Abnahme der Transkriptmenge weitaus langsamer verlief als die Abnahme der Zellteilungsaktivität, ist anzunehmen, daß gamma-Tubulin neben der Erfüllung von mitose- und zellteilungsspezifischen Funktionen auch eine Rolle im Zusammenhang mit der Dynamik des kortikalen MT-Cytoskeletts spielt. Einen ersten Schritt zur Aufklärung der Genfamilie des beta-Tubulin bei Gerste stellt die Isolierung drei verschiedener cDNA-Sequenzen von beta-Tubulin dar.
Resumo:
Der astrophysikalische r-Prozeß (schneller Neutroneneinfang), ist verantwortlich für die Nukleosynthese einer großen Zahl von Elementen, die schwerer als Eisen sind. Benutzt man das ''waiting-point''-Modell, so kann die Häufigkeitsverteilung der Elemente durch drei nukleare und drei stellare Input-Parameter beschrieben werden. Für einen gegebenen Satz von stellaren Parametern definiert die Neutronenseparationsenergie (Sn) den r-Prozeß-Pfad. Die beta-Zerfall-Halbwertszeit (T1/2) der Kerne im r-Prozeß-Pfad bestimmt die Häufigkeit des Vorläufers und bezieht man die Neutronenemissionswahrscheinlichkeit (Pn) mit ein, so auch die endgültige Häufigkeitsverteilung. Von besonderer Wichtigkeit sind die neutronenreichen ''waiting-point''-Isotope. Zum Beispiel sind die N=82 Isotope verantwortlich für den solaren A~130 Häufigkeits-Peak. Diese Arbeit befaßt sich mit der Identifizierung und der Untersuchung von Zerfallseigenschaften neutronenreicher Isotope des Mangan (A=61 bis 69) und Cadmium (A=130 bis 132). Neutronenreiche Nuklide zu erzeugen und zu detektieren ist ein komplizierter und zeitaufwendiger Prozeß, nichts desto trotz erfolgreich. Das Hauptproblem bei dieser Art von Experimenten ist der hohe isobare Untergrund. Aus diesem Grunde wurden speziell entwickelte Anregungsschemata für Mangan und Cadmium eingesetzt, um die gewünschten Isotope mittels Laser-Resonanzionisation chemisch selektiv zu ionisieren. Bei CERN/ISOLDE war es möglich im Massenbereich von 60^Mn bis 69^Mn neue Halbwertszeiten und Pn-Werte zu bestimmen. Für 64^Mn und 66^Mn konnten darüber hinaus erstmals noch partielle Zerfallsschemata aufgestellt werden. Es zeigte sich, daß die Ergebnisse teilweise recht überraschend waren, da sie nicht durch das QRPA-Modell vorhergesagt wurden. Mit Hilfe vergleichender Studien des Gesamttrends der Niveausystematiken der gg-Kerne von 26_Fe, 30_Zn, 32_Ge, 24_Cr und 28_Ni konnte ein Verschwinden der sphärischen N=40 Unterschale und die Existenz einer neuen Region mit signifikanter Deformation nachgewiesen werden, die vermutlich ihr ''Zentrum'' bei 64^Cr hat. Ebenfalls zeigen Studien der Niveausystematik bei 48Cd und der Vergleich mit 46_Pd, 54_Xe, 52_Te und 50_Sn, erste Hinweise eines Schalenquenchings bei N=82. Es wurde die Messung der Halbwertszeit von 130^Cd verbessert und die Halbwertszeiten von 131^Cd und 132^Cd erstmals bestimmt. Die neuen Daten können nur erklärt werden, wenn man bei der QRPA-Rechnung verbotene Übergänge mitberücksichtigt. Es genügt nicht, die Rechnung für reinen Gamow-Teller-Zerfall durchzuführen.