348 resultados para A. digitale
Resumo:
Hintergrund und Fragestellung: Die durch röntgentechnische Diagnoseverfahren in der Medizin entstehende Strahlenbelastung für Patient und Personal soll laut Strahlenschutzverordnung so gering wie möglich gehalten werden. Um dieses zu erreichen ist ein professioneller und bedachter Umgang mit den Röntgengeräten unabdingbar. Dieses Verhalten kann derzeit jedoch nur theoretisch vermittelt werden, da sich ein Üben mit realer Strahlung von selbst verbietet. Daher stellt sich die Frage wie man die Strahlenschutzausbildung durch eine verbesserte Vermittlung der komplexen Thematik unterstützen kann. Methoden: Das CBT-System (Computer Based Training) virtX, welches das Erlernen der korrekten Handhabung mobiler Röntgengeräte unterstützt, wurde um Aspekte aus dem Bereich des Strahlenschutzes erweitert. Es wurde eine prototypische Visualisierung der entstehenden Streustrahlung sowie die Darstellung des Nutzstrahlenganges integriert. Des Weiteren wurde die Berechnung und Anzeige der virtuellen Einfallsdosis für das durchstrahlte Volumen sowie für den Bereich des Bildverstärkers hinzugefügt. Für die Berechnung und Visualisierung all dieser Komponenten werden die in virtX parametrisierbaren C-Bogen-Einstellungen, z.B. Stellung der Blenden, Positionierung des Röntgengerätes zum durchstrahlten Volumen und Strahlenintensität, herangezogen. Das so erweiterte System wurde auf einem dreitägigen Kurs für OP-Personal mit über 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 55 einen ausgefüllten Evaluations-Fragebogen ab (Responserate 82%). Das Durchschnittsalter der 39 weiblichen und 15 männlichen Teilnehmer (einer o.A.) lag bei 33±8 Jahren, die Berufserfahrung bei 9,37±7 Jahren. Die Erfahrung mit dem C-Bogen wurde von einem Teilnehmer (2%) mit „Keine oder bisher nur Einführung erhalten“, von acht Teilnehmern (14%) mit „bediene einen C-Bogen gelegentlich“ und von 46 (84%) mit „bediene einen C-Bogen regelmäßig“ angegeben. 45 (92%) der Teilnehmer gaben an, durch die Visualisierung der Streustrahlung etwas Neues zur Vermeidung unnötiger Strahlenbelastung dazugelernt zu haben. Schlussfolgerung: Trotz einer bislang nur prototypischen Visualisierung der Streustrahlung können mit virtX zentrale Aspekte und Verhaltensweisen zur Vermeidung unnötiger Strahlenbelastung erfolgreich vermittelt werden und so Lücken der traditionellen Strahlenschutzausbildung geschlossen werden.
Resumo:
Die Forschung am Herbarbeleg ist in der Botanik und der Taxonomie einem Wandel ausgesetzt. Zunehmend werden in Herbarien digitale Kopien verwendet, die neue Auswertungs- und Analysemethoden ermöglichen. Die Entwicklung technischer und wirtschaftlicher Verfahren zur Herbarbeleg-Digitalisierung ist Gegenstand des Forschungsschwerpunkts Herbar Digital der Hochschule Hannover. Das Ziel von Herbar Digital ist es, das System der Virtualisierung von Herbarbelegen und deren Verwaltung so zu automatisieren, dass die Kosten von 20 US-$ auf 2 US-$ reduziert werden. Betrachtet man die Herbarbeleg-Digitalisierung als ein zu planendes 5-Jahres-Investitionsprojekt, dann sind unterschiedliche Szenarien und deren wirtschaftlichen Auswirkungen denkbar. In dem vorliegenden Arbeitspapier werden drei Szenarien entwickelt und soweit operationalisiert, dass sowohl Aussagen einer technischen Investitionsplanung als auch einer wirtschaftlichen Investitionsplanung über den Planungshorizont von 5 Jahren abgeleitet werden. In technischer Hinsicht werden die Produktion, Logistik (inkl. IT) sowie das Personal geplant. Die wirtschaftlichen Aussagen beziehen sich auf Standort- und Betriebsmittelkosten, IT- und Logistikkosten, Personalkosten sowie sonstige Kosten. Um den Projekterfolg sicherzustellen, sind beide Planungsbereiche in einem Konzept für das Investitionscontrolling integriert. Als Ergebnis von Szenario 1 ergeben sich bei einer Produktionsmenge von 1 Mio. digitalen Belegen Ausgaben in Höhe von 2,05 € pro Digitalisat. Das Szenario 1 ist als generelles Forschungsergebnis von Herbar Digital zu verstehen und liefert entsprechend eine Referenzlösung für alle Objekte im Kontext einer musealen Herbarbeleg-Digitalisierung. Bei einer Produktion von 5 Mio. Digitalisaten in Szenario 2 wird von einer Kooperation der Herbarien in Berlin und einem ausländischen Partner mit halben Lohnniveau ausgegangen. Es reduzieren sich die zahlungswirksamen Kosten auf 1,21 € pro Digitalisat. Das Ergebnis aus Szenario 2 bleibt auch in Szenario 3 konstant, worin unter Einbezug eines weiteren inländischen Kooperationspartners 10 Mio. digitale Herbarbelege hergestellt werden. Vermutlich ergeben sich unter den technischen Bedingungen keine weiteren Kostendegressionseffekte.
Resumo:
Vertreter der Generation Y, Personen, die in den 1980er Jahren geboren wurden, drängen verstärkt in den Arbeitsmarkt. Ihre Wert- und Erwartungshaltung ist deshalb von großem Interesse für Unternehmen, die mit Themen wie dem Fachkräftemangel und demografischen Wandel konfrontiert sind und die Leistungsträger langfristig binden müssen. Ziel dieser Hausarbeit ist herauszufinden, wie ausgeprägt die emotionale Bindung der Generation Y in Unternehmen allgemein ist und unter welcher Voraussetzung affektives Commitment bei der Generation Y entsteht. Ein weiteres Ziel ist die Erarbeitung von Handlungsempfehlungen bezüglich des Personalmanagements von Generation Y in Unternehmen. Generation Y hat hohe Erwartungen an Arbeitsinhalt, Selbstverwirklichungsmöglichkeiten, Aus- und Weiterbildungsmaßnahmen, Unternehmenswerte und -ethik, Sinnhaftigkeit der Tätigkeit und Teamarbeit. Vertreter dieser Generation wünschen sich Wertschätzung, eine gute Beziehung zum Vorgesetzten, viele Partizipationsmöglichkeiten, regelmäßiges Feedback und Flexibilität. Weiterhin sind Work-Life-Balance, Karriereoptionen, Einkommen, digitale Vernetzung und Arbeitsplatzsicherheit wichtige Themen für diese Generation. Affektives Commitment entsteht durch Erfüllung von Erwartungen. Generation Y ist nur bedingt affektiv gebunden, tendiert zu häufigen Unternehmenswechseln und ist durch eine schwache Loyalität gekennzeichnet. Dies liegt hauptsächlich daran, dass die Erwartungen dieser Generation nicht erfüllt werden. Es wird empfohlen HR-Maßnahmen zu implementieren, die auf Erfüllung der Erwartungen von Generation Y abzielen.
Resumo:
Der Arbeitsalltag von Wissenschaftlerinnen und Wissenschaftlern hat sich in den letzten Jahren dramatisch verändert. Forschen, Schreiben und Publizieren sind mittlerweile stark durch netzbasierte Anwendungen geprägt. Das digitale Zeitalter aber hat nicht nur neue technische Werkzeuge hervorgebracht, sondern auch neue Wege eröffnet, um Wissen zu generieren und zu verbreiten. Dies gilt sowohl innerhalb der akademischen Welt als auch über diese hinaus. Das Arbeiten mit dem Netz stellt unsere bisherigen etablierten wissenschaftlichen Praktiken in Frage. Forschung wird zunehmend vernetzt, kollaborativ, multimedial, trans- bzw. interdisziplinär durchgeführt. Das vorliegende Handbuch beschreibt diese sich herausbildenden wissenschaftlichen Praktiken. Ziel der Autoren war es dabei, ein praxisnahes und leicht verständliches Handbuch zu schreiben.
Resumo:
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation. Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche. In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen. Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Resumo:
But: Cette étude a pour but de comparer : a)la morphologie du plancher pelvien (PP), du col vésical et du sphincter urogénital strié (SUS) par IRM et b) la fonction du PP par palpation digitale (PERFECT scheme) chez les femmes âgées continentes ou avec incontinence urinaire à l’effort (IUE) et mixte (IUM). Méthode: Les femmes ont appris à contracter correctement leur PP et la fonction de leur PP a été évaluée. Une séance d’IRM dynamique 3T a suivi. Résultats: 66 femmes ont participé à l’étude. Les groupes étaient similaires en âge, IMC, nombre d’accouchements vaginaux et d’hystérectomie. La validité et la fidélité des différentes mesures anatomiques utilisées ont été confirmées au début de cette étude. Afin de contrôler l’effet potentiel de la taille du bassin sur les autres paramètres, les femmes ont été appariées par la longueur de leur inlet pelvien. Les femmes avec IUM ont un PP plus bas et un support des organes pelviens plus faible, selon leurs ligne M, angle LPC/Ligne H et hauteur de la jonction urétro-vésicale (UV). Les femmes avec IUE ont un PP similaire à celui des continentes, mais présentent plus d’ouverture du col vésical et un angle UV postérieur plus large au repos que les autres groupes. Il n’y a aucune différence de morphologie du SUS entre les groupes. De plus, selon les résultats du PERFECT scheme, les femmes avec IU ont une force du PP plus faible que les continentes. Les femmes avec IUM montrent aussi une faible élévation des muscles du PP à la contraction. Les femmes avec IUE ont, quant à elle, un problème de coordination à la toux. Conclusion: Les déficits causant l’IUE et l’IUM sont différents, mais supportent tous le rationnel des exercices du PP pour le traitement de l’IUE et l’IUM. Ces résultats supportent le besoin de traitements de rééducation spécifiques aux déficits de chacun des types d’IU.
Resumo:
"L’auteur présente une analyse générale de l’évolution historique et des développements récents du régime des droits d’auteur au Canada. Avec le développement des nouvelles technologies de l’information, et plus spécifiquement de l’Internet, le régime canadien des droits d’auteur nécessiterait d’importantes réformes. L’auteur déplore toutefois les modifications récentes issues de la loi C-60. En effet, selon lui, ces changements ne correspondent pas au régime international proposé par l’Organisation Mondiale de Propriété Intellectuelle. En fait, ceux-ci cadrent beaucoup plus avec la perspective américaine de protection limitative des droits d’auteur. Michael Geist trace d’abord l’historique du développement du régime de protection des droits d’auteur au Canada. Il souligne notamment les modifications législatives importantes de la fin des années 1980 et 1990 qui visaient à renforcer les règles de reconnaissance et de protection des droits que les auteurs canadiens possèdent sur leurs œuvres. Parallèlement, à ces modifications législatives, la Cour Suprême du Canada s’est aussi prononcée sur la question des droits d’auteur en interprétant limitativement la portée de ce régime, facilitant ainsi l’accès des œuvres artistiques au domaine public. L’auteur souligne les divergences et les contradictions entre la conception législative et celle jurisprudentielle de la fonction du régime canadien des droits d’auteur. Le législateur canadien a récemment proposé une nouvelle modification du régime de droits d’auteurs qui consisterait en l’extension des délais obligatoire avant qu’une œuvre couverte par le régime ne soit incluse dans le domaine public. Michael Geist s’oppose à une telle modification et soutient qu’elle entraînerait de nombreuses conséquences négatives pour les auteurs et les artistes canadiens. En effet, cette modification limiterait l’accès des auteurs aux oeuvres antérieures, elle entraverait les opportunités et les capacités commerciales des œuvres canadiennes et restreindrait les domaines de recherche académique. L’auteur aborde par la suite la problématique reliée aux ""Mesures de Protection Techniques"" et à la législation qui les encadre. En analysant les problèmes causés par ces mesures aux États-Unis, il présente leurs effets nuisibles pour les domaines fondamentaux de la liberté de parole et de la recherche académique. Les réformes possibles du régime canadien des droits d’auteur se situent dans une perspective plus ouverte du régime de protection et de promotion des œuvres canadiennes. Ces réformes auraient l’avantage de promouvoir et de protéger les œuvres canadiennes tout en évitant les problèmes causés par les mesures trop limitatives. À ce sujet, l’auteur propose l’établissement d’une bibliothèque digitale nationale, l’abrogation des droits d’auteur de la couronne et un nouveau régime permettant l’utilisation du matériel radiodiffusé de la Société Radio-Canada."
Resumo:
« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.
Resumo:
Le présent projet doctoral vise à considérer les lacunes dans la documentation scientifique sur le Trouble Paraphilique Coercitif (TPC) en mettant l’accent sur la validité des critères diagnostiques proposés pour inclusion dans le DSM-5 et les marqueurs comportementaux. À ce fait, les données archivées d’individus ayant sexuellement agressé des femmes adultes ont été étudiées. La thèse est constituée de trois articles empiriques. Le premier article présente des résultats clés découlant des analyses, élaborés dans les articles subséquents. Le second (N = 47) évalue les fréquences observées du TPC, la validité et l’impact du recours au nombre minimal de victimes comme critère diagnostique, ainsi que les indices prédisant la récidive sexuelle. Le troisième article (N = 52) compare les groupes diagnostiques sur une série de comportements délictuels, tels que les gestes sexuels et les comportements violents, dans le but d’identifier les marqueurs comportementaux associés avec la propension au viol qui pourraient assister dans le processus diagnostique. Dans le même ordre d’idées, nous avons créé des typologies de violeurs à partir des gestes sexuels commis, d’un côté, et des comportements violents, de l’autre côté. Conséquemment, les caractéristiques des typologies ainsi obtenues et leur association avec le TPC furent examinées. Dans l’ensemble, nos résultats ne soutiennent pas le recours au nombre de victimes. Nos données suggèrent que, globalement, les violeurs avec le TPC utilisent un niveau de gestes sexuels plus envahissant et un niveau de violence moindre que les violeurs n’ayant pas ce diagnostic, et que l’exhibitionnisme et l’attouchement pourraient servir de marqueurs comportementaux pour le TPC. En outre, les violeurs avec le TPC sont caractérisés davantage par demande indécente, exhibitionnisme, attouchement, masturbation, tentative de pénétration et pénétration digitale que par pénétration vaginale et sodomie. De plus, ces derniers font moins recours à l’utilisation d’armes, semblent ne pas frapper/donner des coups à la victime et sont caractérisés par la manipulation plutôt que par le recours aux menaces de mort, force excessive et utilisation d’armes. En somme, nos données soulignent la nécessité de s’appuyer sur une combinaison de méthodes d’évaluation afin d’améliorer la validité diagnostique et discriminante du TPC.
Resumo:
Campylobacter est l’agent pathogène zoonotique responsable de la majorité des gastro-entérites d’origine bactérienne chez l’homme. Les produits de volaille représentent la principale source d’infection; toutefois, l’exposition peut également découler de contacts directs avec les animaux ou avec l’eau. Une forte variation saisonnière est présente dans les cas rapportés, qui n’est toujours pas élucidée : les eaux environnementales, sources d’infection connues, sont soupçonnées. Cette étude transversale a été réalisée dans la région Sud-Est du Québec (Canada) où Campylobacter fut quantifié et génotypé à partir de différentes sources d’eau (eaux de captage, récréatives et usées) et de cas cliniques afin d’évaluer les risques potentiels posé par l’eau environnementale. Différents essais PCR en temps réel furent appliqués à l’eau environnementale et comparés: 2 ont été sélectionnés pour leur spécificité et sensibilité de quantification. Les courbes standards ont été calibrées en utilisant la PCR digitale pour déterminer précisément les concentrations. Les isolats environnementaux et cliniques furent comparés génétiquement en utilisant le CGF (« comparative genomic fingerprinting »). Les eaux usées étaient plus contaminées que les eaux de captage et récréatives (3.9Log, 1.7Log et 1.0Log cellules/L en moyenne, respectivement). Six pour cent des isolats d’eaux environnementales étaient génétiquement similaires (100 % homologie) aux isolats cliniques. Les cas cliniques de campylobactériose d’été montraient des isolats avec davantage de similarités génétiques avec les isolats retrouvés dans l’eau environnementale comparativement aux autres saisons (p<0.01). Les faibles concentrations et similarités génétiques entre les isolats d’eau et cliniques suggèrent un risque de transmission possible, mais faible.
Resumo:
L’expérience de la mort sur le web révèle un paradoxe évident, celui de sites ou de profils abandonnés par leurs ’propriétaires’, des pages qui deviennent alors des cadavres numériques, leur définitive inactivité équivalant à la mort. Il s’agit cependant d’une mort qui ne correspond pas à une disparition. Au contraire, nous sommes devant une mort temporaire, qui continue à être visible même si tout processus d’écriture, l’écriture polymorphe au fondement de notre existence numérique, s’est arrêté.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Im Informationszeitalter erhalten die Neuen Medien eine immer größer werdende Bedeutung. Lange Zeit galten gedruckte Informationen – häufig in Form von Büchern und Zeitschriften – als eigentliche Informationsquelle in den Bibliotheken. Mehr und mehr nehmen jedoch mittlerweile auch multimediale Anwendungen breiteren Raum ein, gilt es doch, sich den veränderten Lese- und insbesondere Informationsgewohnheiten anzupassen. Insbesondere sollen elektronische Informationsquellen und digitale Literatur erschlossen und bereitgestellt werden. Im Zuge dieser Entwicklung wurde durch die hessische Ministerin für Wissenschaft und Kunst am 11.11.1998 in der Gesamthochschulbibliothek Kassel eine neugeschaffene Multi-Media-Thek (MMT) eröffnet. In dieser Multimediathek sollen die Bibliotheksbenutzer die Möglichkeit erhalten, die Neuen Medien zu erkunden und gewinnbringend für ihre Fragestellungen einzusetzen. Neben den mittlerweile weiter verbreiteten Internetarbeitsplätzen haben die Benutzer Gelegenheit, an speziell ausgestatteten Arbeitsplätzen Audio- und Videoanwendungen zu testen. Die zur Verfügung stehenden Arbeitsplätze sind plattformübergreifend gestaltet, neben Windows NT-Rechnern können Macintosh-, Java- und Linux-Rechner benutzt werden. Alle PC-Systeme verfügen über hochauflösende Grafik- und Soundkarten, allerdings müssen zum Abhören von Audio-Medien, DVD’s oder Multimedia-CD’s entsprechende Kopfhörer aufgesetzt werden. Über WinCenter können auch auf Linux- und Macintosh-Rechnern CD-Applikationen aus dem GHB-internen CD-Server angewählt werden. Zur Auswahl stehen derzeit 140 Datenbanken, die zudem ergänzt werden durch entsprechende Datenbankzugriffe auf den Silverplatter-Server der GHB. In separaten Klein-Arbeitsräumen können Audio-Cassetten und Video-Bänder benutzt werden. Natürlich lassen sich auch herkömmliche Dias und Microfiches in den Räumen der MMT betrachten und Ausdrucke über den Reader-Printer bzw. über das Bibliotheksnetz auf einen zentralen Benutzer-Drucker (OCE-Drucksystem mit Entgeldregelung) machen. Als Auslegestelle für DIN-Normen kann im DIN-Katalog über Internet recherchiert und das Ergebnis der Recherche direkt im DIN-Bestand angesehen werden. In einem speziell eingerichteten Macintosh-Pool sind mittels Scanner, Grafikbearbeitungssoftware und OCR-Möglichkeit weitere Bedingungen für multimediales Arbeiten geschaffen. Sie sollen bei entsprechendem Bedarf um digitale Bildbearbeitung (Photo, Video) gegebenenfalls ergänzt werden. Die Bibliothek bietet in den Räumen der Multimediathek entsprechende Schulungen zur effektiven Nutzung der Rechnerausstattung an.
Resumo:
Ausgehend von langfristigen Veränderungen im wissenschaftlichen Publikationswesen und in der Informationsvermittlung werden die Bedingungen und möglichen Folgen dieser Entwicklung beleuchtet. Je nach Standpunkt haben Bibliothekare, Verleger oder Wissenschaftsautoren unterschiedliche Wahrnehmungen von dem, was eine (digitale) Bibliothek ausmacht. Bespielhaft wird die Funtionalität des hessischen Digibib-Projektes beschrieben, in dem Standard Such- und Retrieval-Protokolle (Z39.50, HTTP) für den Anschluß von OPAC und Client-Server-Datenbanken mit Volltextsammlungen sorgen.
Resumo:
Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.