675 resultados para Online-Forschung


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ziel dieser wissenschaftlichen Hausarbeit ist es, Geschlechterrollen bürgerlicher Kinder zu untersuchen, die auf Atelierfotografien abgebildet sind. Dazu soll das phänomenologisch-hermeneutische Verfahren der „seriell-ikonografische[n] Fotoanalyse“ von Pilarczyk und Mietzner in einer empirischen Untersuchung genutzt werden. Erforscht wird damit, inwieweit sich die Darstellungen von Mädchen und Jungen unterscheiden. In meiner Untersuchung gehe ich folgendermaßen vor: Im zweiten Kapitel wird zunächst die Bedeutung der Fotografie für die Erziehungswissenschaft reflektiert. Dabei steht die Frage im Vordergrund: Welche Vorteile und Eigenarten hat die Fotografie im Bezug zu anderen Quellen? Besonders ihr Verhältnis zur Wirklichkeit und die Rolle des Zufalls machen es schwierig, sie als Primärquelle zu verwenden. Deshalb werden anschließend beide Faktoren untersucht. Darauf folgen (im dritten Kapitel) die Beschreibung des Modells der seriell-ikonografischen Analyse von Pilarczyk und Mietzner sowie Rezensionen zu diesem Ansatz und eine genaue Erläuterung, wie die Methode für diese Arbeit genutzt werden soll. Bevor das Verfahren jedoch zur Anwendung kommt, werden zunächst bürgerlicher Kontext und Struktur der bürgerlichen Familie - innerhalb deren sich die Kinder auf den Fotografien bewegen - dargestellt. Anschließend wird der Kontext der Atelierfotografie vorgestellt, um eine zeitgemäße Lesart der Kinderfotografien zu gewährleisten. Im sechsten Kapitel folgt die Analyse des von mir zusammengestellten Bildfundus. Die daraus gewonnen Hypothesen werden in einem Fazit zusammengefasst. Es schließt sich eine Überprüfung und Erweiterung der Hypothesen anhand von schriftlichen Quellen in Kapitel 7 an. Zusammenfassung der Ergebnisse sowie Ausblick sind im Schlusskapitel zu lesen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jedes Jahr entstehen an der Universität Kassel hunderte Wissenschaftliche Hausarbeiten, die oft ungenutzt im Archiv des Prüfungsamtes verstauben. Oftmals liegt nach Abschluss der Prüfungsphase nicht einmal den Betreuerinnen und Betreuern ein Exemplar vor. Nicht wenige dieser Arbeiten leisten aber einen wichtigen Erkenntnisbeitrag zu Themen von Unterricht, Schulentwicklung und Lehrerbildung und könnten somit für Studium, Forschung, Lehre, Studienseminar sowie Schulpraxis genutzt werden. Hierfür müssten die Arbeiten allerdings recherchierbar und öffentlich zugänglich sein. An dieser Stelle setzte ein Projekt des Zentrums für Lehrerbildung der Universität Kassel an. Ziel war es, Wissenschaftliche Hausarbeiten von Lehramtsstudierenden der Universität Kassel zu Themen von Unterricht, Schulentwicklung und Lehrerbildung öffentlich zugänglich zu machen. Der vorliegende Abschlussbericht gibt zunächst einen Überblick über die Verfügbarkeit studentischer Abschlussarbeiten in Deutschland und analysiert die technischen Voraussetzungen für Open Access Publikationen auf Universitätsebene. Darauf aufbauend wird die konkrete Umsetzung des Veröffentlichungsprozesses im Rahmen des Projekts beschrieben. Im Anhang findet sich neben Arbeitsmaterial, das für eine Umsetzung in anderen Kontexten angepasst werden kann, eine Liste der bisher veröffentlichten Arbeiten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We consider an online learning scenario in which the learner can make predictions on the basis of a fixed set of experts. The performance of each expert may change over time in a manner unknown to the learner. We formulate a class of universal learning algorithms for this problem by expressing them as simple Bayesian algorithms operating on models analogous to Hidden Markov Models (HMMs). We derive a new performance bound for such algorithms which is considerably simpler than existing bounds. The bound provides the basis for learning the rate at which the identity of the optimal expert switches over time. We find an analytic expression for the a priori resolution at which we need to learn the rate parameter. We extend our scalar switching-rate result to models of the switching-rate that are governed by a matrix of parameters, i.e. arbitrary homogeneous HMMs. We apply and examine our algorithm in the context of the problem of energy management in wireless networks. We analyze the new results in the framework of Information Theory.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Increasingly used in online auctions, buyout prices allow bidders to instantly purchase the item listed. We distinguish two types: a temporary buyout option disappears if a bid above the reserve price is made; a permanent one remains throughout the auction or until it is exercised. In a model featuring time-sensitive bidders with uniform valuations and Poisson arrivals but endogenous bidding times, we focus on finding temporary and permanent buyout prices maximizing the seller's discounted revenue, and examine the relative benefit of using each type of option in various environments. We characterize equilibrium bidder strategies in both cases and then solve the problem of maximizing seller's utility by simulation. Our numerical experiments suggest that buyout options may significantly increase a seller’s revenue. Additionally, while a temporary buyout option promotes early bidding, a permanent option gives an incentive to the bidders to bid late, thus leading to concentrated bids near the end of the auction.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As universities are offering tuition through online learning environments, “onsite students” in higher education are increasingly becoming “online learners”. Since the medium for learning (and teaching) online is a digital environment, and at a distance, the role taken by students and teaching staff is different to the one these are used to in onsite, traditional settings. Therefore the Role of the Online Learner, presented in this paper, is key to onsite students who are to become online learners. This role consists of five competences: Operational, Cognitive, Collaborative, Self-directing, Course-specific. These five competences integrate the various skills, strategies, attitudes and awareness that make up the role of online learner, which learners use to perform efficiently online. They also make up the basis of a tutorial for would-be online learners, going over the Role of the Online Learner by means of concepts, examples and reflective activities. This tutorial, available to students in the author’s website, is also helpful to teaching and counselling staff in guiding their students to become online learners

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El servicio WFS-G de Nomenclátor del Instituto de Cartografía de Andalucía (ICA) basa sus servicios en una base de datos que sigue el estándar del Modelo de Nomenclátor de España y que actualmente contiene unos 149.500 topónimos e identificadores geográficos clasificados temáticamente en áreas administrativas, entidades de población, hidrografía, orografía, patrimonio, infraestructuras, actividades industriales, extractivas, servicios y equipamientos. Este servicio OGC basado en el software libre Deegree 2.2. trata de dar servicio a otros proyectos del ICA como la IDEAndalucia, el catálogo de productos on-line LINE@ y en un futuro al buscador de cartografía histórica; por otro lado dispone de un visor propio de búsqueda de nombres geográficos con utilidades de descarga, rectificación y localización de topónimos cercanos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Reinforcement learning (RL) is a very suitable technique for robot learning, as it can learn in unknown environments and in real-time computation. The main difficulties in adapting classic RL algorithms to robotic systems are the generalization problem and the correct observation of the Markovian state. This paper attempts to solve the generalization problem by proposing the semi-online neural-Q_learning algorithm (SONQL). The algorithm uses the classic Q_learning technique with two modifications. First, a neural network (NN) approximates the Q_function allowing the use of continuous states and actions. Second, a database of the most representative learning samples accelerates and stabilizes the convergence. The term semi-online is referred to the fact that the algorithm uses the current but also past learning samples. However, the algorithm is able to learn in real-time while the robot is interacting with the environment. The paper shows simulated results with the "mountain-car" benchmark and, also, real results with an underwater robot in a target following behavior

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A survey of MPLS protection methods and their utilization in combination with online routing methods is presented in this article. Usually, fault management methods pre-establish backup paths to recover traffic after a failure. In addition, MPLS allows the creation of different backup types, and hence MPLS is a suitable method to support traffic-engineered networks. In this article, an introduction of several label switch path backup types and their pros and cons are pointed out. The creation of an LSP involves a routing phase, which should include QoS aspects. In a similar way, to achieve a reliable network the LSP backups must also be routed by a QoS routing method. When LSP creation requests arrive one by one (a dynamic network scenario), online routing methods are applied. The relationship between MPLS fault management and QoS online routing methods is unavoidable, in particular during the creation of LSP backups. Both aspects are discussed in this article. Several ideas on how these actual technologies could be applied together are presented and compared

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a complete solution for creating accurate 3D textured models from monocular video sequences. The methods are developed within the framework of sequential structure from motion, where a 3D model of the environment is maintained and updated as new visual information becomes available. The camera position is recovered by directly associating the 3D scene model with local image observations. Compared to standard structure from motion techniques, this approach decreases the error accumulation while increasing the robustness to scene occlusions and feature association failures. The obtained 3D information is used to generate high quality, composite visual maps of the scene (mosaics). The visual maps are used to create texture-mapped, realistic views of the scene

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Need to edit an image but don't have any software? No problem - you can do it all online for free at this website - and no annoying adverts either.