981 resultados para online algorithm
Resumo:
This paper presents a new approach to the design of combinational digital circuits with multiplexers using Evolutionary techniques. Genetic Algorithm (GA) is used as the optimization tool. Several circuits are synthesized with this method and compared with two design techniques such as standard implementation of logic functions using multiplexers and implementation using Shannon’s decomposition technique using GA. With the proposed method complexity of the circuit and the associated delay can be reduced significantly
Resumo:
As the technologies for the fabrication of high quality microarray advances rapidly, quantification of microarray data becomes a major task. Gridding is the first step in the analysis of microarray images for locating the subarrays and individual spots within each subarray. For accurate gridding of high-density microarray images, in the presence of contamination and background noise, precise calculation of parameters is essential. This paper presents an accurate fully automatic gridding method for locating suarrays and individual spots using the intensity projection profile of the most suitable subimage. The method is capable of processing the image without any user intervention and does not demand any input parameters as many other commercial and academic packages. According to results obtained, the accuracy of our algorithm is between 95-100% for microarray images with coefficient of variation less than two. Experimental results show that the method is capable of gridding microarray images with irregular spots, varying surface intensity distribution and with more than 50% contamination
Resumo:
The characterization and grading of glioma tumors, via image derived features, for diagnosis, prognosis, and treatment response has been an active research area in medical image computing. This paper presents a novel method for automatic detection and classification of glioma from conventional T2 weighted MR images. Automatic detection of the tumor was established using newly developed method called Adaptive Gray level Algebraic set Segmentation Algorithm (AGASA).Statistical Features were extracted from the detected tumor texture using first order statistics and gray level co-occurrence matrix (GLCM) based second order statistical methods. Statistical significance of the features was determined by t-test and its corresponding p-value. A decision system was developed for the grade detection of glioma using these selected features and its p-value. The detection performance of the decision system was validated using the receiver operating characteristic (ROC) curve. The diagnosis and grading of glioma using this non-invasive method can contribute promising results in medical image computing
Resumo:
Informations- und Kommunikationstechnologien über das Internet bieten vielfältige Möglichkeit innovative Lernumgebungen zu schaffen. Mit der Zukunftswerkstatt-online wird der Versuch unternommen, die Lernmethode Zukunftswerkstatt, als telekooperative Lernumgebung zu gestalten. Die Entwicklung dieser internetbasierten Lernumgebung und das damit verbundene Dissertationsvorhaben zeichnet sich vornehmlich durch den partizipativen und prozessorientierten Austausch sowohl mit Informatikern als auch mit potentiellen Nutzern in einer Pilotphase aus. Die zentrale Motivation des Forschungsvorhabens erklärt sich über die Entwicklung von Möglichkeiten Lernergruppen Raum zu geben sich ihrer persönlich bedeutsamen Probleme bewusst zu werden, Ideen für Lösungsstrategien zu entwickeln und konkrete Veränderungen anzugehen. Das Forschungsdesign dieser Arbeit bedient sich verschiedener Erhebungs- und Auswertungsmethoden der empirischen Sozialforschung mit dem Ziel, die Grenzen einzelner Methoden zu minimieren, um zu differenzierten Erkenntnissen im Forschungsfeld zu gelangen. Die Evaluation des Forschungsvorhabens begründet sich vorwiegend aus Methoden der qualitativen Sozialforschung (teilnehmende Beobachtung, schriftlichen Befragung, linguistische Analyse der Chatbeiträge sowie fokussierte Interviews im Rahmen von drei Fallstudien). Im Sinne der Handlungs- und Aktionsforschung liegt das Forschungsinteresse zum einen in der Entwicklung der Zukunftswerkstatt-online unter besonderer Berücksichtigung der Funktionen, Softwareergonomie, zum anderen hinsichtlich der Frage nach den Möglichkeiten zur kreativen Gestaltung von Lernprozesse. Im Fokus des Interesses stehen daher folgende Forschungsfragen: 1. Wie muss eine Zukunftswerkstatt-online gestaltet werden, um als effektives Problemlöse- und Erschließungsinstrument für offene Möglichkeitsräume zu funktionieren? 2. Was kann eine Zukunftswerkstatt-online hinsichtlich der kommunikativen Aufgaben für Lehrende und Lerngruppen leisten? 3. Welche Lehr-/ Lernvoraussetzungen lassen sich für die Anwendung einer Zukunftswerkstatt-online formulieren? Aufgrund der Auswertungen der o.g. Evaluationsmethoden lassen sich folgende signifikante Aspekte bezüglich des Anregungsgehalts der Zukunftswerkstatt-online benennen: 1. Aspekt der Situiertheit: Die Mischung aus Vorstrukturierung durch die drei Phasen der Methode auf der einen Seiten und den Freiraum hinsichtlich der inhaltlichen Gestaltung wird von den Probanden als positiv und unterstützend für den Lernprozess bewertet. 2. Aspekt der multiplen Perspektive: Mit der Zukunftswerkstatt-online wird eine strukturierte Zusammenarbeit in Gruppen ermöglicht. Problemfelder können somit aus unterschiedlichen Perspektiven dargestellt werden. 3. Aspekt des Lernens im sozialen Kontext: Der "Community" Gedanke des Internets wird während der Arbeit mit der Zukunftswerkstatt-online gefördert. Es lassen sich drei unterstützende Faktoren hierzu benennen: - Der vorgegebene Interaktionsrahmen der Methode. - Die von den Lernenden gewählte Inhalte. - Die Auswahl der Kooperationspartner. Hinsichtlich der Förderung von Schlüsselkompetenzen kann die Zukunftswerkstatt-online folgendes leisten: Förderung der fachlichen Kompetenz: Die Zukunftswerkstatt-online stärkt mediale Kompetenzen der Teilnehmer. Darüber hinaus werden durch die Möglichkeiten der Dokumentation des Diskussionsverlaufs und der Speicherung von Daten, Informationen nachhaltige gesichert. Förderung der sozialen Kompetenz: Aufgrund der Arbeit in einem weites gehenden hierarchiefreien Raum wird vernetzten Arbeiten und synergetischer Austausch der Teilnehmer ermöglicht. Förderung der personalen Kompetenz: Die kommunikativen Kompetenzen werden gefördert sowie die Entwicklung eines Methodenrepertoires für die Gestaltung von Gruppenprozessen in eigenen Handlungsfeldern der Teilnehmer ausgebaut. Folgende Voraussetzung lassen sich aus den Forschungsergebnissen ableiten, die bei der Durchführung einer Zukunftswerkstatt-online unterstützend wirken: Für Lernende: - Grundlagen der Computer und Internetkompetenz, - Hohe Selbstlernkompetenz, - Kompetenzen zur Kooperation, - Schriftsprachliche Kompetenz und - Einbringung einer persönlich bedeutsamen Problemstellung. Für Lehrende: - Kompetenzen in der Organisation/Administration von Lernprozessen, - Unterstützung der Lernprozesse durch klare Anweisungen und Hilfestellungen bei der Bewältigung von Problemen. Zusammenfassend lässt sich feststellen, dass die Zukunftswerkstatt-online den aktiven Umgang, die Auseinandersetzung und die Konstruktion von handlungsorientiertem Wissen fördert. Darüber hinaus eröffnet sie in einem noch relativ neuen Wirkungsfeld der Pädagogik Möglichkeiten, neue Formen des Lehren und Lernens im virtuellen Raum zu erproben, zu evaluieren und perspektivisch weiter zu entwickeln.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.
Resumo:
We develop an algorithm that computes the gravitational potentials and forces on N point-masses interacting in three-dimensional space. The algorithm, based on analytical techniques developed by Rokhlin and Greengard, runs in order N time. In contrast to other fast N-body methods such as tree codes, which only approximate the interaction potentials and forces, this method is exact ?? computes the potentials and forces to within any prespecified tolerance up to machine precision. We present an implementation of the algorithm for a sequential machine. We numerically verify the algorithm, and compare its speed with that of an O(N2) direct force computation. We also describe a parallel version of the algorithm that runs on the Connection Machine in order 0(logN) time. We compare experimental results with those of the sequential implementation and discuss how to minimize communication overhead on the parallel machine.
Resumo:
"Expectation-Maximization'' (EM) algorithm and gradient-based approaches for maximum likelihood learning of finite Gaussian mixtures. We show that the EM step in parameter space is obtained from the gradient via a projection matrix $P$, and we provide an explicit expression for the matrix. We then analyze the convergence of EM in terms of special properties of $P$ and provide new results analyzing the effect that $P$ has on the likelihood surface. Based on these mathematical results, we present a comparative discussion of the advantages and disadvantages of EM and other algorithms for the learning of Gaussian mixture models.
Resumo:
We present a tree-structured architecture for supervised learning. The statistical model underlying the architecture is a hierarchical mixture model in which both the mixture coefficients and the mixture components are generalized linear models (GLIM's). Learning is treated as a maximum likelihood problem; in particular, we present an Expectation-Maximization (EM) algorithm for adjusting the parameters of the architecture. We also develop an on-line learning algorithm in which the parameters are updated incrementally. Comparative simulation results are presented in the robot dynamics domain.
Resumo:
The discontinuities in the solutions of systems of conservation laws are widely considered as one of the difficulties in numerical simulation. A numerical method is proposed for solving these partial differential equations with discontinuities in the solution. The method is able to track these sharp discontinuities or interfaces while still fully maintain the conservation property. The motion of the front is obtained by solving a Riemann problem based on the state values at its both sides which are reconstructed by using weighted essentially non oscillatory (WENO) scheme. The propagation of the front is coupled with the evaluation of "dynamic" numerical fluxes. Some numerical tests in 1D and preliminary results in 2D are presented.
Resumo:
Increasingly used in online auctions, buyout prices allow bidders to instantly purchase the item listed. We distinguish two types: a temporary buyout option disappears if a bid above the reserve price is made; a permanent one remains throughout the auction or until it is exercised. In a model featuring time-sensitive bidders with uniform valuations and Poisson arrivals but endogenous bidding times, we focus on finding temporary and permanent buyout prices maximizing the seller's discounted revenue, and examine the relative benefit of using each type of option in various environments. We characterize equilibrium bidder strategies in both cases and then solve the problem of maximizing seller's utility by simulation. Our numerical experiments suggest that buyout options may significantly increase a seller’s revenue. Additionally, while a temporary buyout option promotes early bidding, a permanent option gives an incentive to the bidders to bid late, thus leading to concentrated bids near the end of the auction.
Resumo:
As universities are offering tuition through online learning environments, “onsite students” in higher education are increasingly becoming “online learners”. Since the medium for learning (and teaching) online is a digital environment, and at a distance, the role taken by students and teaching staff is different to the one these are used to in onsite, traditional settings. Therefore the Role of the Online Learner, presented in this paper, is key to onsite students who are to become online learners. This role consists of five competences: Operational, Cognitive, Collaborative, Self-directing, Course-specific. These five competences integrate the various skills, strategies, attitudes and awareness that make up the role of online learner, which learners use to perform efficiently online. They also make up the basis of a tutorial for would-be online learners, going over the Role of the Online Learner by means of concepts, examples and reflective activities. This tutorial, available to students in the author’s website, is also helpful to teaching and counselling staff in guiding their students to become online learners
Resumo:
El servicio WFS-G de Nomenclátor del Instituto de Cartografía de Andalucía (ICA) basa sus servicios en una base de datos que sigue el estándar del Modelo de Nomenclátor de España y que actualmente contiene unos 149.500 topónimos e identificadores geográficos clasificados temáticamente en áreas administrativas, entidades de población, hidrografía, orografía, patrimonio, infraestructuras, actividades industriales, extractivas, servicios y equipamientos. Este servicio OGC basado en el software libre Deegree 2.2. trata de dar servicio a otros proyectos del ICA como la IDEAndalucia, el catálogo de productos on-line LINE@ y en un futuro al buscador de cartografía histórica; por otro lado dispone de un visor propio de búsqueda de nombres geográficos con utilidades de descarga, rectificación y localización de topónimos cercanos
Resumo:
Resumen tomado de la publicaci??n