905 resultados para One-Step Learning
Resumo:
Housing is one of the primary human needs. It is second only to the need for food and clothing. From a macro perspective, housing is an industry that can prove itself to be a growth engine for a nation, particularly a developing nation like India. Housing has been one of the top priorities for the various governments in India since the seventies. The need for housing has been increasing at a phenomenal pace in India and so also the need for housing finance. Since the growth in supply of housing could not keep pace with the growth in its demand, housing shortage has been on the rise over the years. Housing finance industry which was relatively dormant till the early nineties underwent sweeping changes ever since the initiation of financial sector deregulation measures. Financial deregulation measures brought about several changes in this industry, the first and foremost being the fast growth rate in the industry coupled with cutthroat competition among the industry players. This trend has been quite prominent since the entry of commercial banks into this arena. Accordingly, there has been a surge in the growth of retail (personal) loans segment, particularly in respect of housing loans. This is evident from the fact that housing loans disbursed by banks as a percentage of their total loans has increased from just 2.79% as of end-March 1997 to as high as 12.52% as of end-March 2007. Thus, there has been an unprecedented growth rate in the disbursement of housing loans by banks, and as of 31 March 2007 the outstanding balance of housing loans by all banks in India stands at Rs.230689 Crore, as against just Rs.7946 Crore as of 31 March 1997, the growth rate being 35.82 %CAGR (for the eleven years’ period, FY 1997-‘2007). However, in spite of the impressive growth in housing finance over the years, there are growing apprehensions regarding its inclusiveness, i.e. accessibility to the common man, the underprivileged sections of the society to housing finance etc. Of late, it is widely recognized that formal housing finance system, particularly the commercial banks (CBs) – most dominant among the players – is fast becoming exclusive in operations, with nearly 90% of the total housing credit going to the rich and upper middle income group, primarily the salaried class. The case of housing finance companies (HFCs) is quite similar in this regard. The poor and other marginalized sections are often deprived of adequate credit facilities for housing purpose. Studies have revealed that urban housing poverty is much more acute than the rural probably because of the very fast process of urbanization coupled with constant rural to urban migration
Resumo:
Gerade männliche Jugendliche nutzen in ihrer Pubertät und Adoleszenz zu einer gelingenden Gestaltung ihres Alltags und zur Ausbildung ihrer Identität zahlreiche Erscheinungsformen des Fantasy-Rollenspielens. In einem Prozess von Aneignung und Entäußerung integrieren dabei die Jugendlichen das überaus reiche multimediale Angebot, welches die Spiele bieten, in ihre Alltagsgestaltung, indem sie sich daraus spezifische Medien-, Text- und Ereignisarrangements bauen. Diese dienen einerseits der sozialen Integration und Distinktion, andererseits der Präsentation ihrer Identitätsentwürfe sich und anderen. Die Jugendlichen schaffen sich mittels dieser spezifischen Medien-, Text- und Ereignisarrangements eine in weiten Teilen von ihnen selbst bestimmte Welt, in der sie ihre Phantasie wie Kreativität mit großer Intensität, ja Obsession, innerhalb integrativer und solidarischer Interaktionsformen selbststeuernd und professionell ausleben. Diese Medien-, Text- und Ereignisarrangements zeigen Angebots- und Nutzungsformen, die sich nach einem medienkommunikativen Aneignungs- und Entäußerungsmodell in der Tradition der Cultural Studies (Stuart Hall) beschreiben lassen. Die Langzeitbeobachtung der Jugendlichen zeigt, dass sie alltagspragmatische Kulturtechniken zur selbstbestimmten Gestaltung von Alltag entwickeln: zunächst eine Strukturierung ihrer kognitiven, affektiven und pragmatischen Interaktion nach Kriterien erfolgreicher intrinsischer Interaktion, mit dem Ziel derer Perpetuierung im Flow-Erleben (Mihalyi Csikszentmihalyi), dann eine Ästhetisierung von Alltagswirklichkeit mittels kollektiver Fiktionalisierung in der Tradition des Collective Story Telling (Janet H. Murray). Diese Kulturtechniken stellen vor dem Hintergrund der Enkodierung und Dekodierung sozialer Codes spezifische Adaptionen von Prozessen der Bedeutungszuweisung und Subjekt- bzw. Identitätskonstitution dar. Die sie evozierenden und mit ihnen korrespondierenden handlungsleitenden Themen der Jugendlichen sind der Wunsch nach Rekonstitution von Gesamtheit in einer sich fragmentarisierenden Wirklichkeit, die Affirmation von Selbstbestimmung- und Autonomieerfahrungen, das Erleben von Reintegration und Solidarität für das sich dissoziiert erfahrende Individuum. Das Handeln der Jugendlichen basiert damit auf dem momentan dominanten Prozess einer Individualisierung von Lebenswelt unter den Bedingungen von Reflexivität und Erlebnisrationalität in der postmodernen Gesellschaft. Mit ihren Versuchen selbstbestimmter Gestaltung folgen sie dem aktuellen gesellschaftlichen Auftrag einer weitgehend in eigener Regie vorzunehmenden Lokalisierung dieses Prozesses. Zunehmend tritt diese von den Jugendlichen selbstgesteuerte Sozialisation neben die traditionell heteronome Sozialisation von gesellschaftlichen Instituten wie etwa die von Schule. Damit wird das Handeln der Jugendlichen zu einer Herausforderung an Pädagogik und Schule. Schule muss, wenn sie ihrem eigentlichen Auftrag von Förderung gerecht werden will, eine Sensibilität für diese Eigenständigkeit von Jugendlichen entwickeln und in der Beobachtung ihres Handelns didaktische Innovationen für Lehren und Lernen entwickeln. Im Mittelpunkt steht dabei die Wiederentdeckung des pädagogischen Dialogs, besonders aber die Entwicklung einer individualisierten Lernkultur und die Förderung jugendlicher Gestaltungskompetenzen, welche von deren alltagsästhetischen Erfahrungen und Kompetenzen im Umgang mit multimedialen Kulturprodukten ausgeht. Schule kann und muss für diese Prozesse selbstgesteuerten Lernens angemessene pädagogische Räume bereitstellen, in denen die Jugendlichen innerhalb eines geschützten Kontextes in der Auseinandersetzung mit eigenen wie fremden Entwürfen ihre Identität entwickeln können.
Resumo:
Die vorliegende Dissertation betrachtet institutionsinterne lokale (Critical-)Incident-Reporting-Systeme ((C)IRS) als eine Möglichkeit zum Lernen aus Fehlern und unerwünschten kritischen Ereignissen (sogenannte Incidents) im Krankenhaus. Die Notwendigkeit aus Incidents zu lernen, wird im Gesundheitswesen bereits seit den 1990er Jahren verstärkt diskutiert. Insbesondere risikoreichen Organisationen, in denen Incidents fatale Konsequenzen haben können, sollten umfassende Strategien erarbeiten, die sie vor Fehlern und unerwünschten Ereignissen schützen und diese als Lernpotenzial nutzen können. Dabei können lokale IRS als ein zentraler Bestandteil des Risikomanagements und freiwillige Dokumentationssysteme im Krankenhaus ein Teil dieser Strategie sein. Sie können eine Ausgangslage für die systematische Erfassung und Auswertung von individuellen Lerngelegenheiten und den Transfer zurück in die Organisation schaffen. Hierfür sind eine lernförderliche Gestaltung, Implementierung und Einbettung lokaler IRS eine wichtige Voraussetzung. Untersuchungen über geeignete lerntheoretisch fundierte und wirkungsvolle IRS-Modelle und empirische Daten fehlen bisher im deutschsprachigen Raum. Einen entsprechenden Beitrag leistet die vorliegende Fallstudie in einem Schweizer Universitätsspital (800 Betten, 6.100 Mitarbeitende). Zu diesem Zweck wurde zuerst ein Anforderungsprofil an lernförderliche IRS aus der Literatur abgeleitet. Dieses berücksichtigt zum einen literaturbasierte Kriterien für die Gestaltung und Nutzung aus der IRS-Literatur, zum anderen die aus der Erziehungswissenschaft und Arbeitspsychologie entlehnten Gestaltungsbedingungen und Erfolgskriterien an organisationales Lernen. Das Anforderungsprofil wurde in drei empirischen Teilstudien validiert und entsprechend adaptiert. In der ersten empirischen Teilstudie erfolgte eine Standortbestimmung der lokalen IRS. Die Erhebung erfolgte in vier Kliniken mittels Dokumentenanalyse, leitfadengestützter Interviews (N=18), sieben strukturierter Gruppendiskussionen und teilnehmender Beobachtungen über einen Zeitraum von 22 Monaten. Erfolgskritische IRS-Merkmale wurden identifiziert mit dem Ziel einer praxisgerechten lernförderlichen Systemgestaltung und Umsetzung von Incident Reporting unter Betrachtung von organisationalen Rahmenbedingungen, Lernpotenzialen und Barrieren. Die zweite Teilstudie untersuchte zwei Fallbeispiele organisationalen Lernens mittels Prozessbegleitung, welche zu einem verwechslungssicheren Design bei einem Medizinalprodukt und einer verbesserten Patientenidentifikation in Zusammenhang mit Blutentnahmen führten. Für das organisationale Lernen im Spital wurden dabei Chancen, Barrieren und Gestaltungsansätze abgeleitet, wie erwünschte Veränderungen und Lernen unter Nutzung von IRS initiiert werden können und dabei ein besseres Gesundheitsresultat erreicht werden kann. Die dritte Teilstudie überprüfte, inwiefern die Nutzung und Implementierung lokaler IRS mittels einer Mitarbeitervollbefragung zur Sicherheitskultur gefördert werden kann. Hierfür wurde eine positive Interaktion, zwischen einer starken Sicherheitskultur und der Bereitschaft ein IRS zu implementieren und Incidents zu berichten, angenommen. Zum Einsatz kam eine deutschsprachige Version des Hospital Survey on Patient Safety Culture (Patientensicherheitsklimainventar) mit einem Rücklauf von 46.8% (2.897 gültige Fragebogen). In 23 von 37 Kliniken führte laut einer Nachbefragung die Sicherheitskulturbefragung zum Implementierungsentscheid. Dies konnte durch Monitoring der IRS-Nutzung bestätigt werden. Erstmals liegen mit diesen Studien empirische Daten für eine wirkungsvolle und lernförderliche Gestaltung und Umsetzung von lokalen IRS am Beispiel einer Schweizer Gesundheitsorganisation vor. Die Ergebnisse der Arbeit zeigen Chancen und Barrieren für IRS als Berichts- und Lernsysteme im Krankenhaus auf. Als Resultat unsachgemäss gestalteter und implementierter IRS konnte dabei vor allem Lernverhinderung infolge IRS aufgezeigt werden. Blinder Aktionismus und eine fehlende Priorisierung von Patientensicherheit, unzureichende Kompetenzen, Qualifikationen und Ressourcen führten dabei zur Schaffung neuer Fehlerquellen mit einer Verstärkung des Lernens erster Ordnung. Eine lernförderliche Gestaltung und Unterhaltung der lokalen IRS, eingebettet in eine klinikumsweite Qualitäts- und Patientensicherheitsstrategie, erwiesen sich hingegen als wirkungsvoll im Sinne eines organisationalen Lernens und eines kontinuierlichen Verbesserungsprozesses. Patientensicherheitskulturbefragungen erwiesen sich zudem bei entsprechender Einbettung als effektives Instrument, um die Implementierung von IRS zu fördern. Zwölf Thesen zeigen in verdichteter Form auf, welche Gestaltungsprinzipien für IRS als Instrument des organisationalen Lernens im Rahmen des klinischen Risikomanagements und zur Förderung einer starken Patientensicherheitskultur zu berücksichtigen sind. Die Erkenntnisse aus den empirischen Studien münden in ein dialogorientiertes Rahmenmodell organisationalen Lernens unter Nutzung lokaler IRS. Die Arbeit zeigt damit zum einen Möglichkeiten für ein Lernen auf den verschiedenen Ebenen der Organisation auf und weist auf die Notwendigkeit einer (Re-)Strukturierung der aktuellen IRS-Diskussion hin.
Resumo:
Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.
Resumo:
Angesichts der Geschichte der Entwicklungspolitik, ist diese Arbeit darauf ausgerichtet, einige Beobachtungen in Bezug auf die so genannte Entwicklung hervorzuheben; insbesondere auf die andauernde prekäre Situation und Armut in ländlichen afrikanischen Gebieten. Armut ist nach Amartya SEN – weiter präzisiert von J.L. Dubois – die Deprivation von „Fähigkeiten“, die Individuen und lokale Gemeinschaften zu ausgeschlossenen und vergessenen Akteuren des Systems machen. Das nennt Paulo Freire, das Menschen zu „Objekten“ gemacht werden. Es rechtfertigt die starke Annahme, die in dieser Studie getroffen wird, dass vielmehr die Menschen als „Subjekte“ ihrer Veränderung und Entwicklung im Mittelpunkt stehen. Die Arbeit zeigt und erklärt in historischer Chronologie, wie die Entwicklungspolitiken und unterschiedliche Beteiligte auf allen Ebenen diese Situation verursachen. Trotz alledem bleiben die Individuen und lokalen Gemeinschaften, die in Symbiose mit ihrer natürlichen Umwelt leben, die reich an verschiedenen Ressourcen und Potentialen ist, als Reaktion darauf und gleichzeitig als Überlebensstrategie zutiefst verbunden mit dem, was sie vor Ort haben, womit sie eine tiefere und intensive Beziehung besitzen, wenn man von ihrer Geschichte, ihrer Kultur und der Handlungslogik ausgeht. Für externe Akteure, die sie über das vorhandene System dominieren und beeinflussen bleiben sie „Objekte“, aber in der Vielzahl ihrer endogenen Initiativen, zeigen sie die Fähigkeit und Substanz, die beweisen, dass sie auf ihrer Ebene das eigentliche Subjekt sind, die dynamischen Akteure. Aber isolierte Initiativen auf spezifische reale Bedürfnisse bei gleichzeitiger Dominierung durch das System mit seiner Marktlogik, führt dies langfristig nur zu dem Zirkulus Vitiosus der Armut. Daher ist eine ganzheitliche Sicht entscheidend für nachhaltige Entwicklung und für die notwendige Veränderung. Es geht nicht nur um die Veränderung des Systems und die Wahl politischer Maßnahmen, sondern genau genommen um das Verhalten der Akteure auf allen Ebenen und die Art der Beziehungen zwischen ihnen allen. Es ist eine Frage des erneuten Überdenkens des Entwicklungspfades, der andere Logik, Visionen, Interessen und Strategien aller Beteiligten, unserer so genannten Akteure einschließt. Ob dies von endogenen Initiativen oder neuen gemeinsamen Projekten ausgeht: man wird in einen Prozess kollektiven Lernens eintreten, den Paul Singer und Clarita Müller-Plantenberg erläutern und entwickeln in dem Konzept der Inkubation und Solidarischen Ökonomie, die Eigeninitiative, Selbstbestimmung und Selbstverwaltung von lokalen Gemeinschaften und die Öffnung für eine Neu-Konzeptualisierung und Institutionalisierung einschließt. So ein Prozess ist nur mit einem interdisziplinären Rahmen möglich. Dieser Rahmen soll auf einer zusätzlicher Kommunikation zwischen den Akteuren und Sozialwissenschaften beruhen und mit jenen, die auf dem Feld der Technologie arbeiten. So können dann technische „Experten“ angesichts eines technischen Projektfehlers, der aufgrund von bestimmten sozialen und kulturellen Realitäten zustande kam sagen, „es ist kein Scheitern ; es war ein Schritt innerhalb eines Lernprozesse der in die technischen Projekte und Studien einbezogen werden muss“. Wir haben das Energiethema gewählt; und insbesondere, Energie für eine nachhaltige ländliche Entwicklung in Subsahara-Afrika, um den Weg von der Theorie in die Praxis zu illustrieren und experimentell auszuprobieren, den Weg von den Beobachtungen zu der Veränderung, wobei Fragen, Annahmen, Strategien und konkrete Aktionen für den Wandel behandelt werden. Wir nennen unseren experimentellen Weg: DRIEE, das heißt auf Deutsch Ländliche Entwicklung und Inkubation von Energieunternehmen. Dabei gehen wir davon aus, dass: - Energie im Allgemeinen auf der internationalen Ebene fast gleichbedeutend mit Elektrizität ist. Heute bestehen die wichtigsten Bedürfnisse nach Energie dort wo die agro-pastorale Produktion, das Kochen, die Nahrungsmittelkonservierung und Verarbeitung …etc. stattfindet. - Diese ländliche Bevölkerung zu etwa 80% der nationalen Wirtschaft ausmacht. Dass sie gleichzeitig aber nur zu weniger als 5% der Energieproduktion Zugang hat, was oft auf Licht reduziert ist und nicht einmal ihrer Produktion zugute kommen kann. - Die Projekte für Energie und Elektrizität vor allem auf die Technologischen Fragen konzentriert sind und weniger auf die Bedürfnisse. Fast die Gesamtheit der Fonds für Energie wird in Bezug auf die Investitionen Infrastruktur der Produktion und Verteilung durch die konventionellen zentralisierten Netze geplant. Angesichts dieser Analysen gehen die in dieser Arbeit vorgenommenen Studien in Gambia und Kamerun von Bestandsaufnahmen und / oder beschreibenden regionalen Analysen aus: - von Bedürfnissen, von Praktiken und lokalen Initiativen von Fragen der Energie, für einzelne Professionen, Haushalte, Gruppen, spezifische Gruppen, wie Frauen, ländliche Gemeinden mit ihren spezifischen Charakteristika. - Von Potentialen: natürliche lokale Energieressourcen, soziokulturelle Ressourcen – so z.B. die empirisch feststellbaren menschliche Ressourcen wie endogenes Wissen und praktische organisatorische Fähigkeiten gegenüber den Problemen der Energie. Dieser experimentelle Schritt von Handlungsforschung (DRIEE) in Kamerun führte zu der Gründung einer Organisation, über die und mit der wir die Logik der Inkubation und Solidarischen Ökonomie einführen. Das ist FERDEDSI, das heißt auf Deutsch „Forum für Erneuerbare Energie – Nachhaltige Entwicklung und Internationale Solidarität“. Zunächst war dies eine Energiegenossenschaft und dann (im Prozess) wurde es zu einer institutionellen Nische von mehreren Mikro Initiativen in ländlichen Gebieten. FERDEDSI ist ein Prozess der Inkubation und ein Inkubator ist also gleichzeitig ein inkubiertes Energieunternehmen aber auch ein Inkubator für lokale Organisationen. Die ersten Aktionen finden in den Departments von Noun und Ménoua in der westlichen Provinz von Kamerun statt. Während der Forschungsperiode findet akademische Austausch statt (Nord-Süd und Süd-Süd), diese ist dabei zu formalen Partnerschaften zu werden, nicht nur zwischen Universitäten sondern genauer lokale Organisationen und Universitäten. Dieser letzte Typ von Partnerschaften, die die solidarische Ökonomie ausmachen ist auch eine Innovation des Prozesses für die afrikanischen Fälle, die dem Beispiel dessen, was in Lateinamerika geschieht, folgen. So kommt es zu gegenseitiger sinnvoller Ausbildung in den internationalen Arbeitsgruppen und Seminaren der Universität.
Resumo:
Die vorliegende Arbeit macht Vorschläge zur Einbindung der Öffentlichkeit in Planungsbestrebungen vor Ort, wobei vor allem Methoden empirischer Sozialforschung und deren Anwendbarkeit in landschaftsplanerischen Vorhaben näher betrachtet werden. Hiermit finden insbesondere Wertezuweisungen durch die Bürger stärkere Berücksichtigung. Es wird angenommen, dass, um eine zukunftsweisende Landschaftsplanung zu etablieren, Planer und Fachleute lernen müssen, wie die lokale Bevölkerung ihre Umwelt wahrnimmt und empfindet und welche Ideen sie für die zukünftige Entwicklung der Landschaft haben. Als empirische Grundlage werden Fallstudien aus Bad Soden am Taunus, Hamburg-Wilhelmsburg und Kassel-Rothenditmold präsentiert und verglichen. Rothenditmold und Wilhelmsburg zeichnen sich durch hohe Einwohneranteile mit Migrationshintergrund aus, weisen relativ hohe Arbeitslosenquoten auf und sind als soziale Brennpunkte bekannt – zumindest für Außenstehende. Beide Stadtteile versuchen ihr Image aufzuwerten. In Wilhelmsburg wird dieses Vorhaben in die großräumigen Veränderungen eingebunden, die von verschiedenen Hamburger Großprojekten ausstrahlen. In Rothenditmold ist vor allem Eigeninitiative durch den Stadtteil selbst gefragt. In Bad Soden gibt es ebenfalls viele Menschen mit ausländischen Wurzeln. Sie gehören allerdings mehrheitlich der gesellschaftlichen Mittel- und Oberschicht an. Bad Soden verfügt über ein insgesamt positives Image, das aller kulturellen Veränderungen zum Trotz beibehalten werden soll. Entsprechende Initiativen gehen hier ebenfalls von der Gemeinde selbst aus. An allen Standorten hat es drastische Landschaftsveränderungen und speziell deren Erscheinung gegeben. Bad Soden und Wilhelmsburg haben dabei Teile ihres vormals ländlichen Charakters zu bewahren, während in Rothenditmold vor allem Zeugnisse aus der Zeit der Industrialisierung erhalten sind und den Ort prägen. Die Landschaften haben jeweils ihre einzigartigen Erscheinungen. Zumindest Teile der Landschaften ermöglichen eine Identifikation, sind attraktiv und liefern gute Erholungsmöglichkeiten. Um diese Qualitäten zu bewahren, müssen sie entsprechend gepflegt und weiter entwickelt werden. Dazu sind die Interessen und Wünsche der Bewohner zu ermitteln und in Planungen einzuarbeiten. Die Arbeit strebt einen Beitrag zur Lebensraumentwicklung für und mit Menschen an, die mittels ausgewählter Methoden der empirischen Sozialforschung eingebunden werden. Dabei wird gezeigt, dass die vorgestellten und erprobten Methoden sinnvoll in Projekte der Landschaftsplanung eingebunden werden können. Mit ihnen können ergänzende Erkenntnisse zum jeweiligen Landschaftsraum gewonnen werden, da sie helfen, die kollektive Wahrnehmung der Landschaft durch die Bevölkerung zu erfassen, um sie anschließend in Planungsentwürfe einbinden zu können. Mit der Untersuchung wird in den drei vorgestellten Fallstudien exemplarisch erfasst, welche Elemente der Landschaft für die Bewohner von besonderer Bedeutung sind. Darüber hinaus lernen Planer, welche Methoden zur Ermittlung emotionaler Landschaftswerte verfügbar sind und auf welcher Ebene der Landschaftsplanung sowie bei welchen Zielgruppen sie eingesetzt werden können. Durch die Verknüpfung landschaftsplanerischer Erfassungsmethoden mit Methoden der empirischen Sozialwissenschaft (Fragebogen, Interviews, „Spaziergangsinterviews“, gemeinsame Erarbeitung von Projekten bis zur Umsetzung) sowie der Möglichkeit zur Rückkoppelung landschaftsplaneri-scher Entwürfe mit der Bevölkerung wird eine Optimierung dieser Entwürfe sowohl im Sinne der Planer als auch im Sinne der Bürger erreicht. Zusätzlich wird die Wahrnehmung teilnehmender Bevölkerung für ihre Umwelt geschärft, da sie aufgefordert wird, sich mit ihrer Lebensumgebung bewusst auseinander zu setzen. Die Ergebnisse dieser Untersuchung sind Beitrag und Beleg zu der Annahme, dass ergänzende Methoden in der Landschaftsplanung zur stärkeren Interessenberücksichtigung der von Planung betroffenen Menschen benötigt werden. Zudem zeigen die Studien auf, wie man dem planungsethischen Anspruch, die Öffentlichkeit einzubeziehen, näher kommt. Resultat sind eine bessere Bewertung und Akzeptanz der Planungen und das nicht nur aus landschaftsplanerisch-fachlicher Sicht. Landschaftsplaner sollten ein Interesse daran haben, dass ihre Entwürfe ernst genommen und akzeptiert werden. Das schaffen sie, wenn sie der Bevölkerung nicht etwas aufplanen, sondern ihnen entsprechende Einflussmöglichkeiten bieten und Landschaft mit ihnen gemeinsam entwickeln.
Resumo:
The ongoing growth of the World Wide Web, catalyzed by the increasing possibility of ubiquitous access via a variety of devices, continues to strengthen its role as our prevalent information and commmunication medium. However, although tools like search engines facilitate retrieval, the task of finally making sense of Web content is still often left to human interpretation. The vision of supporting both humans and machines in such knowledge-based activities led to the development of different systems which allow to structure Web resources by metadata annotations. Interestingly, two major approaches which gained a considerable amount of attention are addressing the problem from nearly opposite directions: On the one hand, the idea of the Semantic Web suggests to formalize the knowledge within a particular domain by means of the "top-down" approach of defining ontologies. On the other hand, Social Annotation Systems as part of the so-called Web 2.0 movement implement a "bottom-up" style of categorization using arbitrary keywords. Experience as well as research in the characteristics of both systems has shown that their strengths and weaknesses seem to be inverse: While Social Annotation suffers from problems like, e. g., ambiguity or lack or precision, ontologies were especially designed to eliminate those. On the contrary, the latter suffer from a knowledge acquisition bottleneck, which is successfully overcome by the large user populations of Social Annotation Systems. Instead of being regarded as competing paradigms, the obvious potential synergies from a combination of both motivated approaches to "bridge the gap" between them. These were fostered by the evidence of emergent semantics, i. e., the self-organized evolution of implicit conceptual structures, within Social Annotation data. While several techniques to exploit the emergent patterns were proposed, a systematic analysis - especially regarding paradigms from the field of ontology learning - is still largely missing. This also includes a deeper understanding of the circumstances which affect the evolution processes. This work aims to address this gap by providing an in-depth study of methods and influencing factors to capture emergent semantics from Social Annotation Systems. We focus hereby on the acquisition of lexical semantics from the underlying networks of keywords, users and resources. Structured along different ontology learning tasks, we use a methodology of semantic grounding to characterize and evaluate the semantic relations captured by different methods. In all cases, our studies are based on datasets from several Social Annotation Systems. Specifically, we first analyze semantic relatedness among keywords, and identify measures which detect different notions of relatedness. These constitute the input of concept learning algorithms, which focus then on the discovery of synonymous and ambiguous keywords. Hereby, we assess the usefulness of various clustering techniques. As a prerequisite to induce hierarchical relationships, our next step is to study measures which quantify the level of generality of a particular keyword. We find that comparatively simple measures can approximate the generality information encoded in reference taxonomies. These insights are used to inform the final task, namely the creation of concept hierarchies. For this purpose, generality-based algorithms exhibit advantages compared to clustering approaches. In order to complement the identification of suitable methods to capture semantic structures, we analyze as a next step several factors which influence their emergence. Empirical evidence is provided that the amount of available data plays a crucial role for determining keyword meanings. From a different perspective, we examine pragmatic aspects by considering different annotation patterns among users. Based on a broad distinction between "categorizers" and "describers", we find that the latter produce more accurate results. This suggests a causal link between pragmatic and semantic aspects of keyword annotation. As a special kind of usage pattern, we then have a look at system abuse and spam. While observing a mixed picture, we suggest that an individual decision should be taken instead of disregarding spammers as a matter of principle. Finally, we discuss a set of applications which operationalize the results of our studies for enhancing both Social Annotation and semantic systems. These comprise on the one hand tools which foster the emergence of semantics, and on the one hand applications which exploit the socially induced relations to improve, e. g., searching, browsing, or user profiling facilities. In summary, the contributions of this work highlight viable methods and crucial aspects for designing enhanced knowledge-based services of a Social Semantic Web.
Resumo:
There has been recent interest in using temporal difference learning methods to attack problems of prediction and control. While these algorithms have been brought to bear on many problems, they remain poorly understood. It is the purpose of this thesis to further explore these algorithms, presenting a framework for viewing them and raising a number of practical issues and exploring those issues in the context of several case studies. This includes applying the TD(lambda) algorithm to: 1) learning to play tic-tac-toe from the outcome of self-play and of play against a perfectly-playing opponent and 2) learning simple one-dimensional segmentation tasks.
Resumo:
There are many learning problems for which the examples given by the teacher are ambiguously labeled. In this thesis, we will examine one framework of learning from ambiguous examples known as Multiple-Instance learning. Each example is a bag, consisting of any number of instances. A bag is labeled negative if all instances in it are negative. A bag is labeled positive if at least one instance in it is positive. Because the instances themselves are not labeled, each positive bag is an ambiguous example. We would like to learn a concept which will correctly classify unseen bags. We have developed a measure called Diverse Density and algorithms for learning from multiple-instance examples. We have applied these techniques to problems in drug design, stock prediction, and image database retrieval. These serve as examples of how to translate the ambiguity in the application domain into bags, as well as successful examples of applying Diverse Density techniques.
Resumo:
One objective of artificial intelligence is to model the behavior of an intelligent agent interacting with its environment. The environment's transformations can be modeled as a Markov chain, whose state is partially observable to the agent and affected by its actions; such processes are known as partially observable Markov decision processes (POMDPs). While the environment's dynamics are assumed to obey certain rules, the agent does not know them and must learn. In this dissertation we focus on the agent's adaptation as captured by the reinforcement learning framework. This means learning a policy---a mapping of observations into actions---based on feedback from the environment. The learning can be viewed as browsing a set of policies while evaluating them by trial through interaction with the environment. The set of policies is constrained by the architecture of the agent's controller. POMDPs require a controller to have a memory. We investigate controllers with memory, including controllers with external memory, finite state controllers and distributed controllers for multi-agent systems. For these various controllers we work out the details of the algorithms which learn by ascending the gradient of expected cumulative reinforcement. Building on statistical learning theory and experiment design theory, a policy evaluation algorithm is developed for the case of experience re-use. We address the question of sufficient experience for uniform convergence of policy evaluation and obtain sample complexity bounds for various estimators. Finally, we demonstrate the performance of the proposed algorithms on several domains, the most complex of which is simulated adaptive packet routing in a telecommunication network.
Resumo:
If we are to understand how we can build machines capable of broad purpose learning and reasoning, we must first aim to build systems that can represent, acquire, and reason about the kinds of commonsense knowledge that we humans have about the world. This endeavor suggests steps such as identifying the kinds of knowledge people commonly have about the world, constructing suitable knowledge representations, and exploring the mechanisms that people use to make judgments about the everyday world. In this work, I contribute to these goals by proposing an architecture for a system that can learn commonsense knowledge about the properties and behavior of objects in the world. The architecture described here augments previous machine learning systems in four ways: (1) it relies on a seven dimensional notion of context, built from information recently given to the system, to learn and reason about objects' properties; (2) it has multiple methods that it can use to reason about objects, so that when one method fails, it can fall back on others; (3) it illustrates the usefulness of reasoning about objects by thinking about their similarity to other, better known objects, and by inferring properties of objects from the categories that they belong to; and (4) it represents an attempt to build an autonomous learner and reasoner, that sets its own goals for learning about the world and deduces new facts by reflecting on its acquired knowledge. This thesis describes this architecture, as well as a first implementation, that can learn from sentences such as ``A blue bird flew to the tree'' and ``The small bird flew to the cage'' that birds can fly. One of the main contributions of this work lies in suggesting a further set of salient ideas about how we can build broader purpose commonsense artificial learners and reasoners.
Resumo:
Sigmoid type belief networks, a class of probabilistic neural networks, provide a natural framework for compactly representing probabilistic information in a variety of unsupervised and supervised learning problems. Often the parameters used in these networks need to be learned from examples. Unfortunately, estimating the parameters via exact probabilistic calculations (i.e, the EM-algorithm) is intractable even for networks with fairly small numbers of hidden units. We propose to avoid the infeasibility of the E step by bounding likelihoods instead of computing them exactly. We introduce extended and complementary representations for these networks and show that the estimation of the network parameters can be made fast (reduced to quadratic optimization) by performing the estimation in either of the alternative domains. The complementary networks can be used for continuous density estimation as well.
Resumo:
For many types of learners one can compute the statistically 'optimal' way to select data. We review how these techniques have been used with feedforward neural networks. We then show how the same principles may be used to select data for two alternative, statistically-based learning architectures: mixtures of Gaussians and locally weighted regression. While the techniques for neural networks are expensive and approximate, the techniques for mixtures of Gaussians and locally weighted regression are both efficient and accurate.
Resumo:
We describe a system that learns from examples to recognize people in images taken indoors. Images of people are represented by color-based and shape-based features. Recognition is carried out through combinations of Support Vector Machine classifiers (SVMs). Different types of multiclass strategies based on SVMs are explored and compared to k-Nearest Neighbors classifiers (kNNs). The system works in real time and shows high performance rates for people recognition throughout one day.
Resumo:
Blogging has become one of the key ingredients of the so-called socials networks. This phenomenon has indeed invaded the world of education. Connections between people, comments on each other posts, and assessment of innovation are usually interesting characteristics of blogs related to students and scholars. Blogs have become a kind of new form of authority, bringing about (divergent) discussions which lead to creation of knowledge. The use of blogs as an innovative, educational tool is not at all new. However, their use in universities is not very widespread yet. Blogging for personal affairs is rather commonplace, but blogging for professional affairs – teaching, research and service, is scarce, despite the availability of ready-to-use, free tools. Unfortunately, Information Society has not reached yet enough some universities: not only are (student) blogs scarcely used as an educational tool, but it is quite rare to find a blog written by University professors. The Institute of Computational Chemistry of the University of Girona and the Department of Chemistry of the Universitat Autònoma de Barcelona has joined forces to create “InnoCiència”, a new Group on Digital Science Communitation. This group, formed by ca. ten researchers, has promoted the use of blogs, twitters. wikis and other tools of Web 2.0 in activities in Catalonia concerning the dissemination of Science, like Science Week, Open Day or Researchers’ Night. Likewise, its members promote use of social networking tools in chemistry- and communication-related courses. This communication explains the outcome of social-network experiences with teaching undergraduate students and organizing research communication events. We provide live, hands-on examples and interactive ground to show how blogs and twitters can be used to enhance the yield of teaching and research. Impact of blogging and other social networking tools on the outcome of the learning process is very depending on the target audience and the environmental conditions. A few examples are provided and some proposals to use these techniques efficiently to help students are hinted