973 resultados para Sven-Ingar Andersson
Resumo:
Diese Arbeit wurde unter dem Titel "Entwicklungstendenzen des europäischen Planungsrechts am Beispiel öffentlich-privater Kooperationen im Städtebau" an der Universität Kassel 2002 als Diplomarbeit (Diplom II) eingereicht.
Resumo:
Wenn Schulen Selbstverantwortung und ein Qualitätssicherungssystem als Mittel zur Verbesserung von Schulqualität einsetzen, stellt sich die Frage nach der Kontrolle von Schulen neu: Wer kontrolliert und steuert die Prozesse, wer die Ergebnisse? Die Autoren geben eine Antwort auf diese Fragen, indem sie ein Verfahren für die externe Evaluation selbstverantwortlicher Schulen, die über ein Qualitätsmanagementsystem verfügen, vorschlagen.
Resumo:
Numerische Urteile wie Schätzungen oder Prognosen sind anfällig für Ankereffekte. Ein in eine Entscheidungssituation willkürlich eingeführter numerischer Wert – der Anker – beeinflusst oft das Urteil im Sinne einer Assimilation des Urteils an diesen Wert. Bei Kaufentscheidungen fließt das Ergebnis eines Vergleichs des Produktpreises mit einem Referenzpreis, einem numerischen Wert, in die Kaufentscheidung mit ein. Unter Orientierung an die Prospekttheorie von Kahneman & Tversky kann dieser Referenzpreis in Form eines implementierten Ankers variiert werden. Die vorgelegte interdisziplinäre Arbeit wendet psychologisches Fachwissen in den Wirtschaftswissenschaften an. Sie beschäftigt sich mit den Möglichkeiten bei telefonischen Verkaufsgesprächen, gezielt Anker zu Erhöhung der Verkaufsquote einzusetzen. Der Anker wird in drei unterschiedlichen Experimenten entweder durch den Preis eines zusätzlich angebotenen Produkts, durch das Einbringen eines belanglos scheinenden numerischen Wertes, wie die Anzahl an bereits getätigten Anrufen, oder in Form einer Schätzfrage in das Verkaufsgespräch implementiert. Es wird dabei festgestellt, dass durch einen im Vergleich zum verkaufenden Produkt höheren numerischen Wert, dem Anker, die Verkaufsquote erhöht werden kann. Das Neuartige an der Arbeit liegt vor allem im Aufzeigen der Einfachheit solcher ökonomisch effektiver Ankersetzungen in Verkaufsgesprächen. Willkürlich in eine Kaufsituation eingeführte numerische Werte können - analog zu ihrem Einfluss in Urteilssituationen - auch Kaufentscheidungen in einem realen Markt beeinflussen.
Resumo:
NGOs werden von einem idealtypischen, perfektionistischen, Homogenität vermittelnden Schleier umgeben, der es schwer macht, die eigentlichen definitorischen Strukturen des NGO-Begriffs zu erfassen. In meiner Dissertation konnte ich dieses in der allgemeinen Öffentlichkeit vorherrschende Image beiseite schieben und erlangte somit einen Blick auf die eigentlichen Strukturen der NGOs. Im weiteren Verlauf versuchte ich die Verortung der NGOs in der Gesellschaft zu lokalisieren. Dies stellte sich sowohl im theoretischen als auch im empirischen Teil, in dem ich Interviews ausgewertet habe, die ich zuvor mit Experten verschiedenster deutscher und brasilianischer NGOs durchführte, als äußerst schwieriges Unterfangen dar. Dies lag zum einem daran, dass abseits der von der UN 1996 aufgestellten NGO-Kriterien keine allgemeingültigen, obligatorisch normativen NGO Definitionen existieren und zum anderen, dass die NGOs und deren Arbeitsfelder so heterogen sind, dass es nahezu unmöglich ist, Definitionskriterien aufzustellen, die allen NGOs gerecht werden könnten. NGOs erbringen einen wichtigen Beitrag zur Interessenvertretung sowie zum Zusammenschluss von Benachteiligten, damit diese ihre (Bürger-) Rechte wahrnehmen und gemeinsam Veränderungen bewirken können. Anhand von Kompetenzaufbau, Ermittlung der Ursachen der Ausgrenzung und deren Beseitigung wird versucht, die Veränderungen aktiv zu gestalten. NGOs fördern somit die Selbstorganisation und bündeln die Belange der Betroffenen. Festzuhalten ist, dass die NGOs ein immens wichtiges Element in der Zivilgesellschaft darstellen. Sie sind Ausdruck des politischen, sozialen und solidarischen Wollens von Menschen, die an der Gemeinschaft teilhaben, ihre Rechte geltend machen und den Istzustand des Systems nicht mehr einfach ohne Gegenwehr hinnehmen wollen. Das zivilgesellschaftliche Engagement ist, so zeigt die wachsende Bedeutung von NGOs, ungebrochen stark. Aber es ist aufgrund seiner großen Vielfalt weder begrifflich noch organisatorisch auf einen einzigen Nenner zu bringen. Das ist offenbar die Stärke eines zivilgesellschaftlichen Engagements, das die Schwächen eines gesellschaftlichen Systems aufnimmt: Staat und Markt sind nicht die einzigen Akteure, von denen gesellschaftlicher Wandel und sozialer Friede zugleich begünstigt werden können.
Resumo:
Intensification processes in homegardens of the Nuba Mountains, Sudan, raise concerns about strongly positive carbon (C) and nutrient balances which are expected to lead to substantial element losses from these agroecosystems, in particular via soil gaseous emissions. Therefore, this thesis aimed at the quantification of C, nitrogen (N), phosphorus (P) and potassium (K) input and output fluxes with a special focus on soil gaseous losses, and the calculation of respective element balances. A further focus in this thesis was rainfall, a valuable resource for rain-fed agriculture in the Nuba Mountains. To minimize negative consequences of the high variability of rainfall, risk reducing mechanisms were developed by rain-fed farmers that may lose their efficacy in the course of climate change effects predicted for East Africa. Therefore, the second objective of this study was to examine possible changes in rainfall amounts during the last 60 years and to provide reliable risk and probability statements of rainfall-induced events of agricultural importance to rain-fed farmers in the Nuba Mountains. Soil gaseous emissions of C (in form of CO2) and N (in form of NH3 and N2O) of two traditional and two intensified homegardens were determined with a portable dynamic closed chamber system. For C gaseous emission rates reached their peak at the onset of the rainy season (2,325 g CO2-C ha-1 h-1 in an intensified garden type) and for N during the rainy season (16 g NH3-N ha-1 h-1 and 11.3 g N2O-N ha-1 h-1, in a traditional garden type). Data indicated cumulative annual emissions of 5,893 kg CO2-C ha-1, 37 kg NH3-N ha-1, and 16 kg N2O-N ha-1. For the assessment of the long-term productivity of the two types of homegardens and the identification of pathways of substantial element losses, a C and nutrient budget approach was used. In three traditional and three intensified homegardens observation plots were selected. The following variables were quantified on each plot between June and December in 2010: soil amendments, irrigation, biomass removal, symbiotic N2 fixation, C fixation by photosynthesis, atmospheric wet and dry deposition, leaching and soil gaseous emissions. Annual balances for C and nutrients amounted to -21 kg C ha-1, -70 kg N ha-1, 9 kg P ha-1 and -117 kg K ha-1 in intensified homegardens and to -1,722 kg C ha-1, -167 kg N ha-1, -9 kg P ha-1 and -74 kg K ha-1 in traditional homegardens. For the analysis of rainfall data, the INSTAT+ software allowed to aggregate long-term daily rainfall records from the Kadugli and Rashad weather stations into daily, monthly and annual intervals and to calculate rainfall-induced events of agricultural importance. Subsequently, these calculated values and events were checked for possible monotonic trends by Mann-Kendall tests. Over the period from 1970 to 2009, annual rainfall did not change significantly for either station. However, during this period an increase of low rainfall events coinciding with a decline in the number of medium daily rainfall events was observed in Rashad. Furthermore, the availability of daily rainfall data enabled frequency and conditional probability calculations that showed either no statistically significant changes or trends resulting only in minor changes of probabilities.
Resumo:
Die vorliegende wissenschaftliche Arbeit ist auf der Datenbasis des DFG-Projekts ELWmeta (Einfluss von Lernzielspezifität auf die Wirksamkeit metakognitiver Lernhilfen) entstanden, in dem insgesamt N = 244 Schülerinnen und Schüler der achten und neunten gymnasialen Jahrgangsstufe in einem experimentellen 2x2-Design untersucht wurden. Herr Wiegandt hat die dazu durchgeführten Datenerhebungen in dem Projekt ELWmeta unterstützt. Eines der generellen Leitziele des Projekts war die Prüfung, inwieweit metakognitive Lernhilfen in Kombination mit unterschiedlichen Lernzielen auf mehrere Kriterien des selbstständigen, simulationsbasierten Experimentierens zum curricular validen Inhalt „Auftrieb in Flüssigkeiten“ wirken. Herr Wiegandt verfolgt in seiner empirischen Arbeit das Ziel, die Anwendung unterschiedlicher Experimentierstrategien beim selbstregulierten Experimentieren im genannten physikalischen Inhaltsbereich „Auftrieb in Flüssigkeiten“ bei Schülerinnen und Schülern der Jahrgangsstufen 8 und 9 zu untersuchen. Im Vordergrund steht neben einer deskriptiven Betrachtung von Strategienutzungshäufigkeiten u. a. der Vergleich der Jahrgangsstufen 8 und 9 sowie die Prüfung von Zusammenhängen zwischen Strategienutzung, Lernerfolg und Motivation. Entlang an seinen Zielen versucht der Autor im Rahmen des einflussreichen Scientific Discovery as Dual Search (SDDS)-Modells von Klahr und Dunbar (1988) dazu beizutragen, offene Fragen an der Schnittstelle instruktionspsychologischer, physikdidaktischer und pädagogischer Forschung zu beantworten. Im Anschluss an eine informative und die Relevanz des Themas der Arbeit verdeutlichenden Einführung (Kapitel 1) stellt Herr Wiegandt den theoretischen Hintergrund seiner Arbeit in Kapitel 2 vor, wo er selbstreguliertes Lernen in offenen Lernumgebungen (Kapitel 2.1) und wissenschaftlich entdeckendes Lernen (Kapitel 2.2) letztlich zum Begriff des selbstregulierten Experimentierens zusammenführt. Im Zuge dieses Theorieteils geht der Autor dabei auch auf Wissensarten und die Bedeutung von Motivation für den Wissenserwerb ein (Kapitel 2.1.1 und Kapitel 2.1.3). Aufbauend auf Kapitel 2 werden in Kapitel 3 die Forschungsfragen der vorliegenden Arbeit in Kapitel 3 entwickelt und Forschungslücken identifiziert. Die im Projekt verwendete computerbasierte Lernumgebung samt verhaltensbasierter Strategiemaße wird anschließend in Kapitel 4 beschrieben, um darauf aufbauend in Kapitel 5 schließlich die eigene Studie darzulegen. Nach wissenschaftlich klar formulierten Hypothesen (Kapitel 5.1), der Beschreibung der Stichprobe (Kapitel 5.2), der Messinstrumente für den Wissenserwerb und die aktuelle Motivation (Kapitel 5.3) sowie der Durchführung der Studie (Kapitel 5.4) berichtet Herr Wiegandt seine erzielten Ergebnisse (Kapitel 5.5). Anknüpfend diskutiert der Autor diese reflektiert und schlägt theoretische sowie praktische Implikationen vor. Den Schluss bilden das Literaturverzeichnis und der Anhang.
Resumo:
Background: The most common application of imputation is to infer genotypes of a high-density panel of markers on animals that are genotyped for a low-density panel. However, the increase in accuracy of genomic predictions resulting from an increase in the number of markers tends to reach a plateau beyond a certain density. Another application of imputation is to increase the size of the training set with un-genotyped animals. This strategy can be particularly successful when a set of closely related individuals are genotyped. ----- Methods: Imputation on completely un-genotyped dams was performed using known genotypes from the sire of each dam, one offspring and the offspring’s sire. Two methods were applied based on either allele or haplotype frequencies to infer genotypes at ambiguous loci. Results of these methods and of two available software packages were compared. Quality of imputation under different population structures was assessed. The impact of using imputed dams to enlarge training sets on the accuracy of genomic predictions was evaluated for different populations, heritabilities and sizes of training sets. ----- Results: Imputation accuracy ranged from 0.52 to 0.93 depending on the population structure and the method used. The method that used allele frequencies performed better than the method based on haplotype frequencies. Accuracy of imputation was higher for populations with higher levels of linkage disequilibrium and with larger proportions of markers with more extreme allele frequencies. Inclusion of imputed dams in the training set increased the accuracy of genomic predictions. Gains in accuracy ranged from close to zero to 37.14%, depending on the simulated scenario. Generally, the larger the accuracy already obtained with the genotyped training set, the lower the increase in accuracy achieved by adding imputed dams. ----- Conclusions: Whenever a reference population resembling the family configuration considered here is available, imputation can be used to achieve an extra increase in accuracy of genomic predictions by enlarging the training set with completely un-genotyped dams. This strategy was shown to be particularly useful for populations with lower levels of linkage disequilibrium, for genomic selection on traits with low heritability, and for species or breeds for which the size of the reference population is limited.
Resumo:
The central thesis of this report is that human language is NP-complete. That is, the process of comprehending and producing utterances is bounded above by the class NP, and below by NP-hardness. This constructive complexity thesis has two empirical consequences. The first is to predict that a linguistic theory outside NP is unnaturally powerful. The second is to predict that a linguistic theory easier than NP-hard is descriptively inadequate. To prove the lower bound, I show that the following three subproblems of language comprehension are all NP-hard: decide whether a given sound is possible sound of a given language; disambiguate a sequence of words; and compute the antecedents of pronouns. The proofs are based directly on the empirical facts of the language user's knowledge, under an appropriate idealization. Therefore, they are invariant across linguistic theories. (For this reason, no knowledge of linguistic theory is needed to understand the proofs, only knowledge of English.) To illustrate the usefulness of the upper bound, I show that two widely-accepted analyses of the language user's knowledge (of syntactic ellipsis and phonological dependencies) lead to complexity outside of NP (PSPACE-hard and Undecidable, respectively). Next, guided by the complexity proofs, I construct alternate linguisitic analyses that are strictly superior on descriptive grounds, as well as being less complex computationally (in NP). The report also presents a new framework for linguistic theorizing, that resolves important puzzles in generative linguistics, and guides the mathematical investigation of human language.
Resumo:
The goal of this article is to reveal the computational structure of modern principle-and-parameter (Chomskian) linguistic theories: what computational problems do these informal theories pose, and what is the underlying structure of those computations? To do this, I analyze the computational complexity of human language comprehension: what linguistic representation is assigned to a given sound? This problem is factored into smaller, interrelated (but independently statable) problems. For example, in order to understand a given sound, the listener must assign a phonetic form to the sound; determine the morphemes that compose the words in the sound; and calculate the linguistic antecedent of every pronoun in the utterance. I prove that these and other subproblems are all NP-hard, and that language comprehension is itself PSPACE-hard.