573 resultados para Soziales Wissen
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
In many real world contexts individuals find themselves in situations where they have to decide between options of behaviour that serve a collective purpose or behaviours which satisfy one’s private interests, ignoring the collective. In some cases the underlying social dilemma (Dawes, 1980) is solved and we observe collective action (Olson, 1965). In others social mobilisation is unsuccessful. The central topic of social dilemma research is the identification and understanding of mechanisms which yield to the observed cooperation and therefore resolve the social dilemma. It is the purpose of this thesis to contribute this research field for the case of public good dilemmas. To do so, existing work that is relevant to this problem domain is reviewed and a set of mandatory requirements is derived which guide theory and method development of the thesis. In particular, the thesis focusses on dynamic processes of social mobilisation which can foster or inhibit collective action. The basic understanding is that success or failure of the required process of social mobilisation is determined by heterogeneous individual preferences of the members of a providing group, the social structure in which the acting individuals are contained, and the embedding of the individuals in economic, political, biophysical, or other external contexts. To account for these aspects and for the involved dynamics the methodical approach of the thesis is computer simulation, in particular agent-based modelling and simulation of social systems. Particularly conductive are agent models which ground the simulation of human behaviour in suitable psychological theories of action. The thesis develops the action theory HAPPenInGS (Heterogeneous Agents Providing Public Goods) and demonstrates its embedding into different agent-based simulations. The thesis substantiates the particular added value of the methodical approach: Starting out from a theory of individual behaviour, in simulations the emergence of collective patterns of behaviour becomes observable. In addition, the underlying collective dynamics may be scrutinised and assessed by scenario analysis. The results of such experiments reveal insights on processes of social mobilisation which go beyond classical empirical approaches and yield policy recommendations on promising intervention measures in particular.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
Arbeitsbedingte Gesundheitsrisiken und deren Folgen stellen eine volkswirtschaftliche Störung dar und führen zu erheblichen Kosten in der gesamten Volkswirtschaft. Arbeitsunfälle und Berufskrankheiten mindern sowohl das Wohlbefinden der Betroffenen als auch die Wohlfahrt der gesamten Volkswirtschaft. Um die Arbeitssicherheit zu gewährleisten ist es daher die Aufgabe des Staates, richtige Rahmenbedingungen der wirtschaftlichen Tätigkeit zu schaffen und effektive Präventions- und Kompensationsmaßnahmen gegen arbeitsbedingte Gesundheitsrisiken zu entwickeln. Hauptzweck eines staatlichen Absicherungssystems gegen Arbeitsunfälle und Berufskrankheiten sollte sowohl eine effektive Prävention von Unfällen sein als auch die Gewährleistung einer angemessenen Entschädigung für den verunfallten Arbeitnehmer. Hinsichtlich der Prävention ist zu prüfen, welche Wirkung von dem Absicherungssystem für die Unfallverhütung ausgeht und wie dessen Vor- und Nachteile zu bewerten sind. Bezüglich der Kompensation soll klargestellt werden, in welchem Umfang Entschädigungsleistungen innerhalb des Absicherungssystems gewährleistet werden sollen, um den entstandenen Schaden des Arbeitnehmers ausreichend zu kompensieren. Im Rahmen dieser Zweckbestimmung spielt die gesetzliche Unfallversicherung, die ein soziales Absicherungssystem gegen Arbeitsunfällen und Berufskrankheiten ist, eine wichtige Rolle. Diese Arbeit befasst sich mit einer rechtsvergleichenden Untersuchung des gegenwärtig geltenden Unfallversicherungsrechts in Deutschland und Korea. Sinn und Zweck der hier angestellten rechtsvergleichende Untersuchung ist es durch eine kritische Analyse und eine Gegenüberstellung mit dem deutschen Recht, Ansätze einer effizienteren Gestaltung und Reformoptionen für das in Korea bestehende gesetzliche Unfallversicherungssystem herauszuarbeiten. In diesem Zusammenhang wird das Recht der deutschen und koreanischen gesetzlichen Unfallversicherung mithilfe verschiedener Kategorien verglichen. Dabei werden Grundgedanken, die Rechtsnatur sowie Präventions-, Rehabilitations- und Kompensationsfunktionen des jeweiligen Unfallversicherungssystems untersucht.
Resumo:
The non-university sector has been part of the Colombian higher education system for more than 50-years. Despite its long years of existence, it has never occupied such an important role within the education system as the one it is having today. Therefore, the aim of this work is to analyze the development of the non-university sector in the framework of the country’s social, educational and economic demands. Likewise, its actual situation and certain aspects of the relationship between its graduates and the world of work, i.e., graduates’ employment characteristics, the relationship of higher education studies and their work, as well as their early career success, are examined. In order to generate the required information, a graduate survey was carried out in Atlántico (Colombia). The target population was graduates from higher education institutions registered in Atlántico who were awarded a technical, technological or professional degree in 2008 from any of the following knowledge areas: Fine Arts, Health Science, Economy-Administration-Accountancy and similar, and Engineering-Architecture-Urban planning and similar. Besides, interviews with academic and administrative staff from non-university institutions were carried out, and higher education related documents were analyzed. As a whole, the findings suggest that the non-university sector is expanding and may help to achieve some of the goals, for which it is widely promoted i.e., access expansion for under-represented groups, enhancement of the higher education system, and the provision of programs pertinent to the needs of the market. Nevertheless, some aspects require further consideration, e.g., the sector’s consolidation within the system and its quality. As for the relationship between non-university higher education and the world of work, it was found to be close; particularly in those aspects related to the use of knowledge and skills in the work, and the relationship between graduates’ studies and their work. Additionally, the analysis of the graduates’ in their early career stages exposes the significant role that the socioeconomic stratum plays in their working life, particularly in their wages. This indicates that apart from education, other factors like the graduates’ economic or social capital may have an impact on their future work perspectives
Resumo:
Mit Hilfe der Vorhersage von Kontexten können z. B. Dienste innerhalb einer ubiquitären Umgebung proaktiv an die Bedürfnisse der Nutzer angepasst werden. Aus diesem Grund hat die Kontextvorhersage einen signifikanten Stellenwert innerhalb des ’ubiquitous computing’. Nach unserem besten Wissen, verwenden gängige Ansätze in der Kontextvorhersage ausschließlich die Kontexthistorie des Nutzers als Datenbasis, dessen Kontexte vorhersagt werden sollen. Im Falle, dass ein Nutzer unerwartet seine gewohnte Verhaltensweise ändert, enthält die Kontexthistorie des Nutzers keine geeigneten Informationen, um eine zuverlässige Kontextvorhersage zu gewährleisten. Daraus folgt, dass Vorhersageansätze, die ausschließlich die Kontexthistorie des Nutzers verwenden, dessen Kontexte vorhergesagt werden sollen, fehlschlagen könnten. Um die Lücke der fehlenden Kontextinformationen in der Kontexthistorie des Nutzers zu schließen, führen wir den Ansatz zur kollaborativen Kontextvorhersage (CCP) ein. Dabei nutzt CCP bestehende direkte und indirekte Relationen, die zwischen den Kontexthistorien der verschiedenen Nutzer existieren können, aus. CCP basiert auf der Singulärwertzerlegung höherer Ordnung, die bereits erfolgreich in bestehenden Empfehlungssystemen eingesetzt wurde. Um Aussagen über die Vorhersagegenauigkeit des CCP Ansatzes treffen zu können, wird dieser in drei verschiedenen Experimenten evaluiert. Die erzielten Vorhersagegenauigkeiten werden mit denen von drei bekannten Kontextvorhersageansätzen, dem ’Alignment’ Ansatz, dem ’StatePredictor’ und dem ’ActiveLeZi’ Vorhersageansatz, verglichen. In allen drei Experimenten werden als Evaluationsbasis kollaborative Datensätze verwendet. Anschließend wird der CCP Ansatz auf einen realen kollaborativen Anwendungsfall, den proaktiven Schutz von Fußgängern, angewendet. Dabei werden durch die Verwendung der kollaborativen Kontextvorhersage Fußgänger frühzeitig erkannt, die potentiell Gefahr laufen, mit einem sich nähernden Auto zu kollidieren. Als kollaborative Datenbasis werden reale Bewegungskontexte der Fußgänger verwendet. Die Bewegungskontexte werden mittels Smartphones, welche die Fußgänger in ihrer Hosentasche tragen, gesammelt. Aus dem Grund, dass Kontextvorhersageansätze in erster Linie personenbezogene Kontexte wie z.B. Standortdaten oder Verhaltensmuster der Nutzer als Datenbasis zur Vorhersage verwenden, werden rechtliche Evaluationskriterien aus dem Recht des Nutzers auf informationelle Selbstbestimmung abgeleitet. Basierend auf den abgeleiteten Evaluationskriterien, werden der CCP Ansatz und weitere bekannte kontextvorhersagende Ansätze bezüglich ihrer Rechtsverträglichkeit untersucht. Die Evaluationsergebnisse zeigen die rechtliche Kompatibilität der untersuchten Vorhersageansätze bezüglich des Rechtes des Nutzers auf informationelle Selbstbestimmung auf. Zum Schluss wird in der Dissertation ein Ansatz für die verteilte und kollaborative Vorhersage von Kontexten vorgestellt. Mit Hilfe des Ansatzes wird eine Möglichkeit aufgezeigt, um den identifizierten rechtlichen Probleme, die bei der Vorhersage von Kontexten und besonders bei der kollaborativen Vorhersage von Kontexten, entgegenzuwirken.
Resumo:
Wir leben in einer schnelllebigen unsicheren Welt. In einer Welt, in der fast jede Person schon einmal ein Gefühl von Wertlosigkeit und Ausgrenzung verspürt hat. Im vorliegenden an einer Schnittstelle zwischen Soziologie und Psychologie lokalisierten Dissertationsprojekt wird sich mit eben diesem aversiven Empfinden, sozial sowie gesellschaftlich überflüssig und ausgeschlossen zu sein, in Entstehung und möglichen Auswirkungen auseinandergesetzt. Dafür wurden eine deutschlandweite Telefon- und zwei experimentelle Laborstudien durchgeführt. Die theoretische und empirische Basis der Arbeit bilden soziologische Ansätze wie die Theorie der Desintegration (Anhut & Heitmeyer, 2000, 2009), psychologische Modelle wie das "Need-Threat"-Modell sozialer Ausgrenzung (Williams, 2009) und interdisziplinäre sozialwissenschaftliche Studien (Bude & Lantermann, 2006; Heitmeyer, 2002-2012; Lantermann, Döring-Seipel, Eierdanz & Gerhold, 2009). Die Befunde der Telefonstudie zeigen, dass die individuelle Wahrnehmung und Empfindung nicht unweigerlich vorhandene objektiv prekäre Lebenslagen akkurat spiegelt. So können ausgeprägte interne Ressourcen wie die des Kohärenzsinns einen positiven Effekt objektiver zum Beispiel finanzieller und/oder sozialer Prekarität auf subjektives soziales sowie gesellschaftliches Exklusionsempfinden abschwächen. Auch zeigte sich im experimentellen Kontext, dass induzierter sozialer Ausschluss nicht zu empfundener sozialer Exklusion führen muss. Als mögliche Auswirkungen empfundener sozialer und gesellschaftlicher Exklusion wurden ein Streben nach sozialem Anschluss über eine verstärkte Identifikation mit sozialen Eigengruppen wie der religiösen oder nationalen Eigengruppe (Telefonstudie, Laborstudie II) sowie ebenfalls aggressive feindselige Tendenzen über fremdenfeindliche oder antisemitische Haltungen (Telefonstudie) aufgedeckt. Weiterhin stellt generelle Selbstunsicherheit einen Mediator zwischen empfundener Exklusion und der sozialen Eigengruppenidentifikation über die nationale Eigengruppe dar (Telefonstudie). Ein Fokus des Dissertationsprojekts lag zudem auf einer ersten Untersuchung von Indikatoren eines kontrollbasierten Drei-Phasenmodells im Umgang mit subjektiv empfundener Exklusion (Telefonstudie, Laborstudie I). Basierend auf dem Modell kann ein Prozess empfundener Exklusion erstmalig empirisch analysiert werden, welcher sich auch in potenziellen Folgen wie einem erhöhten sozialen Anschlussstreben oder verstärkten aggressiven Tendenzen spiegeln sollte. Das Phasenmodell wurde aus den Theorien psychologischer Reaktanz (Brehm & Brehm, 1981), sekundärer Kontrolle (Rothbaum, Weisz & Snyder, 1982) und erlernter Hilflosigkeit (Seligman, 1975, 1992) abgeleitet. Aus den empirischen Befunden gezogene theoretische Schlussfolgerungen werden abschließend dargestellt und diskutiert. Zudem werden Hinweise für eine zukünftige Exklusionsforschung gegeben. So erscheint beispielsweise eine Differenzierung zwischen sozial und gesellschaftlich empfundener Exklusion auch hinsichtlich resultierender Gedanken, Gefühle und Verhaltensweisen für weitere sozialwissenschaftliche Untersuchungen interessant.
Resumo:
Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.
Resumo:
Das Leben in modernen Großstädten in Deutschland und Europa fordert heute mehr denn je sprachliche Kompetenzen von uns, wie sie vor einigen Jahrzehnten noch kaum erahnt wurden. Nicht selten findet man sich in einem Gewirr aus Sprachen wieder und realisiert schnell, dass die Europäische Union zumindest kulturell längst in unserem Alltag angekommen ist. Das Gespräch mit Touristen und Wahldeutschen aus aller Welt findet vorzugsweise auf Englisch statt, der Lingua Franca. Und hieraus ergibt sich ein großes Problem, eine zentrale Aufgabe der Schulbildung in dieser sich zunehmend globalisierenden Welt des einundzwanzigsten Jahrhunderts. Das Erlernen einer Sprache allein genügt nicht mehr, um die notwendigen Bürgerkompetenzen im kontemporären Europa zu erlangen. Die Sachfächer erweisen sich tendenziell immer mehr als gordische Knoten der Kompetenzorientierung, wenn sich etwa die Frage stellt, ob Schüler das dort erlangte Wissen auch wirklich international nutzbar machen können. In dieser Arbeit soll zunächst kurz auf einige grundlegende Merkmale und Ausprägungen bilingualen Unterrichts aufmerksam gemacht werden. Danach sollen im theoretischen Teil dieser Arbeit drei grundlegende Säulen eines bilingual ausgerichteten Physikunterrichts entworfen werden. Mithilfe empirischer Evidenz soll darauf aufbauend gezeigt werden, wie Sachfach und Sprache miteinander wechselwirken und welchen Einfluss die Sprache auf den Wissenserwerb hat (siehe Kapitel 3.1). Im folgenden Teil steht dann die Frage im Mittelpunkt, was mit Physikunterricht generell erzielt werden soll (siehe Kapitel 3.2). Der theoretische Teil wird schließlich mit der Betrachtung personeller Einflüsse durch die Schüler und Lehrer selbst abgerundet (siehe Kapitel 3.3). Auf der Grundlage dieser theoretischen Überlegungen, erfolgt schließlich die Analyse der im Zuge der Arbeit durchgeführten Lehrerinterviews. Mit der Formulierung der Forschungsfragen in Kapitel 4 sowie der genaueren Beschreibung der Untersuchungsmethodik in Kapitel 5, folgt in den Kapiteln 6 und 7 die Auswertungsmethodik sowie die Präsentation der so gewonnenen Ergebnisse. Im Kapitel 8 werden die Ergebnisse nochmals diskutiert und in Bezug auf die Forschungsfragen interpretiert. Schließlich fasst Kapitel 9 die Ergebnisse der Untersuchung zusammen und Kapitel 10 liefert ein Fazit der gesamten Arbeit.
Resumo:
Der Beitrag entstand im Rahmen des Forschungsprojektes "Kooperatives Prozess-Register: Serviceorientierte Modellierung und Nutzung von Prozess-Wissen durch Bürger, Unternehmen und Sachbearbeiter im Zweckverband Grevesmühlen (KPR. Grevesmühlen)" und beleuchtet am Beispiel der Trinkwasserhausanschlusserstellung sowie der Hydrantenprüfung des Zweckverbandes Grevesmühlen zentrale Rechtsfragen, die sich bei dem Einsatz von kooperativer Prozess-Register stellen.
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
Diamant ist ein Material mit vielen außerordentlichen Eigenschaften, die ihn zu einem äußerst vielversprechenden Kandidaten für Anwendungen in Wissen-schaft und Technik machen. In den letzten Jahren wurde Diamant häufig als einzigartige Plattform für neue Anwendungen beispielsweise in der Quanteninformationstechnologie (QIT) oder in der Magnetometrie im Nanometermaßstab eingesetzt, wobei einer der wichtigsten lumineszierenden Gitterdefekte im Diamantgitter eingesetzt wird. Dabei handelt es sich um die sogenannten Stickstoff/Fehlenstellen-Farbzentren (NV-Zentren), die im sichtbaren Bereich mit einer absoluten Photostabilität bei Raumtemperatur emittieren. In dieser Arbeit wurden NV-Zentren in Diamantnanokristalliten und –nanosäulen untersucht, die während des Wachstumsprozesses erzeugt wurden. Einzelne Diamantnanokristallite und nanokristalline Diamantschichten (NCD), aus denen Nanosäulen geätzt wurden, wurden mithilfe der Hot Filament Chemical Vapour Deposition (HFCVD) abgeschieden. Zu Vergleichszwecken wurden auch ultrananokristalline Diamantschichten (UNCD) mittels Mikrowellen-CVD (MWCVD) hergestellt. Die Filme wurden sorgfältig in Bezug auf ihre Morphologie, kristallinen Eigenschaften und Zusammensetzung untersucht. Um die Möglichkeit einer Integration dieser Diamantschichten mit temperaturempfindlichen Materialien wie III/V-Halbleitern, Metallen mit niedrigem Schmelzpunkt oder Polymeren zu untersuchen, wurde der Einfluss der Substrattemperatur ermittelt. Eindimensionale NCD- und UNCD-Diamantnanostrukturen wurden mithilfe der Elektronenstrahllithographie (EBL) und reaktivem Ionenätzen in einem induktiv gekoppelten O2-Plasma (ICP-RIE) hergestellt. Zur Vorbereitung wurden zunächst die Ätzraten in Abhängigkeit von den vier wichtigsten Parametern ermittelt. Weitere Erkenntnisse über die Ätzmechanismen wurden durch Ätzexperiment mit unstrukturierten NCD- und UNCD-Schichten erhalten Mittels der EBL konnten mithilfe von Gold-Ätzmasken Nanosäulen mit Durchmessern von 50 nm bis zu 1 μm hergestellt werden.Eine optische Charakterisierung der NCD- und UNCD-Nanosäulen erfolgte mithilfe von Fluorenzenz-Mapping und Photomumineszenz-Spektroskopie. Diese Messungen ergaben, dass in beiden Arten von Säulen NV-Zentren vorhanden sind. Allerdings wurden nur in NCD-Säulen die gewünschten NV--Zentren gefunden, in UNCD-Säulen hingegen nur NV0-Zentren.
Resumo:
This research project focuses on contemporary eagle-taming falconry practice of the Altaic Kazakhs animal herding society in Bayan Ulgii Province in Western Mongolia. It aims to contributing both theoretical and empirical criteria for cultural preservation of Asian falconry. This cultural as well as environmental discourse is illustrated with concentrated field research framed by ecological anthropology and ethno-ornithology from the viewpoint of “Human-Animal Interaction (HAI)” and “Human-Animal Behavior (HAB)”. Part I (Chapter 2 & 3) explores ethno-archaeological and ethno-ornithological dimensions by interpretive research of archaeological artefacts which trace the historical depth of Asian falconry culture. Part II (Chapter 4 & 5) provides an extensive ethnographic narrative of Altaic Kazakh falconry, which is the central part of this research project. The “Traditional Art and Knowledge (TAK)” in human-raptor interactions, comprising the entire cycle of capture, perch, feeding, training, hunting, and release, is presented with specific emphasis on its relation to environmental and societal context. Traditional falconry as integral part of a nomadic lifestyle has to face some critical problems nowadays which necessitate preventing the complete disappearance of this outstanding indigenous cultural heritage. Part III (Chapter 6 & 7) thus focuses on the cultural sustainability of Altaic Kazakh falconry. Changing livelihoods, sedentarisation, and decontextualisation are identified as major threats. The role of Golden Eagle Festivals is critically analysed with regard to positive and negative impact. This part also intends to contribute to the academic definition of eagle falconry as an intangible cultural heritage, and to provide scientific criteria for a preservation master plan, as well as stipulate local resilience by pointing to successive actions needed for conservation. This research project concludes that cultural sustainability of Altaic Kazakh falconry needs to be supported from the angles of three theoretical frameworks; (1) Cultural affairs for protection based on the concept of nature-guardianship in its cultural domain, (2) Sustainable development and improvement of animal herding productivity and herder’s livelihood, (3) Natural resource management, especially supporting the population of Golden Eagles, their potential prey animals, and their nesting environment.
Resumo:
Die Wissenschaft weist im Zuge der Entwicklung von der Industrie- zu einer Wissensgesellschaft einschneidende Veränderungen in der Wissensordnung auf, welche sich bis hin zu einem zunehmenden Verlust der wissenschaftlichen Selbststeuerungsmechanismen bemerkbar machen und einen veränderten Umgang mit dem generierten Wissensschatz erfordern. Nicht nur Änderungen in der Wissensordnung und -produktion stellen die Psychoanalyse vor neue Herausforderungen: In den letzten Jahrzehnten geriet sie als Wissenschaft und Behandlungsverfahren zunehmend in die Kritik und reagierte mit einer konstruktiven Diskussion um ein dem Forschungsgegenstand – die Untersuchung unbewusster Prozesse und Fantasien – adäquates psychoanalytisches Forschungsverständnis. Die Auseinandersetzung mit Forderungen gesellschaftlicher Geldgeber, politischer Vertreter und Interessensgruppen wie auch der wissenschaftlichen Community stellt die Psychoanalyse vor besondere Herausforderungen. Um wissenschaftsexternen wie -internen Gütekriterien zu genügen, ist häufig ein hoher personeller, materieller, finanzieller, methodischer wie organisatorischer Aufwand unabdingbar, wie das Beispiel des psychoanalytischen Forschungsinstitutes Sigmund-Freud-Institut zeigt. Der steigende Aufwand schlägt sich in einer zunehmenden Komplexität des Forschungsprozesses nieder, die unter anderem in den vielschichtigen Fragestellungen und Zielsetzungen, dem vermehrt interdisziplinären, vernetzten Charakter, dem Umgang mit dem umfangreichen, hochspezialisierten Wissen, der Methodenvielfalt, etc. begründet liegt. Um jener Komplexität des Forschungsprozesses gerecht zu werden, ist es zunehmend erforderlich, Wege des Wissensmanagement zu beschreiten. Tools wie z. B. Mapping-Verfahren stellen unterstützende Werkzeuge des Wissensmanagements dar, um den Herausforderungen des Forschungsprozesses zu begegnen. In der vorliegenden Arbeit werden zunächst die veränderten Forschungsbedingungen und ihre Auswirkungen auf die Komplexität des Forschungsprozesses - insbesondere auch des psychoanalytischen Forschungsprozesses - reflektiert. Die mit der wachsenden Komplexität einhergehenden Schwierigkeiten und Herausforderungen werden am Beispiel eines interdisziplinär ausgerichteten EU-Forschungsprojektes näher illustriert. Um dieser wachsenden Komplexität psychoanalytischer Forschung erfolgreich zu begegnen, wurden in verschiedenen Forschungsprojekten am Sigmund-Freud-Institut Wissensmanagement-Maßnahmen ergriffen. In der vorliegenden Arbeit wird daher in einem zweiten Teil zunächst auf theoretische Aspekte des Wissensmanagements eingegangen, die die Grundlage der eingesetzten Wissensmanagement-Instrumente bildeten. Dabei spielen insbesondere psychologische Aspekte des Wissensmanagements eine zentrale Rolle. Zudem werden die konkreten Wissensmanagement-Tools vorgestellt, die in den verschiedenen Forschungsprojekten zum Einsatz kamen, um der wachsenden Komplexität psychoanalytischer Forschung zu begegnen. Abschließend werden die Hauptthesen der vorliegenden Arbeit noch einmal reflektiert und die geschilderten Techniken des Wissensmanagements im Hinblick auf ihre Vor- und Nachteile kritisch diskutiert.
Resumo:
In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.