985 resultados para Prozesskette, hierarchisches Modell, Kosten, Kostenbetrachtung,


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Short summary: This study was undertaken to assess the diversity of plant resources utilized by the local population in south-western Madagascar, the social, ecological and biophysical conditions that drive their uses and availability, and possible alternative strategies for their sustainable use in the region. The study region, ‘Mahafaly region’, located in south-western Madagascar, is one of the country’s most economically, educationally and climatically disadvantaged regions. With an arid steppe climate, the agricultural production is limited by low water availability and a low level of soil nutrients and soil organic carbon. The region comprises the recently extended Tsimanampetsotsa National Park, with numerous sacred and communities forests, which are threatened by slash and burn agriculture and overexploitation of forests resources. The present study analyzed the availability of wild yams and medicinal plants, and their importance for the livelihood of the local population in this region. An ethnobotanical survey was conducted recording the diversity, local knowledge and use of wild yams and medicinal plants utilized by the local communities in five villages in the Mahafaly region. 250 households were randomly selected followed by semi-structured interviews on the socio-economic characteristics of the households. Data allowed us to characterize sociocultural and socioeconomic factors that determine the local use of wild yams and medicinal plants, and to identify their role in the livelihoods of local people. Species-environment relationships and the current spatial distribution of the wild yams were investigated and predicted using ordination methods and a niche based habitat modelling approach. Species response curves along edaphic gradients allowed us to understand the species requirements on habitat conditions. We thus investigated various alternative methods to enhance the wild yam regeneration for their local conservation and their sustainable use in the Mahafaly region. Altogether, six species of wild yams and a total of 214 medicinal plants species from 68 families and 163 genera were identified in the study region. Results of the cluster and discriminant analysis indicated a clear pattern on resource, resulted in two groups of household and characterized by differences in livestock numbers, off-farm activities, agricultural land and harvests. A generalized linear model highlighted that economic factors significantly affect the collection intensity of wild yams, while the use of medicinal plants depends to a higher degree on socio-cultural factors. The gradient analysis on the distribution of the wild yam species revealed a clear pattern for species habitats. Species models based on NPMR (Nonparametric Multiplicative Regression analysis) indicated the importance of vegetation structure, human interventions, and soil characteristics to determine wild yam species distribution. The prediction of the current availability of wild yam resources showed that abundant wild yam resources are scarce and face high harvest intensity. Experiments on yams cultivation revealed that germination of seeds was enhanced by using pre-germination treatments before planting, vegetative regeneration performed better with the upper part of the tubers (corms) rather than the sets of tubers. In-situ regeneration was possible for the upper parts of the wild tubers but the success depended significantly on the type of soil. The use of manure (10-20 t ha¹) increased the yield of the D. alata and D. alatipes by 40%. We thus suggest the promotion of other cultivated varieties of D. alata found regions neighbouring as the Mahafaly Plateau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wird aufgezeigt, welchen Stellenwert der Sport in der heutigen Gesellschaft einnimmt und welche Förderungsmöglichkeiten auf den verschiedenen politischen Ebenen gegeben sind. Auf dieser Grundlange werden die prozessbegleitende Novellierung und die kooperative Planungsarbeit zur zukunftsorientierten Anwendbarkeit der Sportförderrichtlinien der Stadt Kassel anhand der Ziel- und Handlungsempfehlungen der Sportentwicklungsplanung näher beleuchtet. Um zu dem Thema der Sportförderung und insbesondere zur Sportförderrichtlinie hinzuführen, wird in Kapitel 2 dieser Arbeit zunächst der Wandel des Sportverständnisses dargestellt. Dabei wird einerseits auf die Sportbegeisterung der Menschen und auf den Strukturwandel eingegangen, andererseits auf die Möglichkeit, wie die Sportvereine und die kommerziellen Anbieter auf diese Veränderungen reagieren können. Das Kapitel 3 befasst sich mit dem Begriff der Sportförderung und zeigt im Anschluss daran die verschiedenen Steuerungsinstrumente im Bereich der Sportförderung auf. Schwerpunkt des Kapitels bilden die verschiedenen Förderinstrumente, welche sich auf Bundes- und Länderebene sowie auf kommunaler Ebene unterscheiden. Anschließend erfolgt ein Zwischenfazit, welches die Erkenntnisse der Sportförderung auf den verschiedenen politischen Ebenen zusammenfasst. In Kapitel 4 wird die Legitimation der Sportförderung in der BRD dargestellt. Diese Legitimation nimmt besonders unter der Prämisse der Haushaltskonsolidierung einen besonderen Stellenwert ein. Dabei wird eine ökonomische Argumentation, welche die Aspekte der externen Effekte, externen Kosten und das soziale Kapital aufgreift, angeführt. Im fünften Kapitel werden explizit die Steuerungsmöglichkeiten der Sportförderung auf kommunaler Ebene erläutert. Nach der allgemeinen Darstellung der Richtlinien zur Sportförderung wird Bezug auf die Stadt Kassel genommen. Das Kapitel 6 beschäftigt sich mit der Sportentwicklungsplanung ‒ insbesondere auf kommunaler Ebene. Berücksichtigt wird an dieser Stelle auch das kooperative Planungsverfahren. Wie sich die konkrete Zusammenarbeit der Stadt Kassel mit dem Institut für Kooperative Planung und Sportentwicklung vollzogen hat, wird in Kapitel 7 erläutert. Dieses Kapitel schließt mit den Empfehlungen ab. Kapitel 8 befasst sich mit der Novellierung der Sportförderrichtlinie der Stadt Kassel und ermöglicht einen Einblick in den Ablauf der einzelnen Planungsschritte. Die Arbeit führt in Kapitel 9 die möglichen Auswirkungen der Novellierung der Sportförderrichtlinie auf. Abgeschlossen wird die Arbeit in Kapitel 10 mit einem Fazit der durchgeführten Novellierung der Sportförderrichtlinien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel dieser Arbeit war, ein ökonomisch ausgerichtetes Zuchtprogramm für die bedrohte Schweinerasse „Bunte Bentheimer“ (BB) zu entwickeln. Ein wesentlicher Bestandteil von Zuchtprogrammen für bedrohte Rassen ist der Erhalt der genetischen Diversität durch Vermeidung von weiterer Inzucht und Reduzierung des Inzuchtzuwachses. In Kapitel 2 wurde die Population der BB unter Berücksichtigung der vorhandenen Abstammungsinformationen in Bezug auf genetische Diversität, Inzucht und Verwandtschaft analysiert. Durchschnittlicher Inzuchtkoeffizient und Inzuchtzunahme lagen mit 12% und 1,66% pro Generation auf einem relativ hohen Niveau. Effektive Maßnahmen zur Inzuchtkontrolle sollten daher im Zuchtprogramm integriert werden. Durch die Bestimmung optimaler Einsatzfrequenzen selektierter Tiere ist es möglich, Inzucht zu kontrollieren und gleichzeitig Zuchtfortschritt zu generieren. Das konnte am Beispiel von Zuchtwerten für Fruchtbarkeitsmerkmale gezeigt werden. Basierend auf den optimalen Einsatzfrequenzen der selektierten Elterntiere wurden zur weiteren Reduzierung der Inzucht in der Folgegeneration konkrete Anpaarungspläne erstellt. Die Anpaarungen wurden unter Berücksichtigung der Natursprungproblematik durch Festlegung von Zuchtgebieten konzipiert. Die Umsetzung dieser wurde allerdings erschwert durch die eingeschränkte Verfügbarkeit der Eber. Schließt man die künstliche Besamung als mögliche Alternative aus, müssten die Zuchtgebiete so optimiert werden, dass die vorgeschlagenen Anpaarungen auch in die Praxis umgesetzt werden können. Die Gestaltung eines Zuchtprogramms erfordert zudem die Verfügbarkeit populationsgenetischer Parameter. Für die Fruchtbarkeitsmerkmale „Anzahl lebend geborener Ferkel“ (NBA) und „abgesetzter Ferkel“ (NW) lagen die Heritabilitäten bei jeweils 12%. Auch die genetischen Varianzen lagen in einem guten Bereich, so dass für beide Merkmale Zuchtfortschritt durch Selektion möglich ist. In Kapitel 3 wurden genetische Parameter für Fleischleistungs- und Fleischqualitätsmerkmale geschätzt. Als Grundlage dafür dienten sowohl in vivo Ultraschallmessungen am lebenden Tier, als auch Messungen, die am Schlachtkörper bzw. an einer Fleischprobe erfolgten. Zucht-, Mast- und Schlachttiere wurden am RYR1 Genort typisiert, um Allel-Substitutionseffekte zu schätzen. Die quantitativen- und molekulargenetischen Ansätze wurden genutzt, um darauf aufbauend zur Verbesserung der Fleischqualität Zuchtstrategien zu entwickeln. Für das Fleischqualitätsmerkmal intramuskulärer Fettgehalt (IMF) wurde die höchste Heritabilität von 0,78 bei einer ebenfalls hohen additiv-genetischen Varianz geschätzt. Dennoch ist die Erfassung dieses Merkmals mit einem hohen Kostenaufwand verbunden. Ein mögliches Hilfsmerkmal ist die Rückenspeckdicke (BFiv), die direkt am Selektionskandidaten erfasst werden kann. Die genetische Korrelation zwischen beiden Merkmale lag bei rg = 0,39. Die Assoziationsstudie am RYR1 Genort zeigte, dass die Anwesenheit des ungewünschten Allels einen negativen Effekt auf IMF hatte, d.h. der IMF Gehalt wurde reduziert. Darauf aufbauend wurde eine Zuchtstrategie entwickelt, die Phänotyp (BFiv) und Marker-Informationen am RYR1 Genort des Selektionskandidaten kombiniert. Durch die zusätzliche Berücksichtigung der Marker-Informationen konnten eine höhere Genauigkeit und ein höherer Zuchtfortschritt erzielt werden im Vergleich zu einer Strategie, die nur auf den phänotypischen Leistungen basiert. In Kapitel 4 wurde basierend auf einer Konsumentenbefragung mit integrierter Verkostung von Fleischproben indirekt die Zahlungsbereitschaft für unterschiedliche Fleischqualitäten erfasst. Alle Fleischproben wurden zusätzlich hinsichtlich der instrumental erfassbaren Fleischqualität untersucht und durch ein geschultes Panel im Sensorik Labor in Bezug auf die sensorische Qualität beurteilt. Außerdem wurde die direkte Zahlungsbereitschaft für unterschiedliche Qualitätsausprägungen der optischen Merkmale „Fleischfarbe“, „Fleischmarmorierung“ und „Fleischsaftverlust“ anhand von Fotografien erfasst. Die Ergebnisse dieser Befragung wurden genutzt, um ökonomischen Gewichte abzuleiten. Für IMF ergab sich ein hohes ökonomisches Gewicht von 57,52 € pro Merkmalseinheit bei dem aktuellen Populationsdurchschnitt von 1,57%. Mit steigendem Populationsmittel sinkt das ökonomische Gewicht und nähert sich ab einem Mittelwert von 2% einem Wert von 0,00 €. Aus züchterischer Sicht wäre daher ein durchschnittlicher IMF Gehalt von mindestens 2% anzustreben. Für Fleischqualitätsmerkmale, die beim Verzehr nicht direkt erfassbar sind, wie die Farbhelligkeit oder der Tropfsaftverlust, ist die direkte Methode zur Erfassung der Zahlungsbereitschaft (basierend auf den Fotografien) der indirekten (basierend auf der Verkostung) vorzuziehen, um ökonomische Gewichte abzuleiten. Genetische Parameter ökonomischen Gewichte wurden anschließend für Zuchtplanungsrechnungen verwendet. Im Zuchtziel wurde in erster Linie die Fruchtbarkeit (NBA) und Fleischqualität (IMF) berücksichtigt. Zur Vermeidung hoher Kosten und der besseren Anpassung an kleine Betriebsstrukturen wurde u.a. ein Zuchtprogramm modelliert, das auf in vivo Ultraschallmessungen für BFiv basiert, direkt erfasst am Selektionskandidaten. Der Züchtungsgewinn für diese Zuchtstrategie lag bei 35,92 € pro Tier. Der Zuchtfortschritt für IMF war allerdings erwartungsgemäß geringer als bei direkter Selektion auf das Merkmal. Basierend auf den Ergebnissen wurde in Kapitel 5 ein Entwurf für ein Zuchtprogramm erstellt, das die notwendigen Maßnahmen zur Inzuchtkontrolle beinhaltet und Zuchtfortschritt für rassespezifische Merkmale zulässt. Zudem ist dieser Entwurf angepasst an die kleinen Betriebsstrukturen und die unterschiedlichen Vermarktungsstrategien, die sich bereits etabliert haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La butirilcolinesterasa humana (BChE; EC 3.1.1.8) es una enzima polimórfica sintetizada en el hígado y en el tejido adiposo, ampliamente distribuida en el organismo y encargada de hidrolizar algunos ésteres de colina como la procaína, ésteres alifáticos como el ácido acetilsalicílico, fármacos como la metilprednisolona, el mivacurium y la succinilcolina y drogas de uso y/o abuso como la heroína y la cocaína. Es codificada por el gen BCHE (OMIM 177400), habiéndose identificado más de 100 variantes, algunas no estudiadas plenamente, además de la forma más frecuente, llamada usual o silvestre. Diferentes polimorfismos del gen BCHE se han relacionado con la síntesis de enzimas con niveles variados de actividad catalítica. Las bases moleculares de algunas de esas variantes genéticas han sido reportadas, entre las que se encuentra las variantes Atípica (A), fluoruro-resistente del tipo 1 y 2 (F-1 y F-2), silente (S), Kalow (K), James (J) y Hammersmith (H). En este estudio, en un grupo de pacientes se aplicó el instrumento validado Lifetime Severity Index for Cocaine Use Disorder (LSI-C) para evaluar la gravedad del consumo de “cocaína” a lo largo de la vida. Además, se determinaron Polimorfismos de Nucleótido Simple (SNPs) en el gen BCHE conocidos como responsables de reacciones adversas en pacientes consumidores de “cocaína” mediante secuenciación del gen y se predijo el efecto delos SNPs sobre la función y la estructura de la proteína, mediante el uso de herramientas bio-informáticas. El instrumento LSI-C ofreció resultados en cuatro dimensiones: consumo a lo largo de la vida, consumo reciente, dependencia psicológica e intento de abandono del consumo. Los estudios de análisis molecular permitieron observar dos SNPs codificantes (cSNPs) no sinónimos en el 27.3% de la muestra, c.293A>G (p.Asp98Gly) y c.1699G>A (p.Ala567Thr), localizados en los exones 2 y 4, que corresponden, desde el punto de vista funcional, a la variante Atípica (A) [dbSNP: rs1799807] y a la variante Kalow (K) [dbSNP: rs1803274] de la enzima BChE, respectivamente. Los estudios de predicción In silico establecieron para el SNP p.Asp98Gly un carácter patogénico, mientras que para el SNP p.Ala567Thr, mostraron un comportamiento neutro. El análisis de los resultados permite proponer la existencia de una relación entre polimorfismos o variantes genéticas responsables de una baja actividad catalítica y/o baja concentración plasmática de la enzima BChE y algunas de las reacciones adversas ocurridas en pacientes consumidores de cocaína.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se realizó un estudio genético – poblacional en dos grupos etarios de población colombiana con la finalidad de evaluar las diferencias genéticas relacionadas con el polimorfismo MTHFR 677CT en busca de eventos genéticos que soporten la persistencia de este polimorfismo en la especie humana debido que este ha sido asociado con múltiples enfermedades. De esta manera se genotipificaron los individuos, se analizaron los genotipos, frecuencias alélicas y se realizaron diferentes pruebas genéticas-poblacionales. Contrario a lo observado en poblaciones Colombianas revisadas se identificó la ausencia del Equilibrio Hardy-Weinberg en el grupo de los niños y estructuras poblacionales entre los adultos lo que sugiere diferentes historias demográficas y culturales entre estos dos grupos poblacionales al tiempo, lo que soporta la hipótesis de un evento de selección sobre el polimorfismo en nuestra población. De igual manera nuestros datos fueron analizados junto con estudios previos a nivel nacional y mundial lo cual sustenta que el posible evento selectivo es debido a que el aporte de ácido fólico se ha incrementado durante las últimas dos décadas como consecuencia de las campañas de fortificación de las harinas y suplementación a las embarazadas con ácido fólico, por lo tanto aquí se propone un modelo de selección que se ajusta a los datos encontrados en este trabajo se establece una relación entre los patrones nutricionales de la especie humana a través de la historia que explica las diferencias en frecuencias de este polimorfismo a nivel espacial y temporal.  

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo de grado es una revisión de la literatura que permite hacer un recorrido desde el psicoanálisis acerca de la compleja problemática de las adicciones. Para ello, se revisaron las bases de datos PepWeb, Ebsco, y Jstor, revisando las posiciones del psicoanálisis freudiano, lacaniano y otras corrientes psicoanalíticas respondiendo a las siguientes preguntas de investigación: (a) ¿Cómo se comprenden las adicciones desde un marco de referencia psicoanalítico? (b) ¿Cómo –desde la teoría freudiana y la teoría lacaniana - se aborda la comprensión de la adicción? (c) ¿Qué dice el psicoanálisis contemporáneo sobre ésta problemática? Se abordan temas como la concepción de una adicción desde la perspectiva de Freud y Lacan hasta psicoanalistas contemporáneos, el rol que juega el goce en la adicción y, finalmente, el complejo debate incipiente sobre la legalidad del tóxico. Se encontró que es un campo de constante publicación y es necesario que los clínicos y los psicoanalistas aborden este campo de estudio clínico permanentemente y sigan produciendo investigaciones sobre el fenómeno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of genetically modified (GM) crops has led the European Union (EU) to put forward the concept of 'coexistence' to give fanners the freedom to plant both conventional and GM varieties. Should a premium for non-GM varieties emerge in the market, 'contamination' by GM pollen would generate a negative externality to conventional growers. It is therefore important to assess the effect of different 'policy variables'on the magnitude of the externality to identify suitable policies to manage coexistence. In this paper, taking GM herbicide tolerant oilseed rape as a model crop, we start from the model developed in Ceddia et al. [Ceddia, M.G., Bartlett, M., Perrings, C., 2007. Landscape gene flow, coexistence and threshold effect: the case of genetically modified herbicide tolerant oilseed rape (Brassica napus). Ecol. Modell. 205, pp. 169-180] use a Monte Carlo experiment to generate data and then estimate the effect of the number of GM and conventional fields, width of buffer areas and the degree of spatial aggregation (i.e. the 'policy variables') on the magnitude of the externality at the landscape level. To represent realistic conditions in agricultural production, we assume that detection of GM material in conventional produce might occur at the field level (no grain mixing occurs) or at the silos level (where grain mixing from different fields in the landscape occurs). In the former case, the magnitude of the externality will depend on the number of conventional fields with average transgenic presence above a certain threshold. In the latter case, the magnitude of the externality will depend on whether the average transgenic presence across all conventional fields exceeds the threshold. In order to quantify the effect of the relevant' policy variables', we compute the marginal effects and the elasticities. Our results show that when relying on marginal effects to assess the impact of the different 'policy variables', spatial aggregation is far more important when transgenic material is detected at field level, corroborating previous research. However, when elasticity is used, the effectiveness of spatial aggregation in reducing the externality is almost identical whether detection occurs at field level or at silos level. Our results show also that the area planted with GM is the most important 'policy variable' in affecting the externality to conventional growers and that buffer areas on conventional fields are more effective than those on GM fields. The implications of the results for the coexistence policies in the EU are discussed. (C) 2008 Elsevier B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Winckelmann's writings hold an interest for modern classical studies which is not restricted to the subfield of classical archaeology. Considered in terms of methodology, his writings dramatise problems and questions which attend any attempt to provide a comprehensive account of ancient culture and society. The Geschichte der Kunst des Alterthums provided an influential model of what such a reconstruction might look like in a period when classical philology was undergoing a significant reconfiguration as „Alterthums-Wissenschaft" at the hands of scholars such as Christian Gottlob Heyne and Friedrich August Wolf. Investigation of their critical responses to Winckelmann’s works aims to contribute to understanding both of the early reception of his works and of questions which are still relevant today. Im Rahmen der modernen Altertumswissenschaften kommt den Werken Winckelmanns eine Bedeutung zu, die nicht auf den Bereich der Klassischen Archäologie beschränkt ist. Methodologisch betrachtet, dramatisieren seine Schriften Probleme und Fragen, die jedem Versuch einer umfassenden, erklärenden Rekonstruktion der antiken Kultur und Gesellschaft zugrunde liegen. Die Geschichte der Kunst des Alterthums hat ein einflussreiches Modell dafür geliefert, was eine solche Rekonstruktion in einer Zeit leisten konnte, in der die klassische Philologie einer erheblichen Umstrukturierung als „Alterthums-Wissenschaft“ durch Gelehrte wie Christian Gottlob Heyne und Friedrich August Wolf unterzogen wurde. Die vorliegende Untersuchung ihrer kritischen Reaktionen auf Winckelmanns Schriften soll dazu beitragen, sowohl die frühe Rezeption seines Werkes als auch Fragestellungen, die heute noch aktuell sind, besser zu verstehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Autoimmune polyendocrinopathy-candidiasis-ectodermal dystrophy (APECED) syndrome, which is caused by mutation of the autoimmune regulator (AIRE) gene, is a highly variable disease characterized by multiple endocrine failure, chronic mucocutaneous candidiasis, and various ectodermal defects. AIRE is a transcriptional regulator classically expressed in medullary thymic epithelial cells, monocytes, macrophages, and dendritic cells. Previous studies have suggested that AIRE can shuttle between the nucleus and cytoplasm of cells, although its cytoplasmic functions are poorly characterized. Through mass spectrometry analysis of proteins co-immunoprecipitating with cytoplasmic AIRE, we identified a novel association of AIRE with the intermediate filament protein cytokeratin 17 (K17) in the THP-1 monocyte cell line. We confirmed AIRE expression in HaCaT epidermal keratinocytes, as well as its interaction with K17. Confocal microscopy of human fetal and adult scalp hair follicles demonstrated a cytoplasmic pattern of AIRE staining that moderately colocalized with K17. The cytoplasmic association of AIRE with the intermediate filament network in human epidermal and follicular keratinocytes may provide a new path to understanding the ectodermal abnormalities associated with the APECED syndrome. (Am J Pathol 2011, 178:983-988; DOI: 10.1016/j.ajpath.2010.12.007)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Detta examensarbete på magisternivå genomfördes med MaserFrakt som uppdragsgivare. Målet var att skapa en möjlighet till att ersätta dagens pappersavi med ett SMS. Detta har vi uppnått genom att utveckla en webbaserad prototyp som kan ersätta utskriften och utskicket av avin genom att skicka ut ett fördefinierat SMS. Att pappersavin ersätts av ett SMS tjänar både MaserFrakt och deras kunder på eftersom det leder till snabbare leverans för kunderna och dessutom minskar MaserFrakt sitt godslager och sänker sina utskickskostnader då ett SMS är billigare att skicka än ett brev.Vi har även undersökt möjligheterna till en ännu tidigare avisering där SMS:et skulle gå ut redan innan godset fysiskt inkommer till MaserFrakt. Detta kom vi fram till skulle kunna vara fullt genomförbart även om man skulle vara tvungen att genomföra ett antal förändringar, till exempel skulle relationen med samarbetetspartnern DFDS behöva förstärkas så att MaserFrakt får en bättre tillgång till deras system.Vårt tillvägagångssätt har för den teoretiska delen av arbetet byggt på kvalitativa intervjuer och inläsning av olika befintliga teorier inom mobilitet, IT-tjänster, systemarkitektur samt analys av teorierna. För det praktiska framtagandet av prototypen har vi använt oss av utvalda delar ifrån David Siegels modell som beskriver hur man utvecklar webbsidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uppsatsen visar resultatet av en kartläggning och analys av datakvaliteten i databasen Vägdatabanken på Vägverket. Vi har studerat datakvaliteten som den visar sig hos slutanvändarna, i detta fall de som upphandlar drift och underhåll av statliga vägar. Målet var att se hur väl Vägverkets krav på data stämmer överens med användarnas behov. För att nå målet skapades en modell med sju faser. Centralt var kartläggningen av verksamheten med hjälp av intervjuer, som blev grunden för vidare analyser. En egen modell var nödvändig eftersom arbetssättet, att utgå från användarna, inte är det vedertagna sättet att undersöka datakvalitet.Resultatet visar en rad kostnader som kan härröras till bristande datakvalitet varav många är dolda. Trovärdigheten är viktig i samband med datakvalitet. Användarna litar inte på data vilket skapar direkta kostnader, merarbete med mera. Det beror i sin tur på att det brister i insamlingen av data. Ett problem är att en rad olika arbetssätt och förhållningssätt till data i Vägdatabanken förekommer. Därför rekommenderas att Vägverket beslutar vilket arbetssätt som är ekonomiskt och funktionellt bäst.Syftet var att beskriva begreppet datakvalitet. Resultatet av praktiskt arbete och teoretiska studier ger definitionen "Datakvalitet är datas förmåga att vara förståelig och trovärdig samt tillräckligt väl uppfylla användarens behov".