12 resultados para Computerprogramm
Resumo:
Die Qualität ökologischer Produkte wird über den Prozess und nicht am Produkt selbst bestimmt. Die zunehmende Nachfrage nach ökologischen Produkten fordert Methoden, die den Prozess am Produkt zeigen (Authentizitätsprüfung). Eine Literaturstudie für die vorliegende Habilitationsschrift ergab, dass ganzheitliche Verfahren sich dazu besonders eignen. Zu solchen ganzheitlichen Verfahren gehört die Biokristallisation. Bei diesem Verfahren kristallisiert eine Mischung aus Probe und CuCl2 auf einer Glasplatte zu einem Bild, das sowohl visuell, als auch computergestützt ausgewertet werden kann. Es wurden zunächst alle Schritte im Labor dokumentiert und entsprechende Standardarbeitsanweisungen erstellt. Mit einem eigens entwickelten Computerprogramm werden die Bedingungen während der Probenaufbereitung und Kristallisation für jede Probe und jedes Bild erfasst. Mit einer Texturanalyse können auch die für diese Arbeiten erstellte große Menge an Bildern ausgewertet und die Ergebnisse statistisch bearbeitet werden. Damit ist es möglich das Verfahren und Methoden für Weizen- und Möhrenproben zu charakterisieren. Es wurden verschiedene Einflussgrößen untersucht. Das Verfahren ist besonders gegenüber Änderungen in der Probenvorbereitung (z.B. Vermahlung, Mischungsverhältnis) empfindlich. Es wurde sowohl die Methodenstreuung, als auch der Anteil einzelner Schritte an der Gesamtstreuung für Weizen-, Möhren- und Apfelproben ermittelt. Die Verdampfung und Kristallisation hat den größten Anteil an der Gesamtstreuung. Die Durchführung eines Laboreignungstests zeigte, dass die so dokumentierten und charakterisierten Methoden in anderen Laboratorien erfolgreich eingesetzt werden können. Das Verfahren wurde für die nominale Unterscheidung von Weizen-, Möhren- und Apfelproben aus unterschiedlichem Anbau und Verarbeitungsschritten eingesetzt. Weizen-, Möhren- und Apfelproben aus definiertem Anbau können signifikant unterschieden werden. Weizen-, Möhren- und Apfelproben vom Erzeuger (Markt) konnten im Paarvergleich (ökologisch, konventionell) teilweise signifikant getrennt werden. Das Verfahren ist auch für die Charakterisierung von verarbeiteten Proben einsetzbar. Es konnte der Einfluss von Saftherstellung, Erwärmung und Alterung signifikant gezeigt werden. Darüber hinaus lässt sich das Verfahren auf weitere Probenarten anwenden. Das Verfahren arbeitet ganzheitlich, d.h. es werden keine Einzelstoffe analytisch bestimmt, sondern als Ergebnis wird ein Bild erhalten. Die Textur- und Struktureigenschaften dieses Bildes können mit standardisierten Methoden ausgewertet werden.
Resumo:
Ziel der vorliegenden Arbeit ist die Erhebung der Vorstellungen von Oberstufenschülern bezüglich der Zeitdimension in der Evolution. Daneben geht es um Vorstellungen zu Mechanismen und zu zentralen Ereignissen der Evolution. Einen wichtigen Schwerpunkt stellt der Vergleich der Vorstellungen zwischen deutschen und französischen Oberstufenschülern dar, mit dem Ziel, herauszufinden, ob und in welcher Form sich curriculare Unterschiede bemerkbar machen. In einem Seminar im Wintersemester 2008/2009 zum Thema „Evolutionsbiologie im Unterricht“ waren viele Studierende erstaunt darüber, wie schwer es ihnen fiel, die Zeiträume der Evolution erfahrbar zu machen. Aufgrund des durch diese Diskussion geweckten Interesses, die Vorstellungswelten der Schüler bezüglich der Zeiträume der Evolution zu erfassen, wurde die vorliegende quantitative Studie, die an eine qualitative zum Thema „Altersabhängige Schülervorstellungen zu Massensterbeereignissen in der Evolution. Eine Interviewstudie.“ anknüpft, aufgenommen. Zur Fragebogenentwicklung diente Literatur zur Forschungsmethode, aber auch Gespräche mit der Zielgruppe sowie die Daten der qualitativen Studie. Nach einem Probelauf und der Durchführung der Umfrage mit 158 deutschen und 129 französischen Schülern, wurden die Daten mit dem Computerprogramm SPSS ausgewertet. Selbst Schüler, in deren Unterricht Zeiträume der Evolution Thema war, verfügen nicht über realistische Vorstellungen, wie sich herausstellte, als sie diese benennen oder selbständig auf einem Zeitstrahl einzeichnen sollten. Allerdings hilft eine Veranschaulichung wie Kreisdiagramme bei realitätsnahen Einschätzungen. Gemäß des Lehrplans sind französische Schüler oft mit den Zeiträumen der Evolution im Unterricht konfrontiert. Trotzdem lassen sich bei ihnen keine realistischen Vorstellungen bezüglich der Zeitdimensionen vorfinden. Französische Schüler unterscheiden sich im Antwortverhalten von deutschen Schülern. Fragebögen der französischen Schüler vermitteln den Eindruck einer oberflächlichen Beantwortung. Die Lernenden scheinen sich nicht genau mit den Inhalten auseinandergesetzt zu haben, sie legen oft unreflektiert ihr Wissen oder ihre (teils unrealistischen) Vorstellungen dar. Zudem gehen französische Schüler eher als ihre deutschen Mitschüler den Arbeitsanweisungen nach. Bezüglich der Umstände, wie die Dinosaurier und andere Tiere ausgestorben sind, verfügen deutsche und französische Schüler über realistische Vorstellungen, was unter anderem auf die häufige Repräsentation in den Medien zurückgeführt wird. Überraschend viele Schüler stellen sich in Bezug auf die Menschwerdung verzweigte Stammeslinien vor, wobei finale Vorstellungen nur selten anzutreffen sind. Sie verfügen auch hier meist über realistische Vorstellungen. Es traten in der Untersuchung geschlechtsspezifische Unterschiede auf. Vorstellungen männlicher Schüler sind überwiegend realistischer als die der weiblichen Altersgenossen. Es ist abschließend anzumerken, dass Schüler aufgrund eines großen Interesses am Thema eine intensivere Behandlung des Themas Evolution im Biologieunterricht wünschen. Durch diese Untersuchung kommt es zu einem besseren Verständnis der Vorstellungswelten der Schüler bezüglich den Zeitdimensionen, den Mechanismen und zentralen Ereignissen der Evolution. Die Erkenntnisse können in der Unterrichtsvorbereitung und im Unterricht von Nutzen sein.
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.
Resumo:
In der vorliegenden Arbeit wurden die Blattmerkmale der Juglandaceen auf ihre systematische Verwertbarkeit hin untersucht. Ein Datensatz mit 62 Blattmerkmalen von 48 rezenten Juglandaceen-Arten wurde zusammengetragen. Zusätzlich wurden vier fossile Blattformen erfasst. Die fossilen Blätter stammen aus zwei Fundstätten des deutschen Eozäns. Der Datensatz wurde mit dem Computerprogramm MacClade® auf ein Phylogramm aus Manos und Stone (2001) übertragen (‚character mapping’). Zusätzlich wurde eine Hauptkomponentenanalyse mit dem Computerprogramm PAST® durchgeführt. Die meisten taxonomischen Einheiten der Juglandaceen konnten mithilfe des ‚character mapping’ wiedererkannt werden, die dafür verantwortlichen Blattmerkmale haben somit ihre systematische Signifikanz unter Beweis gestellt. Weiterhin konnte eine Evolutionstendenz des Induments belegt werden. Zwischen den ursprünglichen und den abgeleiteten Juglandaceen-Taxa ist eine zunehmende Differenzierung des Induments zu beobachten. Die fossilen Blattformen bildeten in der Hauptkomponentenanalyse eine eindeutig erkennbare Gruppierung, die von allen rezenten Taxa der Analyse separiert ist. Demnach lassen sie sich nicht durch einen Vergleich mit rezenten Blättern systematisch zuordnen. Die fossilen Blattformen der Juglandaceen bestätigen die hier belegte Evolutions-tendenz des Induments. Sie stehen mit ihren ursprünglichen Indumentstrukturen am Ausgangspunkt der Indumentevolution.
Resumo:
Thema: Quantifizierung von Steinschlagrisiken an Straßen Die Einschätzung eines bestehenden Steinschlagrisikos an Verkehrswegen ist in Gebirgs- und Mittelgebirgsregionen seit jeher eine Aufgabe, die mit verschiedensten Methoden und unterschiedlichem Aufwand bearbeitet wird. In der vorliegenden Untersuchung werden die maßgebenden Parameter zur Beschreibung einer Böschung aufgenommen und bewertet. Es wurde ein Arbeitsblatt entwickelt, in dem festgelegte Parameter erfasst werden, die teils mit Ankreuztechnik, teils mit der Eingabe von Daten, im Computer notiert werden. Das Arbeitsblatt umfasst vier Themenbereiche: Allgemeine Daten, Angaben zur Geometrie der Böschung, Angaben zum Verkehr und Angaben zum Gestein und Gebirge. Ein Computerprogramm, das auf der Basis der Software Excel von Microsoft erstellt wurde, vergibt nach der Dateneingabe Bewertungspunkte (1. Bewertungsschritt). Es werden Summen gebildet und die Teilbereiche bewertet (2. Bewertungsschritt). Jeder Teilbereich besitzt drei Bewertungsklassen. Die Verknüpfung der Bewertung der Teilbereiche Geometrische Angaben und Angaben zum Gestein und Gebirge stellt die eigentliche Risikoeinschätzung dar (3. Bewertungsschritt). Es gibt drei Einstufungen zur Beschreibung des Risikos: ð Der Verkehr ist durch Steinschlag sehr gering gefährdet. ð Der Verkehr ist durch Steinschlag gering gefährdet. Eine Detailüberprüfung muss erfolgen, da eine Gefährdung nicht auszuschließen ist. ð Der Verkehr ist gefährdet. Es besteht ein hohes Steinschlagrisiko. Bewertungen und Hinweise zu den Teilbereichen Allgemeine Daten und Angaben zum Verkehr kann der Anwender nach eigenem Ermessen zusätzlich nutzen. Die abschließende Risikoeinschätzung erfolgt durch den Anwender bzw. einen Sachverständigen.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
DcuS is a membrane-integral sensory histidine kinase involved in the DcuSR two-component regulatory system in Escherichia coli by regulating the gene expression of C4-dicarboxylate metabolism in response to external stimuli. How DcuS mediates the signal transduction across the membrane remains little understood. This study focused on the oligomerization and protein-protein interactions of DcuS by using quantitative Fluorescence Resonance Energy Transfer (FRET) spectroscopy. A quantitative FRET analysis for fluorescence spectroscopy has been developed in this study, consisting of three steps: (1) flexible background subtraction to yield background-free spectra, (2) a FRET quantification method to determine FRET efficiency (E) and donor fraction (fD = [donor] / ([donor]+[acceptor])) from the spectra, and (3) a model to determine the degree of oligomerization (interaction stoichiometry) in the protein complexes based on E vs. fD. The accuracy and applicability of this analysis was validated by theoretical simulations and experimental systems. These three steps were integrated into a computer procedure as an automatic quantitative FRET analysis which is easy, fast, and allows high-throughout to quantify FRET accurately and robustly, even in living cells. This method was subsequently applied to investigate oligomerization and protein-protein interactions, in particular in living cells. Cyan (CFP) and yellow fluorescent protein (YFP), two spectral variants of green fluorescent protein, were used as a donor-acceptor pair for in vivo measurements. Based on CFP- and YFP-fusions of non-interacting membrane proteins in the cell membrane, a minor FRET signal (E = 0.06 ± 0.01) can be regarded as an estimate of direct interaction between CFP and YFP moieties of fusion proteins co-localized in the cell membrane (false-positive). To confirm if the FRET occurrence is specific to the interaction of the investigated proteins, their FRET efficiency should be clearly above E = 0.06. The oligomeric state of DcuS was examined both in vivo (CFP/YFP) and in vitro (two different donor-acceptor pairs of organic dyes) by three independent experimental systems. The consistent occurrence of FRET in vitro and in vivo provides the evidence for the homo-dimerization of DcuS as full-length protein for the first time. Moreover, novel interactions (hetero-complexes) between DcuS and its functionally related proteins, citrate-specific sensor kinase CitA and aerobic dicarboxylate transporter DctA respectively, have been identified for the first time by intermolecular FRET in vivo. This analysis can be widely applied as a robust method to determine the interaction stoichiometry of protein complexes for other proteins of interest labeled with adequate fluorophores in vitro or in vivo.
Resumo:
In this thesis, we develop high precision tools for the simulation of slepton pair production processes at hadron colliders and apply them to phenomenological studies at the LHC. Our approach is based on the POWHEG method for the matching of next-to-leading order results in perturbation theory to parton showers. We calculate matrix elements for slepton pair production and for the production of a slepton pair in association with a jet perturbatively at next-to-leading order in supersymmetric quantum chromodynamics. Both processes are subsequently implemented in the POWHEG BOX, a publicly available software tool that contains general parts of the POWHEG matching scheme. We investigate phenomenological consequences of our calculations in several setups that respect experimental exclusion limits for supersymmetric particles and provide precise predictions for slepton signatures at the LHC. The inclusion of QCD emissions in the partonic matrix elements allows for an accurate description of hard jets. Interfacing our codes to the multi-purpose Monte-Carlo event generator PYTHIA, we simulate parton showers and slepton decays in fully exclusive events. Advanced kinematical variables and specific search strategies are examined as means for slepton discovery in experimentally challenging setups.
Resumo:
Der Artikel beschreibt Versuche zur Bestimmung der Dauerfestigkeit von Kunststoff-Gleitketten auf Prüfmaschine und Testförderstrecken. Es werden die ermittelten Kennwerte dargestellt und ein Ansatz zur rechnerischen Abschätzung der Lebensdauer vorgeschlagen. Abschließend wird ein Computerprogramm zur einfachen Dimensionierung von Gleitketten-Fördersystemen auf Grundlage der Ergebnisse vorgestellt.
Resumo:
After 20 years of silence, two recent references from the Czech Republic (Bezpečnostní softwarová asociace, Case C-393/09) and from the English High Court (SAS Institute, Case C-406/10) touch upon several questions that are fundamental for the extent of copyright protection for software under the Computer Program Directive 91/25 (now 2009/24) and the Information Society Directive 2001/29. In Case C-393/09, the European Court of Justice held that “the object of the protection conferred by that directive is the expression in any form of a computer program which permits reproduction in different computer languages, such as the source code and the object code.” As “any form of expression of a computer program must be protected from the moment when its reproduction would engender the reproduction of the computer program itself, thus enabling the computer to perform its task,” a graphical user interface (GUI) is not protected under the Computer Program Directive, as it does “not enable the reproduction of that computer program, but merely constitutes one element of that program by means of which users make use of the features of that program.” While the definition of computer program and the exclusion of GUIs mirror earlier jurisprudence in the Member States and therefore do not come as a surprise, the main significance of Case C-393/09 lies in its interpretation of the Information Society Directive. In confirming that a GUI “can, as a work, be protected by copyright if it is its author’s own intellectual creation,” the ECJ continues the Europeanization of the definition of “work” which began in Infopaq (Case C-5/08). Moreover, the Court elaborated this concept further by excluding expressions from copyright protection which are dictated by their technical function. Even more importantly, the ECJ held that a television broadcasting of a GUI does not constitute a communication to the public, as the individuals cannot have access to the “essential element characterising the interface,” i.e., the interaction with the user. The exclusion of elements dictated by technical functions from copyright protection and the interpretation of the right of communication to the public with reference to the “essential element characterising” the work may be seen as welcome limitations of copyright protection in the interest of a free public domain which were not yet apparent in Infopaq. While Case C-393/09 has given a first definition of the computer program, the pending reference in Case C-406/10 is likely to clarify the scope of protection against nonliteral copying, namely in how far the protection extends beyond the text of the source code to the design of a computer program and where the limits of protection lie as regards the functionality of a program and mere “principles and ideas.” In light of the travaux préparatoires, it is submitted that the ECJ is also likely to grant protection for the design of a computer program, while excluding both the functionality and underlying principles and ideas from protection under the European copyright directives.
Resumo:
Ökobilanzierung von Produktsystemen dient der Abschätzung ihrer Wirkung auf die Umwelt. Eine vollständige Lebenswegbetrachtung erfordert auch die Einbeziehung intralogistischer Transportprozesse bzw. -mittel. Für die Erstellung von Ökobilanzen wird i. d. R. ein Computerprogramm verwendet. Die Demoversionen dreier kommerzieller Softwarelösungen (SimaPro, GaBi und Umberto NXT LCA) und die Vollversion einer Open Source Software (openLCA) wurden aus softwareergonomischer Sicht analysiert. Hierzu erfolgte u. a. der Nachbau der bereitgestellten Tutorials bzw. die Modellierung eigener Produktsysteme. Im Rahmen der Analyse wurden die Punkte • Entstehung, Verbreitung, Zielgruppe, • Eignung der Tutorials, Erlernbarkeit, • Grafische Benutzeroberfläche, Individualisierbarkeit der Software, • Umsetzung der Anforderungen aus den Ökobilanzierungsnormen, • Notwendige Arbeitsschritte zur Erstellung einer Ökobilanz einer vergleichenden Betrachtung unterzogen. Der Beitrag beinhaltet eine Einführung in die wesentlichen Prinzipien der Ökobilanzierung und die Grundsätze der Softwareergonomie. Diese werden zu softwareergonomischen Eigenschaften für Ökobilanzsoftwarelösungen subsumiert. Anschließend werden die Ergebnisse des Softwarevergleiches dargestellt. Abschließend erfolgt eine Zusammenfassung der Erkenntnisse.
Resumo:
In this paper we envision didactical concepts for university education based on self-responsible and project-based learning and outline principles of adequate technical support. We use the scenario technique describing how a fictive student named Anna organizes her studies of informatics at a fictive university from the first days of her studies to make a career for herself.(DIPF/Orig.)