8 resultados para Computer-aided programming
em Universit
Resumo:
Im Rahmen der Arbeit wird den Fragen nachgegangen, inwiefern der Konsum von Öko-Lebensmitteln in Familien mit Kindern im zeitlichen Verlauf Veränderungen unterliegt und worin Veränderungen im Öko-Lebensmittelkonsum in Familien mit Kindern begründet sind. Aus den hierzu gewonnenen Erkenntnissen werden Schlussfolgerungen für die Konsumentenforschung und das Marketing von Öko-Produkten gezogen. Theoretische Grundlage stellen der Familienzyklus sowie Forschungsergebnisse zum Konsumentenverhalten in Familien und zum Konsum von Öko-Lebensmitteln in Familien dar. Für die empirische Bearbeitung der Forschungsfragen wurde ein qualitatives Forschungsdesign gewählt. Der Forschungsprozess gliederte sich in drei Wellen der Datenerhebung und -auswertung. Im Rahmen dessen wurden Eltern mithilfe problemzentrierter Interviews zur Entwicklung des Öko-Konsums in ihren Familien befragt. Die Interviews wurden computergestützt und in Anlehnung an die Kodierprozeduren offenes und axiales Kodieren der Grounded Theory ausgewertet. Ergebnis der Datenanalyse sind drei Zusammenhangsmodelle, die zu einer Erklärung von Veränderungen im Öko-Lebensmittelkonsum von Familien beitragen. Veränderungen können demnach erstens in einer Erhöhung der Konsumintensität während einer Schwangerschaft bestehen. Als Bedingungen hierfür konnten ein verstärktes Bewusstsein für Öko-Produkte, die körperliche Konstitution der Mutter sowie die Unterstützung durch die soziale Umwelt identifiziert werden. Weitere Bedingungen stellen Lebensmittelskandale sowie eine gute Verfügbarkeit von Öko-Produkten dar. Handlungsstrategien der Eltern beziehen sich auf das Wohlergehen des noch ungeborenen Kindes (Förderung der Gesundheit, Erhalten der zukünftigen Lebenswelt, Orientierung für die spätere Ernährung des Kindes) sowie auf das Wohlergehen der werdenden Mutter (Förderung der Gesundheit, Förderung des Wohlbefindens, Umgang mit schwangerschaftsbedingten Beschwerden). Zweitens können Veränderungen des Öko-Lebensmittelkonsums in einer Erhöhung der Konsumintensität ab dem Zeitpunkt der Umstellung der Ernährung eines Kindes auf eine Beikosternährung bestehen. Bedingungen hierfür sind eine verstärkte Beachtung von Öko-Produkten, die körperliche Konstitution des Kindes, die Abstimmung von Familien- und Baby-Kost, der Austausch mit und die Unterstützung durch die soziale Umwelt sowie der Wunsch von Eltern, einen Beitrag zum Öko-Landbau zu liefern. Bedingungen können außerdem eine gute Verfügbarkeit von Öko-Produkten sowie der Einfluss von Medien darstellen. Handlungsstrategien der Eltern beziehen sich auf die Ernährung des Kindes (Förderung der Gesundheit, Förderung der Geschmackssozialisation) und auf die Ernährung der restlichen Familie (effiziente Beschaffung und Verwendung von Lebensmitteln, Förderung des Wohlbefindens der Eltern). Drittens können Veränderungen im Öko-Lebensmittelkonsum in Familien in einem Rückgang der Konsumintensität während des Übergangs von Kindern ins Jugendalter bestehen. Bedingungen hierfür bestehen in der Konsequenz, mit der Eltern konventionellen Lebensmittelwünschen ihrer Kinder nachgeben, in der Beurteilung von Lebensmitteln durch die Eltern sowie in der Intensität, mit der Kinder ihre Wünsche einfordern. Handlungsstrategien der Eltern sind darauf ausgerichtet Kindern einen Wunsch zu erfüllen, sich gegenüber diesen liberal zu verhalten, Konflikte mit Kindern zu vermeiden oder diese ihre eigenen Erfahrungen sammeln zu lassen. Die Ergebnisse tragen zu einer theoretischen Fundierung des Zusammenhangs zwischen Familienzyklus und dem Öko-Lebensmittelkonsum in Familien bei und zeigen, dass dieser ein sinnvolles theoretisches Bezugssystem für Veränderungen der Konsumintensität von Öko-Produkten darstellt. Für die Konsumentenforschung tragen die Ergebnisse zu einem differenzierten Verständnis von Ober- und Untergrenzen von Familienzyklusstadien bei. Es zeigt sich weiterhin, dass Veränderungen des Öko-Konsums unter anderem unter dem Einfluss der sozialen Umwelt stehen. Im Hinblick auf das Marketing kann insbesondere geschlussfolgert werden, dass bei bestimmten Produktkategorien die Bedürfnisse jugendlicher Zielgruppen verstärkt berücksichtigt werden sollten. Zur Bindung junger Familien ist darauf hinzuwirken, einen Mehraufwand bei der Beschaffung von Öko-Produkten auszuschließen. Für die Ansprache der Zielgruppe Schwangere erscheinen Kommunikationsbotschaften geeignet, die sich auf das Wohlbefinden von Kind und Mutter und auf Nachhaltigkeitsaspekte beziehen. Eltern mit Kindern im Übergang zu einer Beikosternährung könnten gezielt durch Kommunikationsbotschaften angesprochen werden, die in Zusammenhang mit der Förderung der Gesundheit und der Geschmacksozialisation von Kindern stehen.
Resumo:
The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.
Resumo:
Zusammenfassung: Ziel der Arbeit ist den Sinn von Schauder philosophisch zu erhellen. An einem Einzelphänomen, wie es so bisher nicht behandelt wurde, wird zugleich das Geflecht von Affekt/Emotion/Gefühl, gestützt auf Hegel, Heidegger, Husserl, Freud und Lacan, in immer neuen Ansätzen kritisch reflektiert und Zug um Zug mit Derrida dekonstruiert. In einem Textverfahren, das sich auch grafisch durch gegenübergestellte Kolumnen auszeichnet, werden heterogene Ansätze zum Sinn von Schauder mit dekonstruktivistischen Einsichten konfrontiert. Die Ansätze, Schauder über Datum, Begriff, Phänomen oder Strukturelement bestimmen zu wollen, durchdringen sich dabei mit denjenigen, die sich einer solchen Bestimmung entziehen (Hegels Negativität, Heideggers Seinsentzug oder Lacans Signifikantenmangel). Am Fokus Schauder, an dem sich das Fiktive einer mit sich selbst identischen Präsenz besonders eindringlich darstellt, werden so spezifische Aporien der Metaphysik der Präsenz entfaltet und die Geschlossenheit logozentristischer Systeme in die Bewegung einer anderen Öffnung und Schließung im Sinn der Schrift bzw. des allgemeinen Textes transformiert. Neben der différance, dem Entzug der Metapher, dem Supplement und dem Gespenstischen stützt sich die Arbeit auf die Iterabilität, bei der im selben Zug die Identität des Sinns gestiftet und zerstreut wird (Dissemination). Im Kapitel Piloerection werden Ambivalenzen und Paradoxien des Schauders am Beispiel von computergestützten empirisch-psychologischen Studien aufgezeigt. Im Kapitel Atopologie des Schauders prädikative, propositionale und topologische Bedingungen zum Sinn von Schauder analysiert und dekonstruiert. Ebenso, im Folgekapitel Etymon, etymologische und technisch-mediale Bedingungen. Im Schlußkapitel Maß, Anmaß, Unmaß der Empfindung des Schauders wird am Beispiel der konkreten Beiträge zum Schauder von Aristoteles, Kant, Fechner, Otto, Klages, Lorenz und Adorno aufgezeigt, dass (1) ein Schauder nicht von einem Außen aus an-gemessen werden kann, (2) sich im Schauder die metaphysische Opposition von Fiktion und Realität in einer Unentscheidbarkeit zerstreut, (3) dass trotz der Heterogenität der Ansätze in diesen Beiträgen eine Komplizenschaft zum Ausdruck kommt: ein Begehren nach Präsenz, das durch den Ausschluß des Anderen zugleich die Gewalt des Einen produziert, (4) dass der Signifikant Schauder, der selbst in Abwesenheit eines Referenten, eines bestimmten Signifikats, einer aktuellen Bedeutungsintention, eines Senders oder Empfängers funktioniert, als verändertes Zurückbleiben eines differenzieller Zeichens betrachtet werden muss, als Effekt von Spuren, die sich nur in ihrem eigenen Auslöschen ereignen. Die Arbeit schließt mit dem Vorschlag, Spüren jenseits von Arché, Telos oder Eschaton, jenseits eines Phallogozentrismus in der derridaschen Spur zu denken. Nicht zuletzt über diese Pfropfung, wie sie im Französischen [trace] so nicht möglich ist, schließt sie als deutschsprachiger Beitrag an sein Werk an.
Resumo:
This paper describes our plans to evaluate the present state of affairs concerning parallel programming and its systems. Three subprojects are proposed: a survey among programmers and scientists, a comparison of parallel programming systems using a standard set of test programs, and a wiki resource for the parallel programming community - the Parawiki. We would like to invite you to participate and turn these subprojects into true community efforts.
Resumo:
In this publication, we report on an online survey that was carried out among parallel programmers. More than 250 people worldwide have submitted answers to our questions, and their responses are analyzed here. Although not statistically sound, the data we provide give useful insights about which parallel programming systems and languages are known and in actual use. For instance, the collected data indicate that for our survey group MPI and (to a lesser extent) C are the most widely used parallel programming system and language, respectively.
Resumo:
Genetic programming is known to provide good solutions for many problems like the evolution of network protocols and distributed algorithms. In such cases it is most likely a hardwired module of a design framework that assists the engineer to optimize specific aspects of the system to be developed. It provides its results in a fixed format through an internal interface. In this paper we show how the utility of genetic programming can be increased remarkably by isolating it as a component and integrating it into the model-driven software development process. Our genetic programming framework produces XMI-encoded UML models that can easily be loaded into widely available modeling tools which in turn posses code generation as well as additional analysis and test capabilities. We use the evolution of a distributed election algorithm as an example to illustrate how genetic programming can be combined with model-driven development. This example clearly illustrates the advantages of our approach – the generation of source code in different programming languages.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.