901 resultados para design or documentation process


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Issu de la rencontre entre les disciplines de l’architecture intérieure et de la stratégie de marque et développé en réponse au raffinement de l’offre et des nouveaux modes de consommation, le design expérientiel présente un champ de pratique émergent qui tend vers la communication d’une expérience client marquante et immersive à travers l’environnement commercial. Bien que le sujet soit richement documenté par le domaine du marketing, il est apparu qu’il l’est moins par celui de l’aménagement. En effet, peu d’études démontrent concrètement la façon d’aménager l’espace marchand dans le contexte de la pratique du design expérientiel ou cherchent à mettre en lumière son empreinte physique sur l’environnement commercial. Cette recherche vise simultanément l’amélioration de la compréhension de la pratique émergente qu’est le design expérientiel ainsi que l’identification des caractéristiques environnementales propres aux espaces marchands qui en découlent. Dans la volonté de sonder le phénomène du design expérientiel tant dans la dimension conceptuelle de sa pratique que dans celle de son résultat bâti, la stratégie méthodologique de cette recherche repose sur la tenue d’entretiens semi-dirigés avec des professionnels basant leur pratique sur le design expérientiel et l’observation directe de trois projets commerciaux expérientiels reconnus. L’issue de cette recherche et les résultats extraits du terrain mèneront plutôt à relever l’existence d’un processus de conception caractéristique à la pratique ainsi que celle de concepts fondateurs qu’à identifier des éléments de l’aménagement intérieur propres aux environnements commerciaux en découlant. Nettement apparus au cours de l’étude, ce processus et la volonté de mettre sur pied une stratégie de communication solide semblent occuper une place plus importante dans la définition et la compréhension de la pratique du design expérientiel que les attributs de l’espace marchand comme tel.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette recherche s’inscrit dans la continuité de celles entreprises en vue d’éclaircir la question du processus de design, et plus spécialement le design architectural de la maison. Elle cherche aussi à développer la réflexivité du designer sur les actes qu’il pose en lui offrant un point de vue depuis l’angle de la psychanalyse. Elle vient rallonger les initiatives amenées par la troisième génération des recherches sur les méthodologies du design en s’intéressant à un volet, jusque-là, peu exploré : le processus inconscient du design architectural. Elle pose comme problématique la question des origines inconscientes du travail créatif chez le concepteur en architecture. La création étant un des sujets importants de la psychanalyse, plusieurs concepts psychanalytiques, comme la sublimation freudienne, l’abordent et tentent de l’expliquer. Le design étant une discipline de création, la psychanalyse peut nous renseigner sur le processus du design, et nous offrir la possibilité de l’observer et de l’approcher. La métaphore architecturale, utilisée pour rendre la théorie freudienne, est aussi le champ d’application de plusieurs théories et concepts psychanalytiques. L’architecture en général, et celle de la maison en particulier, en ce que cette dernière comporte comme investissement émotionnel personnel de la part de son concepteur, constructeur ou utilisateur, offrent un terrain où plusieurs des concepts psychanalytiques peuvent être observés et appliqués. Cette recherche va approcher l’exemple architectural selon les concepts développés par les trois théories psychanalytiques les plus importantes : freudienne, lacanienne et jungienne. L’application de ces concepts se fait par une "autoanalyse" qui met le designer en double posture : celle du sujet de la recherche et celle du chercheur, ce qui favorise hautement la réflexivité voulue. La libre association, une des méthodes de la psychanalyse, sera la première étape qui enclenchera le processus d’autoanalyse et l’accompagnera dans son développement. S’appliquant sur le discours et la forme de la maison, la libre association va chercher à distinguer plusieurs mécanismes psychiques susceptibles d’éclairer notre investigation. Les résultats de l’application des concepts freudiens viendront servir de base pour l’application, par la suite, des concepts de la théorie lacanienne et jungienne. Au terme de cette analyse, nous serions en mesure de présenter une modélisation du processus inconscient du design qui aurait conduit à la création de la maison prise en exemple. Nous découvrirons par cela la nature du processus inconscient qui précède et accompagne le travail créatif du designer. Nous verrons aussi comment ce processus se nourrit des expériences du designer qui remontent jusqu’aux premières années de son enfance. Ceci permettrait de rendre compte de la possibilité d’appliquer les concepts psychanalytiques sur le design architectural et, par ce fait, permettre de déterminer les éventuels façons de concevoir l’apport de la psychanalyse à la pratique de cette discipline qu’est le design ainsi que son enseignement.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La présente thèse porte sur l'utilité de la théorie de la fonctionnelle de la densité dans le design de polymères pour applications photovoltaïques. L'étude porte d'abord sur le rôle des calculs théoriques pour la caractérisation des polymères dans le cadre de collaborations entre la théorie et l'expérience. La stabilité et les niveaux énergétiques de certaines molécules organiques sont étudiés avant et après la sulfuration de leurs groupements carbonyles, un procédé destiné à diminuer le band gap. Les propriétés de dynamique électronique, de séparation des porteurs de charges et de spectres de vibrations Raman sont également explorées dans un polymère à base de polycarbazole. Par la suite, l'utilité des calculs théoriques dans le design de polymères avant leurs synthèses est considérée. La théorie de la fonctionnelle de la densité est étudiée dans le cadre du modèle de Scharber afin de prédire l'efficacité des cellules solaires organiques. Une nouvelle méthode de design de polymères à faible band gaps, basée sur la forme structurale aromatique ou quinoide est également présentée, dont l'efficacité surpasse l'approche actuelle de donneur-accepteur. Ces études sont mises à profit dans l'exploration de l'espace moléculaire et plusieurs candidats de polymères aux propriétés électroniques intéressantes sont présentés.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La littérature contient une abondance d’information sur les approches de design impliquant les utilisateurs. Bien que les chercheurs soulèvent de nombreux avantages concernant ces approches, on en sait peu sur ce que les concepteurs des entreprises en pensent. Ce projet a pour but de connaître les perceptions des concepteurs de produits quant aux outils de design participatif puis, d’identifier les opportunités et limites qu’ils évoquent à ce sujet, et finalement, de faire des suggestions d’outils qui faciliteraient l’introduction du design participatif dans un processus de design existant. Après avoir fait un survol du domaine du design participatif et de ses outils, six cas sont étudiés au moyen d’entrevues semi-dirigées conduites auprès de concepteurs de produits. Les données sont analysées à l’aide de cartes cognitives. En ce qui concerne les outils de design participatif, les participants rencontrés perçoivent un accès direct aux besoins des utilisateurs et la possibilité de minimiser les erreurs en début de processus donc, d’éviter les modifications coûteuses qu’elles auraient entraînées. Les obstacles perçus par les concepteurs sont principalement liés à la résistance au changement, à la crainte de laisser créer ou décider les utilisateurs, ainsi qu’au manque de temps et de ressources de l’équipe. Finalement, sur la base des informations collectées, nous suggérons quatre outils de design participatif qui semblent plus intéressants : l’enquête contextuelle, les sondes, les tests de prototypes et l’approche « lead user ». Pour faire suite à ce travail, il serait intéressant d’élaborer un protocole de recherche plus exhaustif pour augmenter la portée des résultats, ou encore, d’appliquer le design participatif, dans une entreprise, afin d’explorer la satisfaction des gens quant aux produits conçus, les effets collatéraux sur les équipes impliquées, l’évolution des prototypes ou le déroulement des ateliers.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper explores situations where tenants in public houses, in a specific neighborhood, are given the legislated right to buy the houses they live in or can choose to remain in their houses and pay the regulated rent. This type of legislation has been passed in many European countries in the last 30-35 years (the U.K. Housing Act 1980 is a leading example). The main objective with this type of legislation is to transfer the ownership of the houses from the public authority to the tenants. To achieve this goal, selling prices of the public houses are typically heavily subsidized. The legislating body then faces a trade-off between achieving the goals of the legislation and allocating the houses efficiently. This paper investigates this specific trade-off and identifies an allocation rule that is individually rational, equilibrium selecting, and group non-manipulable in a restricted preference domain that contains “almost all” preference profiles. In this restricted domain, the identified rule is the equilibrium selecting rule that transfers the maximum number of ownerships from the public authority to the tenants. This rule is preferred to the current U.K. system by both the existing tenants and the public authority. Finally, a dynamic process for finding the outcome of the identified rule, in a finite number of steps, is provided.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce document s’inscrit dans la foulée des préoccupations mondiales sur le devenir des villes au XXIe siècle. Il questionne les façons de faire qui contribuent à un développement de qualité des cadres de vie des citoyens. Les processus d’idéation de type atelier et charrette sont retenus en regard de leurs valeurs mobilisatrices et consensuelles qui répondent aux principes du développement durable. La problématique posée concerne l’adaptation de leur structure de fonctionnement au contexte local dans lequel il s’applique et de leur performance à induire les résultats escomptés. Une analyse comparative de trois études de cas révèle que le processus d’idéation se singularise en fonction des modalités de communication nécessaires pour progresser dans la démarche de planification des projets et conjointement à ceci, confirme que leur performance réside en leur capacité de rassembler l’ensemble des acteurs du projet en un même lieu. À l’issue de notre étude, nous fournissons un procédurier préliminaire pour diriger la mise en œuvre de processus d’idéation localement.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le 21e siècle est le berceau d’une conscientisation grandissante sur les impacts environnementaux des processus utilisés pour synthétiser des molécules cibles. Parmi les avancées qui ont marqué ces dernières décennies, il est également question de réduction de déchets, de conservation de l’énergie et de durabilité des innovations. Ces aspects constituent les lignes directrices de la chimie verte. De ce fait, il est impératif de développer des stratégies de synthèse dont les impacts environnementaux sont bénins. Dans ce mémoire nous présentons la synthèse, la caractérisation et l’étude des propriétés catalytiques en milieu aqueux d’un ligand composé d’une unité -cyclodextrine native, d’une unité imidazolium et d’une chaine alkyle à 12 carbones. Ce ligand hybride s’auto-assemble dans l’eau sous forme de micelles, permettant ainsi d’effectuer en sa présence des couplages de Suzuki-Miyaura dans l’eau, avec de bons rendements. La fonctionnalisation de la face primaire de la -cyclodextrine par un noyau alkyl-imidazolium, précurseur de ligand de type carbène N-hétérocyclique, a permis le développement d’un système catalytique vert et hautement recyclable. Dans un deuxième temps, nous présentons l’utilisation du même ligand hybride dans des couplages de Heck dans l’eau, démontrant ainsi la versatilité du ligand.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Si les principes d’utilisabilité guident la conception de solutions de design interactif pour s’assurer que celles-ci soient « utilisables », quels principes guident la conception d’objets interactifs pour s’assurer que l’expérience subjective de l’usager (UX) soit adéquate et mémorable? Que manque-t-il au cadre de l‘UX pour expliquer, comprendre, et anticiper en tant que designer une expérience mémorable (‘an experience’; Dewey, 1934)? La question centrale est issue d’une double problématique : (1) le cadre théorique de l’UX est incomplet, et (2) les processus et capacités des designers ne sont pas considérés et utilisés à leur pleine capacité en conception UX. Pour répondre à cette question, nous proposons de compléter les modèles de l’UX avec la notion d’expérience autotélique qui appartient principalement à deux cadres théoriques ayant bien cerné l’expérience subjective, soit l’expérience optimale (ou Flow) de Csikszentmihalyi (1988) et l’expérience esthétique selon Schaeffer (2001). L’autotélie est une dimension interne du Flow alors qu’elle couvre toute l’expérience esthétique. L’autotélie est une expérience d’éveil au moment même de l’interaction. Cette prise de conscience est accompagnée d’une imperceptible tension de vouloir faire durer ce moment pour faire durer le plaisir qu’il génère. Trois études exploratoires ont été faites, s’appuyant sur une analyse faite à partir d’un cadre théorique en trois parties : le Flow, les signes d’activité non verbale (les gestes physiques) et verbale (le discours) ont été évalués pour voir comment ceux-ci s’associent. Nos résultats tendent à prouver que les processus spatiaux jouent un rôle de premier plan dans l’expérience autotélique et par conséquent dans une UX optimale. De plus, ils suggèrent que les expériences pragmatique et autotélique sont ancrées dans un seul et même contenu, et que leur différence tient au type d’attention que le participant porte sur l’interaction, l’attention ordinaire ou de type autotélique. Ces résultats nous ont menés à proposer un modèle pour la conception UX. L’élément nouveau, resté jusqu’alors inaperçu, consiste à s’assurer que l’interface (au sens large) appelle une attitude réceptive à l’inattendu, pour qu’une information puisse déclencher les processus spatiaux, offrant une opportunité de passer de l’attention ordinaire à l’attention autotélique. Le nouveau modèle ouvre la porte à une meilleure valorisation des habiletés et processus du designer au sein de l’équipe multidisciplinaire en conception UX.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

To ensure quality of machined products at minimum machining costs and maximum machining effectiveness, it is very important to select optimum parameters when metal cutting machine tools are employed. Traditionally, the experience of the operator plays a major role in the selection of optimum metal cutting conditions. However, attaining optimum values each time by even a skilled operator is difficult. The non-linear nature of the machining process has compelled engineers to search for more effective methods to attain optimization. The design objective preceding most engineering design activities is simply to minimize the cost of production or to maximize the production efficiency. The main aim of research work reported here is to build robust optimization algorithms by exploiting ideas that nature has to offer from its backyard and using it to solve real world optimization problems in manufacturing processes.In this thesis, after conducting an exhaustive literature review, several optimization techniques used in various manufacturing processes have been identified. The selection of optimal cutting parameters, like depth of cut, feed and speed is a very important issue for every machining process. Experiments have been designed using Taguchi technique and dry turning of SS420 has been performed on Kirlosker turn master 35 lathe. Analysis using S/N and ANOVA were performed to find the optimum level and percentage of contribution of each parameter. By using S/N analysis the optimum machining parameters from the experimentation is obtained.Optimization algorithms begin with one or more design solutions supplied by the user and then iteratively check new design solutions, relative search spaces in order to achieve the true optimum solution. A mathematical model has been developed using response surface analysis for surface roughness and the model was validated using published results from literature.Methodologies in optimization such as Simulated annealing (SA), Particle Swarm Optimization (PSO), Conventional Genetic Algorithm (CGA) and Improved Genetic Algorithm (IGA) are applied to optimize machining parameters while dry turning of SS420 material. All the above algorithms were tested for their efficiency, robustness and accuracy and observe how they often outperform conventional optimization method applied to difficult real world problems. The SA, PSO, CGA and IGA codes were developed using MATLAB. For each evolutionary algorithmic method, optimum cutting conditions are provided to achieve better surface finish.The computational results using SA clearly demonstrated that the proposed solution procedure is quite capable in solving such complicated problems effectively and efficiently. Particle Swarm Optimization (PSO) is a relatively recent heuristic search method whose mechanics are inspired by the swarming or collaborative behavior of biological populations. From the results it has been observed that PSO provides better results and also more computationally efficient.Based on the results obtained using CGA and IGA for the optimization of machining process, the proposed IGA provides better results than the conventional GA. The improved genetic algorithm incorporating a stochastic crossover technique and an artificial initial population scheme is developed to provide a faster search mechanism. Finally, a comparison among these algorithms were made for the specific example of dry turning of SS 420 material and arriving at optimum machining parameters of feed, cutting speed, depth of cut and tool nose radius for minimum surface roughness as the criterion. To summarize, the research work fills in conspicuous gaps between research prototypes and industry requirements, by simulating evolutionary procedures seen in nature that optimize its own systems.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this introduction part, importance has been given to the elastomeric properties of polyurethanes. Emphasis has been laid to this property based on microphase separation and how this could be modified by modifying the segment lengths, as well as the structure of the segments. Implication was also made on the mechanical and thermal properties of these copolymers based on various analytical methods usually used for characterization of polymers. A brief overview of the challenges faced by the polyurethane chemistry was also done, pointing to the fact that though polyurethane industry is more than 75 years old, still a lot of questions remain unanswered, that too mostly in the synthesis of polyurethanes. A major challenge in this industry is the utilization of more environmental friendly “Green Chemistry Routes” for the synthesis of polyurethanes which are devoid of any isocyanates or harsh solvents.The research work in this thesis was focused to develop non-isocyanate green chemical process for polyurethanes and also self-organize the resultant novel polymers into nano-materials. The thesis was focused on the following three major aspects:(i) Design and development of novel melt transurethane process for polyurethanes under non-isocyanate and solvent free melt condition. (ii) Solvent induced self-organization of the novel cycloaliphatic polyurethanes prepared by the melt transurethane process into microporous templates and nano-sized polymeric hexagons and spheres. (iii) Novel polyurethane-oligophenylenevinylene random block copolymer nano-materials and their photoluminescence properties. The second chapter of the thesis gives an elaborate discussion on the “Novel Melt Transurethane Process ” for the synthesis of polyurethanes under non-isocyanate and solvent free melt condition. The polycondensation reaction was carried out between equimolar amounts of a di-urethane monomer and a diol in the presence of a catalyst under melt condition to produce polyurethanes followed by the removal of low boiling alcohol from equilibrium. The polymers synthesized through this green chemical route were found to be soluble (devoid of any cross links), thermally stable and free from any isocyanate entities. The polymerization reaction was confirmed by various analytical techniques with specific references to the extent of reaction which is the main watchful point for any successful polymerization reaction. The mechanistic aspects of the reaction were another point of consideration for the novel polymerization route which was successfully dealt with by performing various model reactions. Since this route was successful enough in synthesizing polyurethanes with novel structures, they were employed for the solvent induced self-organization which is an important area of research in the polymer world in the present scenario. Chapter three mesmerizes the reader with multitudes of morphologies depending upon the chemical backbone structure of the polyurethane as well as on the nature and amount of various solvents employed for the self-organization tactics. The rationale towards these morphologies-“Hydrogen Bonding ” have been systematically probed by various techniques. These polyurethanes were then tagged with luminescent 0ligo(phenylene vinylene) units and the effects of these OPV blocks on the morphology of the polyurethanes were analyzed in chapter four. These blocks have resulted in the formation of novel “Blue Luminescent Balls” which could find various applications in optoelectronic devices as well as delivery vehicles.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The main focus of the present study was to develop ideal low band gap D-A copolymers for photoconducting and non-linear optical applications. This chapter summarizes the overall research work done. Designed copolymers were synthesized via direct arylation or Suzuki coupling reactions. Copolymers were characterized by theoretical and experimental methods. The suitability of these copolymers in photoconducting and optical limiting devices has been investigated.The results suggest that the copolymers investigated in the present study have a good non-linear optical response and are comparable to or even better than the D-A copolymers reported in the literature and hence could be chosen as ideal candidates with potential applications for non-linear optics. The results also show that the structures of the polymers have great impact on NLO properties. Copolymers studied here exhibits good optical limiting property at 532 nm wavelength due to two-photon absorption (TPA) process. The results revealed that the two copolymers, (P(EDOT-BTSe) and P(PH-TZ)) exhibited strong two-photon absorption and superior optical power limiting properties, which are much better than that of others.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------