875 resultados para Graphic design Project
Resumo:
Work in the area of molecule-based magnetic and/or conducting materials is presented in two projects. The first project describes the use of 4,4’-bipyridine as a scaffold for the preparation of a new family of tetracarboxamide ligands. Four new ligands I-III have been prepared and characterized and the coordination chemistry of these ligands is presented. This project was then extended to exploit 4,4’-bipyridine as a covalent linker between two N3O2 macrocyles. In this respect, three dimeric macrocycles have been prepared IV-VI. Substitution of the labile axial ligands of the Co(II) complex IV by [Fe(CN)6]4- afforded the self-assembly of the 1-D polymeric chain {[Co(N3O2)H2O]2Fe(CN)6}n•3H2O that has been structurally and magnetically characterized. Magnetic studies on the Fe(II) complexes V and VI indicate that they undergo incomplete spin crossover transitions in the solid state. Strategies for the preparation of chiral spin crossover N3O2 macrocycles are discussed and the synthesis of the novel chiral Fe(II) macrocyclic complex VII is reported. Magnetic susceptibility and Mössbauer studies reveal that this complex undergoes a gradual spin crossover in the solid state with no thermal hysteresis. Variable temperature X-ray diffraction studies on single crystals of VII reveal interesting structural changes in the coordination geometry of the macrocycle accompanying its SCO transition. The second project reports the synthesis and characterization of a new family of tetrathiafulvalene derivatives VIII – XII, where a heterocyclic chelating ligand is appended to a TTF donor via an imine linker. The coordination chemistries of these ligands with M(hfac)2.H2O (M( = Co, Ni, Mn, Cu) have been explored and the structural and magnetic properties of these complexes are described.
Resumo:
This research study explored a support system for children with learning disabilities. The Learning Disabilities Association of Niagara Region (LDANR) recently expanded its Better Emotional and Social Times (B.E.S.T.) program to incorporate an innovative, character education initiative called the “Who is NOBODY?” program. The objective of this qualitative case study was two-fold. First, the study aimed to support the LDANR in assessing the efficacy of the “Who is NOBODY?” program, providing the LDANR with empirical support for their programs. Second, the study enabled a more in-depth understanding of how to best support children with LD in regards to their social and emotional well-being. The study explored the “Who is NOBODY?” program through three lenses: design, implementation, and experiences of participating children. Three primary themes emerged from these three data lenses: positive character traits, prosocial behaviour, and strong self-efficacy – leading to the promotion of strong character development and self-esteem. Taken together, the “Who is NOBODY?” program was shown to be a successful remediation program for supporting vulnerable children with LD.
Resumo:
This thesis describes two different approaches for the preparation of polynuclear clusters with interesting structural, magnetic and optical properties. Firstly, exploiting p-tert-butylcalix[4]arene (TBC4) macrocycles together with selected Ln(III) ions for the assembly of emissive single molecule magnets, and secondly the preparation and coordination of a chiral mpmH ligand with selected 3d transition metal ions, working towards the discovery of chiral polynuclear clusters. In Project 1, the coordination chemistry of the TBC4 macrocycle together with Dy(III) and Tb(III) afforded two Ln6[TBC4]2 complexes that have been structurally, magnetically and optically characterized. X-ray diffraction studies reveal that both complexes contain an octahedral core of Ln6 ions capped by two fully deprotonated TBC4 macrocycles. Although the unit cells of the two complexes are very similar, the coordination geometries of their Ln(III) ions are subtly different. Variable temperature ac magnetic susceptibility studies reveal that both complexes display single molecule magnet (SMM) behaviour in zero dc field and the energy barriers and associated pre-exponential factors for each relaxation process have been determined. Low temperature solid state photoluminescence studies reveal that both complexes are emissive; however, the f-f transitions within the Dy6 complex were masked by broad emissions from the TBC4 ligand. In contrast, the Tb(III) complex displayed green emission with the spectrum comprising four sharp bands corresponding to 5D4 → 7FJ transitions (where J = 3, 4, 5 and 6), highlighting that energy transfer from the TBC4 macrocycle to the Tb(III) ion is more effective than to Dy. Examples of zero field Tb(III) SMMs are scarce in the chemical literature and the Tb6[TBC4]2 complex represents the first example of a Tb(III) dual property SMM assembled from a p-tert-butylcalix[4]arene macrocycle with two magnetically derived energy barriers, Ueff of 79 and 63 K. In Project 2, the coordination of both enantiomers of the chiral ligand, α-methyl-2-pyridinemethanol (mpmH) to Ni(II) and Co(II) afforded three polynuclear clusters that have been structurally and magnetically characterized. The first complex, a Ni4 cluster of stoichiometry [Ni4(O2CCMe3)4(mpm)4]·H2O crystallizes in a distorted cubane topology that is well known in Ni(II) cluster chemistry. The final two Co(II) complexes crystallize as a linear mixed valence trimer with stoichiometry [Co3(mpm)6]·(ClO4)2, and a Co4 mixed valence complex [Co(II)¬2Co(III)2(NO3)2(μ-mpm)4(ONO2)2], whose structural topology resembles that of a defective double cubane. All three complexes crystallize in chiral space groups and circular dichroism experiments further confirm that the chirality of the ligand has been transferred to the respective coordination complex. Magnetic susceptibility studies reveal that for all three complexes, there are competing ferro- and antiferromagnetic exchange interactions. The [Co(II)¬2Co(III)2(NO3)2(μ-mpm)4(ONO2)2] complex represents the first example of a chiral mixed valence Co4 cluster with a defective double cubane topology.
Resumo:
Le design urbain, dimension de la pratique urbanistique, consiste principalement en la manipulation de la forme urbaine selon une démarche ciblée et encadrée. Les approches sont aussi nombreuses que diversifiées. On peut néanmoins les classer en deux catégories : les approches visant la forme urbaine en tant qu‟objet qui contient l‟organisation formelle de la ville et celles qui visent le travail sur la forme urbaine afin d‟organiser la dynamique urbaine humaine. Les deux types d‟approches soutiennent différentes démarches d‟aménagement qui contribuent à développer la forme urbaine et la dynamique des lieux. Parmi celles-ci se trouve la vision de type empirique, laquelle vise l‟expérience urbaine à l‟échelle du piéton. Les écrits et les théories à ce sujet sont variés et pertinents. La présente recherche porte sur la transposition des prescriptions empiriques dans la planification d‟un projet qui intègre une démarche de design urbain. Au moyen d‟une étude de cas, la Cité multimédia à Montréal, il s‟agit de comprendre plus spécifiquement comment le canevas maître du design urbain, soit l‟espace public, est étudié et reformulé et ce, en accordant une attention particulière pour la dimension empirique du futur aménagement. Quelles sont les balises ou les composantes qui permettent à la dimension empirique de se déployer dans la conception d‟un projet urbain qui vise une reformulation de la forme urbaine?
Resumo:
Le tire-lait est un appareil conçu pour aider les mères durant l’allaitement. Selon la recherche préliminaire effectuée, c’est un thème très peu exploré dans les études; il est donc difficile d’affirmer si le produit répond correctement aux besoins reliés à son usage et à son utilité ou comment il s’intègre dans l’allaitement. Les fondements de l’étude exploratoire ont été bâtis sur ces enjeux dans le but de comprendre l’expérience d’usage du tire-lait. Inspirée de l’approche phénoménologique centrée sur l’usager, l’étude a permis d’amasser des données qualitatives à travers des entrevues semi-dirigées auprès de sept participantes. L’analyse de ces données a permis d’identifier les thèmes importants qui ont mené à des constats, rédigés dans une optique de design. L’étude a trouvé que c’est souvent quand la réalité de l’allaitement au sein rattrape les mères qu’elles vont vouloir se procurer un tire-lait, en s’inspirant des marques utilisées dans les hôpitaux par manque de temps. Le tire-lait devient alors principalement utile pour se désengorger et pour la liberté qu’il procure, s’intégrant dans une routine. Le tire-lait est par contre peu ergonomique; il semble y avoir un décalage entre le concept proposé et les manipulations réelles, notamment au niveau de la mise en marche, des bouteilles et des embouts. Ces résultats de l’étude pourraient être intégrés dans le tire-lait pour mieux représenter la réalité du contexte, de la pratique et de l’usage du produit. Ils pourraient ainsi nourrir le processus de conception dans un projet futur afin d’améliorer le design du tire-lait.
Resumo:
Les projets interdisciplinaires constituent rarement le terrain des études sur le processus de conception en design. Les théories générales du design, en tentant de définir ce qui est commun à toutes les disciplines du design, ont davantage étudié les cas typiques que les cas atypiques. Or, nous croyons qu’il existe dans les projets interdisciplinaires une négociation argumentative et une ouverture vers l’autre, propice à l’analyse du processus de conception en design. Pour réaliser l’étude de ce processus, la stratégie empruntée a été la «recherche-projet» qui propose une participation active sur le terrain. À l’intérieur de cette stratégie méthodologique, nous avons réalisé l’étude de cas d’un projet hybride, une signalétique identitaire destinée à marquer les écocentres montréalais et orienter leurs usagers. Comme plusieurs autres pratiques du design, la complexité des projets interdisciplinaires demande l’apport de plusieurs acteurs dans le processus. Ces personnes conçoivent le projet à travers des représentations visuelles et des échanges verbaux, nous avons choisi de faire porter notre étude principalement sur le second. Pour ce faire, nous avons choisi comme cadre théorique le Traité de l’argumentation de Chaïm Perelman et Lucie Olbrechts-Tyteca en nous intéressant plus spécifiquement aux concepts d’«accord» et d’«auditoire». Parce que le véhicule de l’action en design est la notion de «projet», l’Anthropologie du projet de Jean-Pierre Boutinet sera notre guide à travers cette conduite. L’objet de recherche de ce mémoire sera donc le processus de conception en design qui sera étudié à travers le regard de l’argumentation. L’argumentation s'est révélée la clé du problème que posent les jugements de valeur, commune à toutes les disciplines du design. Qu’est-ce qu’un «bon» projet réalisé? Est-il possible de répondre à cette question, sans tomber dans un cadre argumentatif, sans devoir révéler les arguments qui nous permettent de croire vraisemblable une telle proposition? C’est en mettant en lien la théorie du projet en design et la théorie de l’argumentation que nous avons éclairé la pratique du designer, sa relation à ses collègues et ultimement avec lui-même. L’argumentation s’est avérée un outil permettant la construction de la réalité dans le projet interdisciplinaire.
Resumo:
Le système de santé d'aujourd'hui fait appel à de nombreuses technologies de l'information nommées TIS (Technologies de l’Information en Santé). Celles-ci ont donné naissance à de nouvelles formes d’interaction médecin-patient et ont complexifié l'approche thérapeutique dite « centrée sur le patient ». Les TIS promettent une plus grande efficacité et l’augmentation de la satisfaction des patients par le biais d’une meilleure compréhension de la maladie pour le patient. Or, elles peuvent également devenir des sources de conflit pour le professionnel de la santé, étant donné leur utilisation en dehors des rencontres cliniques ainsi que leur tendance à agir comme des barrières communicationnelles lors des consultations. Cette recherche vise a étudier les critères de design nécessaires à la conception d’un TIS pouvant améliorer la relation médecin-patient et donc, faciliter la communication et améliorer l’alliance thérapeutique. L’étude utilise une approche centrée sur l’utilisateur et vise donc à comprendre les besoins et les attentes des médecins et des patients. En étudiant les nouvelles approches en santé et les TIS, il a été possible de comprendre le contexte et les besoins des utilisateurs en terme de communication. Ces derniers sont primordiaux au processus dit centré sur l’utilisateur. Le faible taux de rétention du discours du médecin devient une barrière communicationnelle importante, tout comme le temps pressurisé. La recherche nous montre que l’ajout d’un outil virtuel de vulgarisation peut, à l’aide de média visuels (tel que des modélisations, des animations 3D et des dessins), grandement aider la relation médecin-patient.
Resumo:
Ce document s’inscrit dans la foulée des préoccupations mondiales sur le devenir des villes au XXIe siècle. Il questionne les façons de faire qui contribuent à un développement de qualité des cadres de vie des citoyens. Les processus d’idéation de type atelier et charrette sont retenus en regard de leurs valeurs mobilisatrices et consensuelles qui répondent aux principes du développement durable. La problématique posée concerne l’adaptation de leur structure de fonctionnement au contexte local dans lequel il s’applique et de leur performance à induire les résultats escomptés. Une analyse comparative de trois études de cas révèle que le processus d’idéation se singularise en fonction des modalités de communication nécessaires pour progresser dans la démarche de planification des projets et conjointement à ceci, confirme que leur performance réside en leur capacité de rassembler l’ensemble des acteurs du projet en un même lieu. À l’issue de notre étude, nous fournissons un procédurier préliminaire pour diriger la mise en œuvre de processus d’idéation localement.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------
Resumo:
The next generations of both biological engineering and computer engineering demand that control be exerted at the molecular level. Creating, characterizing and controlling synthetic biological systems may provide us with the ability to build cells that are capable of a plethora of activities, from computation to synthesizing nanostructures. To develop these systems, we must have a set of tools not only for synthesizing systems, but also designing and simulating them. The BioJADE project provides a comprehensive, extensible design and simulation platform for synthetic biology. BioJADE is a graphical design tool built in Java, utilizing a database back end, and supports a range of simulations using an XML communication protocol. BioJADE currently supports a library of over 100 parts with which it can compile designs into actual DNA, and then generate synthesis instructions to build the physical parts. The BioJADE project contributes several tools to Synthetic Biology. BioJADE in itself is a powerful tool for synthetic biology designers. Additionally, we developed and now make use of a centralized BioBricks repository, which enables the sharing of BioBrick components between researchers, and vastly reduces the barriers to entry for aspiring Synthetic Biologists.
Resumo:
Caches are known to consume up to half of all system power in embedded processors. Co-optimizing performance and power of the cache subsystems is therefore an important step in the design of embedded systems, especially those employing application specific instruction processors. In this project, we propose an analytical cache model that succinctly captures the miss performance of an application over the entire cache parameter space. Unlike exhaustive trace driven simulation, our model requires that the program be simulated once so that a few key characteristics can be obtained. Using these application-dependent characteristics, the model can span the entire cache parameter space consisting of cache sizes, associativity and cache block sizes. In our unified model, we are able to cater for direct-mapped, set and fully associative instruction, data and unified caches. Validation against full trace-driven simulations shows that our model has a high degree of fidelity. Finally, we show how the model can be coupled with a power model for caches such that one can very quickly decide on pareto-optimal performance-power design points for rapid design space exploration.
Resumo:
This paper presents a first approach of Evaluation Engine Architecture (EEA) as proposal to support adaptive integral assessment, in the context of a virtual learning environment. The goal of our research is design an evaluation engine tool to assist in the whole assessment process within the A2UN@ project, linking that tool with the other key elements of a learning design (learning task, learning resources and learning support). The teachers would define the relation between knowledge, competencies, activities, resources and type of assessment. Providing this relation is possible obtain more accurate estimations of student's knowledge for adaptive evaluations and future recommendations. The process is supported by usage of educational standards and specifications and for an integral user modelling
Resumo:
Students taking the 20 credit version of the course (COMP6052) will work in groups of 6 to develop and design a new social networking tool/application/website. The teams will work on their design throughout the semester, and keep a design and development blog that will act as a digital portfolio of their work. At the end of the semester they will also be asked to submit an individual reflective summary that will outline their teams objectives and progress, their part in its progress, and a critical analysis of whether or not they were successful. At the end of the course teams will be asked to pitch their ideas to an interdisciplinary Dragon's Den style panel who will expect them to not only have created something that is technical viable, but will also want to see other economic, social, legal and ethical factors taken into consideration. In this presentation we explain the structure of the group project, what is expected in the blog, and explore some potential ideas to help students understand the scope of the work required. The outcome of the group project does not have to be a fully working piece of software, instead we are looking for a well developed idea that contains enough detail to be convincing to the panel.
Resumo:
Practising Open Education : Developing the Potential of Open Educational Resources in Art, Design and Media. A collection of materials uploaded as part of the OER project.