904 resultados para Optimisation of methods


Relevância:

90.00% 90.00%

Publicador:

Resumo:

For the past decades, educational large-scale reforms have been elaborated and implemented in many countries and often resulted in partial or complete failure. These results brought researchers to study policy processes in order to address this particular challenge. Studies on implementation processes brought to light an existing causal relationship between the implementation process and the effectiveness of a reform. This study aims to describe the implementation process of educational change in Finland, who produced efficient educational reforms over the last 50 years. The case study used for the purpose of this study is the national reform of undivided basic education (yhtenäinen peruskoulu) implemented in the end of the 1990s. Therefore, this research aims to describe how the Finnish undivided basic education reform was implemented. This research was carried out using a pluralist and structuralist approach of policy process and was analyzed according to the hybrid model of implementation process. The data were collected using a triangulation of methods, i.e. documentary research, interviews and questionnaires. The data were qualitative and were analyzed using content analysis methods. This study concludes that the undivided basic education reform was applied in a very decentralized manner, which is a reflection of the decentralized system present in Finland. Central authorities provided a clear vision of the purpose of the reform, but did not control the implementation process. They rather provided extensive support in the form of transmission of information and development of collaborative networks. Local authorities had complete autonomy in terms of decision-making and implementation process. Discussions, debates and decisions regarding implementation processes took place at the local level and included the participation of all actors present on the field. Implementation methods differ from a region to another, with is the consequence of the variation of the level of commitment of local actors but also the diversity of local realities. The reform was implemented according to existing structures and values, which means that it was in cohesion with the context in which it was implemented. These results cannot be generalized to all implementation processes of educational change in Finland but give a great insight of what could be the model used in Finland. Future studies could intent to confirm the model described here by studying other reforms that took place in Finland.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

For the past decades, educational large-scale reforms have been elaborated and implemented in many countries and often resulted in partial or complete failure. These results brought researchers to study policy processes in order to address this particular challenge. Studies on implementation processes brought to light an existing causal relationship between the implementation process and the effectiveness of a reform. This study aims to describe the implementation process of educational change in Finland, who produced efficient educational reforms over the last 50 years. The case study used for the purpose of this study is the national reform of undivided basic education (yhtenäinen peruskoulu) implemented in the end of the 1990s. Therefore, this research aims to describe how the Finnish undivided basic education reform was implemented. This research was carried out using a pluralist and structuralist approach of policy process and was analyzed according to the hybrid model of implementation process. The data were collected using a triangulation of methods, i.e. documentary research, interviews and questionnaires. The data were qualitative and were analyzed using content analysis methods. This study concludes that the undivided basic education reform was applied in a very decentralized manner, which is a reflection of the decentralized system present in Finland. Central authorities provided a clear vision of the purpose of the reform, but did not control the implementation process. They rather provided extensive support in the form of transmission of information and development of collaborative networks. Local authorities had complete autonomy in terms of decision-making and implementation process. Discussions, debates and decisions regarding implementation processes took place at the local level and included the participation of all actors present on the field. Implementation methods differ from a region to another, with is the consequence of the variation of the level of commitment of local actors but also the diversity of local realities. The reform was implemented according to existing structures and values, which means that it was in cohesion with the context in which it was implemented. These results cannot be generalized to all implementation processes of educational change in Finland but give a great insight of what could be the model used in Finland. Future studies could intent to confirm the model described here by studying other reforms that took place in Finland.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The User Experience (UX) designers are undoubtedly aware of how many UX design methods currently exist and that sometimes it becomes a problem to choose an appropriate one. What are all of methods that designers have in their “arsenal”? When can they use them? This thesis presents the research on the design methods in the contemporary context of User Experience (UX) and Innovations by using a survey approach. The study is limited to cover the domain of consumer mobile services development and provider companies around the world. The study follows 2 clear objectives: (1) to understand what design methods are currently used in that context and to what extent they are used (2) to identify at what stage according to the UX design thinking process for creating innovations they are placed. The study contributes to the research in the field of UX design and Innovations and extends the knowledge in that field together with communities’ (UXPA, SIGCHI, SIGSOFT) members’ cooperation. The research is vital due to lack of information on design practices and their application in the chosen context.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Value added services are becoming increasingly popular as they increase the perceived value of the core product and can be a strong method of attracting customers and motivating them to make a choice. The purpose of this research is to develop internet-based value added services for housing estate business in Russia. The research is a case study of Russian housing estate market utilising a triangulation of methods for better results. For the qualitative data analysis, 7 interviews with heads of regional departments of construction companies from different regions of Russia were conducted. For the quantitative data analysis, a survey of 128 inhabitants of Saint-Petersburg housing estates was held. Factor analysis and descriptive statistics including cross-tabulations and chi-square tests for significance were used to analyse the results. In this study, a list 19 value added services that can be provided through online platforms in housing estate market was developed. These services fall into three big groups: social networking services, compulsory and additional services. Additionally, the question of monetisation of online platforms in housing estate market was discussed and three business models were suggested.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

"I began these pages for myself, in order to think out my own particular pattern of living, my own individual balance of life, work and human relationships." Lindbergh (1983) p.9. In this thesis, I use self-study research as I focus on the topic of living legacy. This is a personal story, using narrative methodology and method as a means of uncovering and naming life lessons learned. I write to gain insight into my interpretation of the concept of living legacy - what living legacy means to me and why this concept is significant to me - and how living legacy impacts the person that I am in the present. Using a narrative lens, I inquire into stories that connect me to my spirit, my gender, education and theology, through my living legacy lessons, and I seek the impact these stories hold for me in my life today. I utilize a variety of methods including personal journals, course work, and arts-based research experiences as I explore the connections to my emerging perceptions ofmy living legacy lessons. This thesis represents the beginning of a continuing journey of self-discovery. I take the journey in order to uncover hidden and ongoing lessons of living legacy and the impact they have on the student and educator that I am.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This thesis explored the development of several methodologies for the stereoselective construction of ligand frameworks and some of their applications. The first segment concerns the application of an enantioselective lithiation at an Sp3_ hybridized position adjacent to nitrogen by means of the widely used and typically highly effective enantioselective lithiation with ( -)-sparteine. This investigation was intended to develop a method to install chirality into a system that would be converted into a family of diaminoylidenes for use as phosphine mimics in transition metal catalysis or as nucleophilic reagents. Molecular modeling of the system revealed some key interactions between the substrate and (-)-sparteine that provided general insight into the diamine's mode of action and should lend some predictive value to its future applications. The second portion focuses on the development of methods to access 1,2- disubstituted aminoferrocenes, an underexplored class of metallocenes possessing planar chirality. Two routes were examined involving a diastereoselective and an enantioselective pathway, where the latter method made use of the first BF3-mediated lithiation-substitution to install planar chirality. Key derivatives such as 1,2- aminophosphines, made readily accessible by the new route, were evaluated as ligands for Pd(II), Pt(II) and Ir(I). These complexes show activity in a number of transformations with both achiral and prochiral substrates. Optimization experiments were conducted to prepare enantiomerically enriched 2-substituted-I-aminoferrocenes by direct asymmetric lithiation of BF3-coordinated tertiary aminoferrocenes. A predictive computational model describing the transition state of this reaction was developed in collaboration with Professor Travis Dudding's group (Department of Chemistry, Brock University). The predicted stereochemistry of the process was confirmed by single-crystal X-ray analysis of a 2-phosphino-l-dimethylaminoferrocene derivative. Enantiomerically pure samples of the aminophosphine ligands derived from this new process have given promising preliminary results in the enantioselective hydrogenation of prochiral alkenes and warrant further stUdy in metal-mediated catalysis.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Volume(density)-independent pair-potentials cannot describe metallic cohesion adequately as the presence of the free electron gas renders the total energy strongly dependent on the electron density. The embedded atom method (EAM) addresses this issue by replacing part of the total energy with an explicitly density-dependent term called the embedding function. Finnis and Sinclair proposed a model where the embedding function is taken to be proportional to the square root of the electron density. Models of this type are known as Finnis-Sinclair many body potentials. In this work we study a particular parametrization of the Finnis-Sinclair type potential, called the "Sutton-Chen" model, and a later version, called the "Quantum Sutton-Chen" model, to study the phonon spectra and the temperature variation thermodynamic properties of fcc metals. Both models give poor results for thermal expansion, which can be traced to rapid softening of transverse phonon frequencies with increasing lattice parameter. We identify the power law decay of the electron density with distance assumed by the model as the main cause of this behaviour and show that an exponentially decaying form of charge density improves the results significantly. Results for Sutton-Chen and our improved version of Sutton-Chen models are compared for four fcc metals: Cu, Ag, Au and Pt. The calculated properties are the phonon spectra, thermal expansion coefficient, isobaric heat capacity, adiabatic and isothermal bulk moduli, atomic root-mean-square displacement and Gr\"{u}neisen parameter. For the sake of comparison we have also considered two other models where the distance-dependence of the charge density is an exponential multiplied by polynomials. None of these models exhibits the instability against thermal expansion (premature melting) as shown by the Sutton-Chen model. We also present results obtained via pure pair potential models, in order to identify advantages and disadvantages of methods used to obtain the parameters of these potentials.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A group of agents participate in a cooperative enterprise producing a single good. Each participant contributes a particular type of input; output is nondecreasing in these contributions. How should it be shared? We analyze the implications of the axiom of Group Monotonicity: if a group of agents simultaneously decrease their input contributions, not all of them should receive a higher share of output. We show that in combination with other more familiar axioms, this condition pins down a very small class of methods, which we dub nearly serial.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Affiliation: Faculté de pharmacie, Université de Montréal

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Contexte: Le Bénin est atteint par le double fardeau nutritionnel : dans le même pays, et parfois dans le même ménage, il y a des personnes malnutries et d’autres aux prises avec des maladies chroniques. Ces conditions, au moins pour partie, peuvent être prévenues si la population est sensibilisée à de bonnes habitudes alimentaires. Pour ce faire, les professionnels de la santé ont besoin d’outils comme un guide alimentaire (GA) pour faciliter l’apprentissage de bonnes pratiques alimentaires. Ce dernier nécessite plusieurs étapes à son élaboration, dont la définition des groupes alimentaires, la présentation visuelle et la quantification des portions d'aliments. Objectif : Ce travail a eu pour but de proposer et d’homologuer des portions quotidiennes d’aliments dans chaque groupe alimentaire pour différents groupes d’âge de Béninois. Méthode : Elle consiste à : 1) Caractériser la consommation alimentaire locale; 2) Optimiser le profil moyen de consommation alimentaire quotidienne à l’aide de la programmation linéaire (PL); 3) Traduire les résultats en termes de nombre et taille de portions d’aliments de chaque groupe à consommer quotidiennement; 4) Illustrer les recommandations au moyen d’exemples de menus journaliers; 5) Homologuer le prototype du GA avec des experts béninois. La PL a permis de déterminer les choix d’aliments et quantités optimales à recommander à partir des enquêtes transversales récentes et des recommandations nutritionnelles de l’OMS. Résultats : Les quantités et portions d'aliments recommandées à la consommation ont été déterminées. Les résultats ont été partagés avec les personnes-ressources en nutrition au Bénin. Le premier prototype du GA a été développé pour restitution subséquente aux autorités du Bénin.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introduction: La surcharge de pression ventriculaire augmente à l’exercice chez les patients avec une sténose de valve aortique (SVA). Lorsqu’il n’y a aucun symptôme apparent, il est cependant difficile d’indiquer l’intervention chirurgicale en utilisant seulement les indices de surcharge de pression ventriculaire. D’autres paramètres, tels que la dispersion de la repolarisation ventriculaire (d-QT), qui augmentent avec le gradient de pression transvalvulaire (GPT), n’ont pas été étudiés dans la SVA. L’objectif de l’étude était de déterminer le modèle de réponse du segment QT et de la d-QT à l’épreuve d’effort chez des enfants avec une SVA congénitale modérée afin d’évaluer l’impact de la surcharge de pression ventriculaire selon une perspective électrophysiologique. Matériel et méthodes: 15 patients SVA modérés ont été comparés à 15 sujets contrôles appariés pour l’âge (14.8±2.5 ans vs. 14.2±1.5 ans) et pour le sexe (66,7% de sujets mâles). Tous les sujets ont fait une épreuve d’effort avec enregistrement électrocardiographique à 12 dérivations. Le segment QT a été mesuré à partir du début du complexe QRS jusqu’à l’apex de l’onde T (QTa) au repos, à l’effort maximal ainsi qu’après 1 et 3 minutes de récupération. La longueur du segment QT a été corrigée selon l’équation de Fridericia et la d-QT a été calculée. Résultats: La longueur du segment QT corrigée (QTc) était similaire au repos entre les groupes d’étude, mais était significativement élevée chez les SVA en comparaison avec le groupe contrôle à l’effort maximal (p=0.004) ainsi qu’après 1 (p<0.001) et 3 (p<0.001) minutes de récupération. Une interaction significative a été identifiée entre les groupes pour la d-QT (p=0.034) et les tests post hoc ont révélé une différence significative seulement au repos (p=0.001). Conclusions: Les anomalies de repolarisation ventriculaire peuvent être révélées par l’évaluation de la repolarisation électrique lors de l’épreuve d’effort chez les SVA modérées asymptomatiques. L’utilisation de la réponse du QT à l’effort pourrait être bénéfique pour l’optimisation de la stratification du risque chez ces patients.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les produits biologiques représentent une avenue thérapeutique très prometteuse pour diverses maladies actuellement sans traitement, dont le cancer. La demande pour ces produits est donc très forte et des bioprocédés industriels efficaces et fiables doivent être mis en place pour y répondre. Le système inductible au cumate (CR5) développé par le groupe de Bernard Massie permet d’exprimer des protéines d’intérêt de façon finement régulable et à haut niveau dans les cellules CHO. Un travail d’optimisation est toutefois nécessaire afin de maximiser l’expression tout en améliorant l’étanchéité du système. Dans cette optique, diverses constructions du promoteur comportant des configurations différentes d’espacement entre ses constituants, des transactivateurs comportant des domaines d’activation différents, et une séquence opératrice synthétique ont été testées pour évaluer leur capacité à améliorer le rendement et l’étanchéité du CR5. Ainsi, un protomoteur comportant trois séquences opératrices avec six paires de bases entre chacune de ces dernières s’est montré plus efficace en termes de rendement et d’étanchéité que la configuration actuelle du CR5. De plus, une nouvelle configuration du CR5 où le transactivateur est régulé par le système inductible à la coumermycine a été étudiée et a montré une régulation très fine. Le travail d’optimisation effectué dans ce projet s’applique seulement dans le but d’optimiser un procédé dans des conditions spécifiques. Son application à d’autres lignées cellulaires et d’autres promoteurs reste à démontrer.