465 resultados para Programmation linéaire


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract: Quantitative Methods (QM) is a compulsory course in the Social Science program in CEGEP. Many QM instructors assign a number of homework exercises to give students the opportunity to practice the statistical methods, which enhances their learning. However, traditional written exercises have two significant disadvantages. The first is that the feedback process is often very slow. The second disadvantage is that written exercises can generate a large amount of correcting for the instructor. WeBWorK is an open-source system that allows instructors to write exercises which students answer online. Although originally designed to write exercises for math and science students, WeBWorK programming allows for the creation of a variety of questions which can be used in the Quantitative Methods course. Because many statistical exercises generate objective and quantitative answers, the system is able to instantly assess students’ responses and tell them whether they are right or wrong. This immediate feedback has been shown to be theoretically conducive to positive learning outcomes. In addition, the system can be set up to allow students to re-try the problem if they got it wrong. This has benefits both in terms of student motivation and reinforcing learning. Through the use of a quasi-experiment, this research project measured and analysed the effects of using WeBWorK exercises in the Quantitative Methods course at Vanier College. Three specific research questions were addressed. First, we looked at whether students who did the WeBWorK exercises got better grades than students who did written exercises. Second, we looked at whether students who completed more of the WeBWorK exercises got better grades than students who completed fewer of the WeBWorK exercises. Finally, we used a self-report survey to find out what students’ perceptions and opinions were of the WeBWorK and the written exercises. For the first research question, a crossover design was used in order to compare whether the group that did WeBWorK problems during one unit would score significantly higher on that unit test than the other group that did the written problems. We found no significant difference in grades between students who did the WeBWorK exercises and students who did the written exercises. The second research question looked at whether students who completed more of the WeBWorK exercises would get significantly higher grades than students who completed fewer of the WeBWorK exercises. The straight-line relationship between number of WeBWorK exercises completed and grades was positive in both groups. However, the correlation coefficients for these two variables showed no real pattern. Our third research question was investigated by using a survey to elicit students’ perceptions and opinions regarding the WeBWorK and written exercises. Students reported no difference in the amount of effort put into completing each type of exercise. Students were also asked to rate each type of exercise along six dimensions and a composite score was calculated. Overall, students gave a significantly higher score to the written exercises, and reported that they found the written exercises were better for understanding the basic statistical concepts and for learning the basic statistical methods. However, when presented with the choice of having only written or only WeBWorK exercises, slightly more students preferred or strongly preferred having only WeBWorK exercises. The results of this research suggest that the advantages of using WeBWorK to teach Quantitative Methods are variable. The WeBWorK system offers immediate feedback, which often seems to motivate students to try again if they do not have the correct answer. However, this does not necessarily translate into better performance on the written tests and on the final exam. What has been learned is that the WeBWorK system can be used by interested instructors to enhance student learning in the Quantitative Methods course. Further research may examine more specifically how this system can be used more effectively.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Numérifrag, la première partie de ce mémoire, se présente en tant que code source d’un projet de poésie numérique où les balises html ont été trafiquées de manière esthétique. L’effet répétitif et parasitant du code oblige le lecteur à effectuer un travail de décryptage afin de rendre aux poèmes leur lisibilité. Si le texte est linéaire sur papier, la programmation de chaque poème en tant que page web incite le lecteur à naviguer dans l’œuvre et à actualiser son potentiel d’a-linéarité. La seconde partie de ce mémoire, Corps discursif et dispositif dans Le centre blanc de Nicole Brossard, s’intéresse à la notion de dispositif en tant que subversion, dans le recueil Le centre blanc (1970) de Nicole Brossard. L’élaboration de ce dispositif passe par le corps qui s’exprime au-travers du texte et trouve son souffle chez le lecteur, par l’acte d'interprétation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Numérifrag, la première partie de ce mémoire, se présente en tant que code source d’un projet de poésie numérique où les balises html ont été trafiquées de manière esthétique. L’effet répétitif et parasitant du code oblige le lecteur à effectuer un travail de décryptage afin de rendre aux poèmes leur lisibilité. Si le texte est linéaire sur papier, la programmation de chaque poème en tant que page web incite le lecteur à naviguer dans l’œuvre et à actualiser son potentiel d’a-linéarité. La seconde partie de ce mémoire, Corps discursif et dispositif dans Le centre blanc de Nicole Brossard, s’intéresse à la notion de dispositif en tant que subversion, dans le recueil Le centre blanc (1970) de Nicole Brossard. L’élaboration de ce dispositif passe par le corps qui s’exprime au-travers du texte et trouve son souffle chez le lecteur, par l’acte d'interprétation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fracture behaviour of notched and un-notched plain concrete slender beams subjected to three-point or four-point bending is analyzed through a one-dimensional model, also called Softening Beam Model. Fundamental equations of equilibrium are used to develop the model. The influence of structural size in altering the fracture mode from brittle fracture to plastic collapse is explained through the stress distribution across the uncracked ligament obtained by varying the strain softening modulus. It is found that at the onset of fracture instability, stress at the crack tip is equal to zero. The maximum load and fracture load are found to be different and a unique value for the fracture load is obtained. It is shown that the length of the fracture process zone depends on the value of the strain softening modulus. Theoretical limits for fracture process zone length are also calculated. Several nonlinear fracture parameters, such as, crack tip opening displacement, crack mouth opening displacement and fracture energy are computed for a wide variety of beam specimens reported in the literature and are found to compare very well with experimental and theoretical results. It is demonstrated that by following a simple procedure, both pre-peak and post-peak portions of load versus crack mouth opening displacement curve can be obtained quite accurately. Further, a simple procedure to calculate the maximum load is also developed. The predicted values of maximum load are found to agree well with the experimental values. The Softening Beam Model (SBM), proposed in this investigation is very simple and is based on rational considerations. It can completely describe the fracture process from the beginning of formation of the fracture process zone till the onset of fracture instability.A l'aide d'un modèle unidimensionnel dit ldquoSoftening Beam Modelrdquo (SBM), on analyse le comportement à rupture de poutres élancées pleines entaillées ou non, soumises en flexion en trois ou quatre points. Des équations fondamentales d'équilibre sont utilisées pour développer le modèle. On explique l'influence de la taille du composant sur l'altération du mode de rupture en rupture fragile et en effondrement plastique par la distribution par la distribution des contraintes sur le ligament non fissuré lorsque varie le module d'adoucissement. On trouve que la contrainte à l'extrémité de la fissure est nulle est nulle au début de l'instabilité de la rupture. La charge maximum et la charge à la rupture sont trouvées différentes, et on obtient une valeur unique de la charge à la rupture. On montre que la longueur de la zone concernée par le processus de rupture d'pend de la valeur du module d'adoucissement. On calcule également les limites théoriques de longueur de cette zone. Divers paramètres de rupture non linéaire sont calculés pour une large gamme d'éprouvettes en poutres reprises dans la littérature; on trouve qu'il existe une bonne concordance avec les résultats expérimentaux et théoriques. On démontre qu'en suivant une procédure simple on peut obtenir avec une bonne précision la courbe reliant les portions avant et après le pic de sollicitation en fonction du COD de la fissure. En outre, on développe une procédure simple pour calculer la charge maximum. Les valeurs prédites sont en bon accord avec les valeurs expérimentales. Le modèle SBM proposé est très simple et est basé sur des considérations rationnelles. Il est susceptible de décrire complètement le processus de rupture depuis le début de la formation de la zone intéressée jusqu'à l'amorçage de la rupture instable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A regularização fundiária urbana de interesse social só pode ser compreendida juridicamente se considerar-se que, além da legalização da posse ou da propriedade do bem imóvel, ela abrange obrigatoriamente uma série de intervenções urbanísticas fundamentais. Outra premissa necessária ao estudo jurídico é que esta espécie de operação urbana não pode ser compreendida isoladamente, enquanto uma instituição particular, pois ela pressupõe a definição das condições por meio das quais o planejamento urbano e o planejamento habitacional se determinam reciprocamente, favorecendo a concretização de direitos fundamentais. Três valores-base devem inspirar o desenvolvimento desta correlação entre as políticas urbanísticas e as habitacionais, são eles: a moradia como direito fundamental complexo ligado à ideia mais ampla de direito à cidade, a propriedade como direito protegido juridicamente apenas quando observado o princípio da função social da propriedade e a justa distribuição das mais-valias urbanas como princípio reitor da intervenção dos poderes públicos nos espaços urbanos para efetivar uma distribuição mais isonômica do espaço. Com base no contexto normativo brasileiro e a realidade institucional concreta dos Municípios e tendo em vista a experiência francesa a respeito das políticas urbanas e habitacionais, é possível pensar um quadro legal e regimes jurídicos adequados à realização mais eficaz das operações urbanas de regularização fundiária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude se penche sur les facteurs associés à l'atteinte des objectifs d'intervention dans les mesures de mise en mouvement chez les jeunes de 16-17 ans en situation de précarité. Au Québec, les effets de la pyramide démographique, l'essor de l'emploi atypique et les mutations économiques que subit le marché du travail peuvent engendrer une situation de précarité chez certains jeunes, dont les jeunes sans diplôme, les jeunes ayant été pris en charge par le système de protection de la jeunesse et les jeunes peu scolarisés. Dans cette perspective, des actions gouvernementales, sous forme de mesures, ont été mises en oeuvre en vue de fournir à ces jeunes un soutien dans leur insertion socioprofessionnelle et leur maintien à l'école. Nous nous intéressons à ces mesures, et plus particulièrement aux aspects personnels et contextuels des jeunes associés aux degrés d'atteinte des objectifs d'intervention. Les conditions associées aux participants de même que les mesures de mise en mouvement sont appréhendées sous l'angle de l'approche écosystémique. À cet effet, les objectifs de cette étude sont de déterminer les caractéristiques personnelles et les caractéristiques environnementales associées à l'atteinte des objectifs d'intervention des participants lors de leur passage dans ces mesures de mise en mouvement. À cette fin, les données employées proviennent d'une recherche évaluative de la mesure IDEO 16-17 (Yergeau, Bélisle, Bourdon et Thériault, 2009). Les participants (n=48) provenaient de différentes régions et étaient âgés de 15 et 19 ans. Alors que certains participants commençaient la mesure, certains participants interrogés avaient terminé la mesure. Parmi ces participants, 23 étaient des femmes et 25 des hommes. Un volet d'entrée leur était attribué selon leur problématique (mise en mouvement, persévérance scolaire ou rétablissement personnel). Des analyses bivariées ont été réalisées afin de relever les relations significatives entre les caractéristiques des jeunes, le degré d'atteinte moyen des objectifs d'intervention et la cote d'atteinte de l'objectif le plus associé au volet d'entrée. Deux régressions linéaires multiples ont également été exécutées afin de vérifier si les modèles employés expliquent une proportion significative de la variation du degré d'atteinte. Les résultats obtenus montrent la présence d'une corrélation positive entre l'âge des participants et le degré moyen d'atteinte des objectifs d'intervention. Ce résultat peut s'expliquer, entre autres, par une plus grande maturité et par un développement cognitif plus élevé des jeunes plus âgés. Aucun autre résultat significatif n'a été relevé. Toutefois, l'absence de résultats significatifs ne signifie pas que les liens entre les variables soient inexistants dans la réalité. L'absence de résultats significatifs peut s'expliquer en partie par certaines limites de la méthodologie, dont un échantillon hétérogène de taille modeste, une variance des variables dépendantes et certains paramètres de sélection du devis. Toutefois, certains aspects reliés à la nature même de la programmation souple de la mesure expliqueraient davantage l'absence de résultats, dont le manque d'adéquation entre le volet d'entrée et les objectifs d'intervention au plan d'action de même que la diversité et l'intensité variable des interventions inhérentes à l'étendue des problématiques des participants. Cette flexibilité caractéristique des mesures à programmation souple pose des défis méthodologiques et analytiques à la recherche et suggère au lecteur de nuancer l'interprétation des résultats. En conclusion, la présente recherche n'a pu déceler d'associations significatives entre le degré d'atteinte des objectifs d'intervention et les caractéristiques systémiques à l'étude. Certains aspects méthodologiques et de la nature de la mesure peuvent contribuer à expliquer l'absence de résultats significatifs. Comme il s'agit à notre connaissance de la première étude sur ce thème spécifique, il appert pertinent de poursuivre les études dans ce domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouvelles recommandations dans la production de canneberges suggèrent l’utilisation de l’irrigation souterraine, une méthode susceptible d’augmenter l’accumulation de sels dans le sol. Par ailleurs, le prélèvement d’eaux souterraines saumâtres dans des nappes résiduelles de la mer Champlain sous les dépôts d’argile dans la vallée du St-Laurent ou résultant du rehaussement des niveaux marins dans les zones côtières dû aux changements climatiques pourrait affecter la productivité des canneberges cultivées dans l’Est du Canada. Puisque très peu de données concernant la tolérance de la canneberge à la salinité sont disponibles, cette étude a été menée afin de déterminer si ces nouvelles recommandations pourraient éventuellement affecter le rendement de la plante. Dans une serre, des plants de canneberge ont été soumis à huit traitements obtenus à partir de deux méthodes d’irrigation (aspersion et irrigation souterraine) et quatre niveaux de salinité créés par des quantités croissantes de K2SO4 (125, 2 500, 5 000 et 7 500 kg K2O ha-1). L’irrigation souterraine a entraîné des conditions édaphiques plus sèches. Cependant, aucune différence significative de la conductivité électrique de la solution du sol (CEss) n’a été observée entre les deux types d’irrigation. Pourtant, les taux de photosynthèse et la nouaison étaient significativement plus faibles chez les plantes sous traitement d’irrigation souterraine. Les paramètres de croissance ont diminué de façon linéaire avec l’augmentation de la salinité alors que les paramètres de rendement ont connu une diminution quadratique avec l’élévation de la CEss. Une CEss moyenne de 3,2 dS m-1 pendant la floraison a provoqué une chute de 22% du taux relatif de photosynthèse et une diminution de 56% du rendement par rapport au témoin. Le suivi de la conductivité électrique du sol lors de l’implantation d’une régie d’irrigation souterraine de déficit en production de canneberges serait donc recommandable afin d’éviter le stress salin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plupart des processus cellulaires et biologiques reposent, à un certain niveau, sur des interactions protéine-protéine (IPP). Leur manipulation avec des composés chimiques démontre un grand potentiel pour la découverte de nouveaux médicaments. Malgré la demande toujours croissante en molécules capables d’interrompre sélectivement des IPP, le développement d’inhibiteurs d’IPP est fortement limité par la grande taille de la surface d’interaction. En considérant la nature de cette surface, la capacité à mimer des structures secondaires de protéines est très importante pour lier une protéine et inhiber une IPP. Avec leurs grandes capacités peptidomimétiques et leurs propriétés pharmacologiques intéressan-tes, les peptides cycliques sont des prototypes moléculaires de choix pour découvrir des ligands de protéines et développer de nouveaux inhibiteurs d’IPP. Afin d’exploiter pleinement la grande diversité accessible avec les peptides cycliques, l’approche combinatoire «one-bead-one-compound» (OBOC) est l’approche la plus accessible et puissante. Cependant, l’utilisation des peptides cycliques dans les chimiothèques OBOC est limitée par les difficultés à séquencer les composés actifs après le criblage. Sans amine libre en N-terminal, la dégradation d’Edman et la spectrométrie de masse en tandem (MS/MS) ne peuvent pas être utilisées. À cet égard, nous avons développé de nouvelles approches par ouverture de cycle pour préparer et décoder des chimiothèques OBOC de peptides cycliques. Notre stratégie était d’introduire un résidu sensible dans le macrocycle et comme ancrage pour permettre la linéarisation des peptides et leur largage des billes pour le séquençage par MS/MS. Tout d’abord, des résidus sensibles aux nucléophiles, aux ultraviolets ou au bromure de cyanogène ont été introduits dans un peptide cyclique et leurs rendements de clivage évalués. Ensuite, les résidus les plus prometteurs ont été utilisés dans la conception et le développement d’approches en tandem ouverture de cycle / clivage pour le décodage de chimiothèques OBOC de peptides cycliques. Dans la première approche, une méthionine a été introduite dans le macrocycle comme ancrage pour simultanément permettre l’ouverture du cycle et le clivage des billes par traitement au bromure de cyanogène. Dans la seconde approche, un résidu photosensible a été utilisé dans le macrocycle comme ancrage pour permettre l’ouverture du cycle et le clivage suite à une irradiation aux ultraviolets. Le peptide linéaire généré par ces approches peut alors être efficacement séquencé par MS/MS. Enfin, une chimiothèque OBOC a été préparée et criblée la protéine HIV-1 Nef pour identifier des ligands sélectifs. Le développement de ces méthodologies permttra l’utilisation de composés macrocycliques dans les chimiothèques OBOC et constitue une contribution importante en chimie médicinale pour la découverte de ligands de protéines et le développement d’inhibiteurs d’IPP.