10 resultados para Development of new products

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le phénomène du commerce parallèle repose sur un constat de base à la fois simple et évident: le niveau des prix d’un même produit « créé et fabriqué » par le même titulaire peut souvent varier de manière importante d’un pays à l’autre, en raison notamment des disparités dans le revenu moyen des consommateurs, des règlementations nationales entravant les échanges, ou encore du niveau de concurrence qui peut être affecté par des restrictions d’ordre privé, telles que des conventions de partage de marchés ou des contrats de distribution. Les commerçants que l’on appelle « importateurs parallèles » achèteront le produit là où il est le moins cher, qu’il provienne directement du titulaire ou non, en vue de le revendre là où ils pourront faire le meilleur profit. Dans ce contexte, des problèmes apparaîtront dans le pays d’importation dans la mesure où les commerçants parallèles vendront, bien évidemment, moins cher que les distributeurs désignés par le titulaire. Le titulaire en sa qualité de « créateur » de produits, est souvent titulaire de droits de propriété intellectuelle qu’il désirera, non sans une certaine légitimité, « monnayer », tentant ainsi de cloisonner les marchés en vue d’obtenir le prix le plus élevé qu’un consommateur serait prêt à payer pour un produit « x » sur un marché « y ». Cet essai a pour mérite de mettre en tension, d'une part, la liberté des échanges et de la concurrence qui favorisent, notamment, l’obtention des produits au meilleur prix pour les acheteurs et les consommateurs et, d’autre part, la nécessité de protéger les efforts de création dans l’industrie afin que celle-ci continue à investir dans la recherche et le développement de nouveaux produits.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’explorer et d’analyser la réception de l’œuvre d’Eugen Wüster afin d’expliquer comment ses travaux ont influencé le développement disciplinaire de la terminologie. Du point de vue historique, les travaux de Wüster, en particulier la Théorie générale de la terminologie, ont stimulé la recherche en terminologie. Malgré des opinions divergentes, on s’entend pour reconnaître que les travaux de Wüster constituent la pierre angulaire de la terminologie moderne. Notre recherche vise spécifiquement à explorer la réception de l’œuvre wüsterienne en étudiant les écrits relatifs à cette œuvre dans la littérature universitaire en anglais, en espagnol et en français entre 1979 et 2009, en Europe et en Amérique. Réalisée dans le cadre du débat sur la réception de l’œuvre de Wüster, cette étude se concentre exclusivement sur l’analyse des critiques et des commentaires de son œuvre. Pour ce faire, nous avons tenu compte de la production intellectuelle de Wüster, de sa réception positive ou négative, des nouvelles approches théoriques en terminologie ainsi que des études portant sur l’état de la question en terminologie entre 1979 et 2009. Au moyen d’une recherche qualitative de type exploratoire, nous avons analysé un corpus de textes dans lesquels les auteurs : a. ont cité textuellement au moins un extrait d’un texte écrit par Wüster ; b. ont référé aux travaux de Wüster dans la bibliographie de l’article ; ou c. ont fait un commentaire sur ces travaux. De cette manière, nous avons cerné les grandes lignes du débat autour de la réception de son œuvre. Les résultats de notre étude sont éloquents. Ils offrent une idée claire de la réception des travaux de Wüster dans la communauté scientifique. Premièrement, Wüster représente une figure centrale de la terminologie moderne en ce qui concerne la normalisation terminologique. Il fut le premier à proposer une théorie de la terminologie. Deuxièmement, la contextualisation appropriée de son œuvre constitue un point de départ essentiel pour une appréciation éclairée et juste de sa contribution à l’évolution de la discipline. Troisièmement, les résultats de notre recherche dévoilent comment les nouvelles approches théoriques de la terminologie se sont adaptées aux progrès scientifiques et techniques. Quatrièmement, une étude menée sur 166 articles publiés dans des revues savantes confirme que l’œuvre de Wüster a provoqué des réactions variées tant en Europe qu’en Amérique et que sa réception est plutôt positive. Les résultats de notre étude font état d’une tendance qu’ont les auteurs de critiquer les travaux de Wüster avec lesquels, dans la plupart des cas, ils ne semblent cependant pas être bien familiarisés. La « méthodologie des programmes de recherche scientifique », proposée par Lakatos (1978) et appliquée comme un modèle interprétatif, nous a permis de démontrer que Wüster a joué un rôle décisif dans le développement de la terminologie comme discipline et que la terminologie peut être perçue comme un programme de recherche scientifique. La conclusion principale de notre thèse est que la terminologie a vécu des changements considérables et progressifs qui l’ont aidée à devenir, en termes lakatosiens, une discipline forte tant au plan théorique que descriptif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'hypertension artérielle est l'une des principales causes de morbidité et de mortalité dans le monde. La compréhension des mécanismes qui sont à la base du développement de l'hypertension offrira de nouvelles perspectives pour un meilleur contrôle de l'hypertension. Nous avons précédemment montré que le niveau des protéines Giα-2 et Giα-3 est augmenté chez les rats spontanément hypertendus (SHR) avant l'apparition de l'hypertension. Le traitement avec les inhibiteurs de l’enzyme de conversion de l’Angiotensine (IEC) est associé à une diminution de l’expression des protéines Gi. De plus, l'injection intrapertoneale de la toxine de la coqueluche inactive les deux protéines Giα et empêche le développement de l'hypertension chez les SHR. Cependant, la contribution spécifique des protéines Giα-2 et Giα-3 dans le développement de l'hypertension n'est pas encore connue. Dans la présente étude, l’Anti-sens oligodésoxynucléotide (AS-ODN) de Giα-2 et Giα-3 (1mg/Kg en poids corporel) encapsulé dans des liposomes cationiques PEG / DOTAP/ DOPE ont été administrés par voie intraveineuse aux SHR pré-hypertendus âgé de trois semaines et aux Wistar Kyoto (WKY) rats de même âge. Les contrôles des WKY et SHR non traités ont été injectés avec du PBS stérile, liposomes vides ou oligomères sens. La pression artérielle (PA) a été suivie chaque semaine en utilisant la technique manchon caudal. Les rats ont été sacrifiés à l'âge de six semaines et neuf semaines. Le coeur et l'aorte ont été utilisés pour étudier l'expression des protéines Gi. Le knockdown des protéines Giα-2 par l’injection de Giα-2-AS a empêché le développement de l'hypertension à l'âge de six semaines. Par la suite, la PA a commencé à augmenter rapidement et a atteint le niveau que l'on retrouve dans les groupes témoins à l'âge de neuf semaines. D'autre part, la PA du groupe traité avec le Giα-3-AS a commencé à augmenter à l'âge de quatre semaines. Dans le groupe des SHR-Giα-3-AS, la PA a augmenté à l’âgé de six semaines, mais moins que celle de SHR-CTL. Le coeur et l'aorte obtenues des SHR Giα-2-AS et Giα-3-AS à partir de l’âgé de six semaines ont eu une diminution significative de l’expression des protéines Giα-2 et Giα-3 respectivement. Dans le groupe des WKY Giα-2-AS et Giα-3-AS l'expression des protéines Giα-2 et Giα-3 respectivement a diminué malgré l'absence de changement dans la PA par rapport aux WKY CTL. À l'âge de neuf semaines, les SHR traités avec du Giα-2-AS et Giα-3-AS avaient la même PA et expression des protéines Gi que le SHR CTL. Ces résultats suggèrent que les deux protéines Giα-2 et Giα-3 sont impliqués dans le développement de l'hypertension chez les SHR, mais le knockdown de Giα-2 et pas de Giα-3 a empêché le développement de l'hypertension.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The pathogenesis of brain edema in patients with chronic liver disease (CLD) and minimal hepatic encephalopathy (HE) remains undefined. This study evaluated the role of brain lactate, glutamine and organic osmolytes, including myo-inositol and taurine, in the development of brain edema in a rat model of cirrhosis.Six-week bile-duct ligated (BDL) rats were injected with (13)C-glucose and de novo synthesis of lactate, and glutamine in the brain was quantified using (13)C nuclear magnetic resonance spectroscopy (NMR). Total brain lactate, glutamine, and osmolytes were measured using (1)H NMR or high performance liquid chromatography. To further define the interplay between lactate, glutamine and brain edema, BDL rats were treated with AST-120 (engineered activated carbon microspheres) and dichloroacetate (DCA: lactate synthesis inhibitor).Significant increases in de novo synthesis of lactate (1.6-fold, p<0.001) and glutamine (2.2-fold, p<0.01) were demonstrated in the brains of BDL rats vs. SHAM-operated controls. Moreover, a decrease in cerebral myo-inositol (p<0.001), with no change in taurine, was found in the presence of brain edema in BDL rats vs. controls. BDL rats treated with either AST-120 or DCA showed attenuation in brain edema and brain lactate. These two treatments did not lead to similar reductions in brain glutamine.Increased brain lactate, and not glutamine, is a primary player in the pathogenesis of brain edema in CLD. In addition, alterations in the osmoregulatory response may also be contributing factors. Our results suggest that inhibiting lactate synthesis is a new potential target for the treatment of HE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En 2015, la récidive tumorale et les métastases du cancer du sein demeurent une cause importante de décès à travers le monde. Toutefois, ces cancers sont souvent hétérogènes car en dépit d’un phénotype similaire, l’évolution clinique et la réponse au traitement peuvent varier considérablement. Il y a donc un intérêt évident à identifier et à caractériser de nouveaux biomarqueurs pour permettre classer les tumeurs mammaires dans des sous-groupes plus homogènes. Notre hypothèse est que chaque cancer mammaire possède des caractéristiques distinctes au plan des altérations du génome et des profils d’expression géniques et que ces changements se traduisent cliniquement par une prédisposition à former des métastases ou à répondre ou non à la chimiothérapie et aux thérapies ciblées. Dans le cadre de nos travaux, nous nous sommes intéressés aux sous-types agressifs de tumeurs mammaires et notamment les cancers de type triple négatif. Nous avons aussi tenté d’identifier des marqueurs capables de distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Pour ce faire, nous avons d’abord utilisé une stratégie in silico à partir de données publiques (micro-puces d’ADN et séquençage de l’ARN). Nous avons ensuite construit sept micro-matrices tissulaires (TMA) provenant de tissus mammaires normaux et tumoraux fixés à la formaline et enrobés en paraffine. Ces outils nous ont permis d’évaluer par immunohistochimie les niveaux d’expression différentielle des marqueurs suivants : ANXA1, MMP-9, DP103 et MCM2. Ceux-ci ont été comparés aux marqueurs usuels du cancer du sein (ER, PR, HER2, CK5/6 et FOXA1) et corrélés aux données cliniques (survie globale et métastase). Nos résultats indiquent que ces nouveaux marqueurs jouent un rôle important dans l’évolution clinique défavorable des tumeurs de haut grade. Dans un premier article nous avons montré que l’expression d’ANXA1 est dérégulée dans les cancers de type triple-négatif et aussi, dans une certaine mesure, dans les tumeurs HER2+. Nous croyons qu’ANXA1 permet de mieux comprendre le processus d’hétérogénéité tumorale et facilite l’identification des tumeurs de haut grade. Nous proposons également qu’ d’ANXA1 stimule la transition épithélio-mésenchymateuse (EMT) et la formation des métastases. Dans un second temps, nous avons montré que les niveaux d’expression de MMP-9 reflètent la différenciation cellulaire et corrèlent avec les sous-types de cancers mammaires ayant un mauvais pronostic. Nous estimons que MMP-9 permet de mieux comprendre et d’identifier les tumeurs mammaires à haut risque. De fait, la surexpression de MMP-9 est associée à une augmentation des métastases, une récidive précoce et une diminution de la survie globale. Dans le cadre d’un troisième article, nous avons montré que la surexpression du marqueur de prolifération MCM2 s’observe dans les cancers triple-négatifs, HER2+ et Luminal B par comparaison aux cancers luminal A (p< 0.0001). Nos résultats suggèrent qu’en utilisant un seuil de 40% de noyaux marqués, nous pourrions distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Cela dit, avant de pouvoir envisager l’utilisation de ce marqueur en clinique, une étude de validation sur une nouvelle cohorte de patientes s’impose. En somme, les résultats de nos travaux suggèrent qu’ANXA1, MMP-9 et MCM2 sont des marqueurs intéressants pour mieux comprendre les mécanismes physiopathologiques impliqués dans la progression tumorale et le développement des métastases. À terme, ces nouveaux marqueurs pourraient être utilisés seuls ou en combinaison avec d’autres gènes candidats pour permettre le développement de trousses « multigènes » ou d’essais protéomiques multiplex pour prédire l’évolution clinique des cancers mammaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La réaction de macrocyclisation est une transformation fondamentale en chimie organique de synthèse. Le principal défi associcé à la formation de macrocycles est la compétition inhérente avec la réaction d’oligomérisation qui mène à la formation de sousproduits indésirables. De plus, l’utilisation de conditions de dilutions élevées qui sont nécessaires afin d’obtenir une cyclisation “sélective”, sont souvent décourageantes pour les applications à l’échelle industrielle. Malgré cet intérêt pour les macrocycles, la recherche visant à développer des stratégies environnementalement bénignes, qui permettent d’utiliser des concentrations normales pour leur synthèse, sont encore rares. Cette thèse décrit le développement d’une nouvelle approche générale visant à améliorer l’efficacité des réactions de macrocyclisation en utilisant le contrôle des effets de dilution. Une stratégie de “séparation de phase” qui permet de réaliser des réactions à des concentrations plus élevées a été developpée. Elle se base sur un mélange de solvant aggrégé contrôlé par les propriétés du poly(éthylène glycol) (PEG). Des études de tension de surface, spectroscopie UV et tagging chimique ont été réalisées afin d’élucider le mécanisme de “séparation de phase”. Il est proposé que celui-ci fonctionne par diffusion lente du substrat organique vers la phase ou le catalyseur est actif. La nature du polymère co-solvant joue donc un rôle crutial dans le contrôle de l’aggrégation et de la catalyse La stratégie de “séparation de phase” a initiallement été étudiée en utilisant le couplage oxidatif d’alcynes de type Glaser-Hay co-catalysé par un complexe de cuivre et de nickel puis a été transposée à la chimie en flux continu. Elle fut ensuite appliquée à la cycloaddition d’alcynes et d’azotures catalysée par un complexe de cuivre en “batch” ainsi qu’en flux continu.