12 resultados para Stopping.
em Université de Montréal, Canada
Resumo:
Affiliation: Florina Moldovan: Faculté de médecine dentaire, Université de Montréal & CHU Hôpital Sainte-Justine, Université de Montréal. Christina Alexandra Manacu, Marjolaine Roy-Beaudry, Fazool Shipkolye : CHU Hôpital Sainte-Justine, Université de Montréal. Johanne Martel-Pelletier & Jean-Pierre Pelletier : CHUM Hôpital Notre-Dame, Université de Montréal.
Resumo:
Affiliation: Maude Loignon, Lise Cyr & Emil Toma : Département de microbiologie et immunologie, Faculté de médecine, Université de Montréal
Resumo:
Depuis 2002, le débat sur les risques associés à la thérapie génique est initié suite à l’annonce que deux enfants inclus dans un essai thérapeutique impliquant une thérapie génique ont développé des effets indésirables important. En Janvier 2005, le débat sur les risques reprit suite à l’interruption du protocole sur les enfants bulle du Pr Fischer à l’hôpital Necker de Paris. Nous avons donc étudié le processus impliqué ainsi que la réflexion éthique associée aux décisions d’arrêt de protocole de recherche. Notre travail a été mené par une équipe pluridisciplinaire combinant chercheurs en santé, généticiens et éthiciens. Nous avons étudié la participation des chercheurs, des patients, des institutions officielles, des comités d’éthique ainsi que des associations de patients dans le processus de décision d’interruption d’un protocole de recherche.Nous avons également analysé les critères jugés les plus pertinents dans l’arrêt d’un protocole de recherche. Enfin nous avons analysé le point de vue des personnes directement impliquées dans la thérapie génique au moyen d’un questionnaire. Toutes les personnes contactées ont présenté un poster de recherche au congrès de la Société Européenne de Thérapie Génique. 62 personnes d’autant d’équipes de recherche différentes, de 17 pays, sur les 350 contactés ont répondu. Selon eux, la décision d’arrêt d’un protocole de recherche doit être prise suite à une consultation des chercheurs, des patients, du ministère de tutelle, d’une agence nationale de régulation ou d’un comité d’éthique ; la légitimité étant accordée à des décisions prises en commun par les chercheurs, les patients et les comités d’éthique. Les incidents sérieux et de façon plus surprenante, les incidents moins graves sont jugés comme étant des critères suffisants pour interrompre un essai. Nous avons fini par analyser les conséquences éthiques, telles que balance bénéfice/risque, processus de régulation ou responsabilité, de ces critères sur l’arrêt d’un protocole de recherche.
Resumo:
La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire. Elle réduit le dihydrofolate en tétrahydrofolate, un co-facteur impliqué dans la biosynthèse des purines et du thymidylate. La DHFRh est une cible de choix pour des agents de chimiothérapie comme le méthotrexate (MTX), inhibant spécifiquement l’enzyme ce qui mène à un arrêt de la prolifération et ultimement à la mort cellulaire. Le MTX est utilisé pour le traitement de plusieurs maladies prolifératives, incluant le cancer. La grande utilisation du MTX dans le milieu clinique a mené au développement de mécanismes de résistance, qui réduisent l’efficacité de traitement. La présente étude se penche sur l’un des mécanismes de résistance, soit des mutations dans la DHFRh qui réduisent son affinité pour le MTX, dans le but de mieux comprendre les éléments moléculaires requis pour la reconnaissance de l’inhibiteur au site actif de l’enzyme. En parallèle, nous visons à identifier des variantes plus résistantes au MTX pour leur utilisation en tant que marqueurs de sélection en culture cellulaire pour des systèmes particuliers, tel que la culture de cellules hématopoïétiques souches (CHS), qui offrent des possibilités intéressantes dans le domaine de la thérapie cellulaire. Pour étudier le rôle des différentes régions du site actif, et pour vérifier la présence d’une corrélation entre des mutations à ces régions et une augmentation de la résistance au MTX, une stratégie combinatoire a été dévelopée pour la création de plusieurs banques de variantes à des résidus du site actif à proximité du MTX lié. Les banques ont été sélectionnées in vivo dans un système bactérien en utilisant des milieux de croissance contenant des hautes concentrations de MTX. La banque DHFRh 31/34/35 généra un nombre considérable de variantes combinatoires de la DHFRh hautement résistantes au MTX. Les variantes les plus intéressantes ont été testées pour leur potentiel en tant que marqueur de sélection dans plusieurs lignées cellulaires, dont les cellules hématopoïétiques transduites. Une protection complète contre les effets cytotoxiques du MTX a été observée chez ces cellules suite à leur infection avec les variantes combinatoires. Pour mieux comprendre les causes moléculaires reliées à la résistance au MTX, des études de structure tridimensionnelle de variantes liées au MTX ont été entreprises. La résolution de la structure de la double variante F31R/Q35E lié au MTX a révélé que le phénotype de résistance était attribuable à d’importantes différences entre le site actif de la double variante et de l’enzyme native, possiblement dû à un phénomème dynamique. Une compréhension plus générale de la reconnaissance et la résistance aux antifolates a été réalisée en comparant des séquences et des structures de variantes de la DHFR résistants aux antifolates et provenant de différentes espèces. En somme, ces travaux apportent de nouveaux éléments pour la comprehension des intéractions importantes entre une enzyme et un ligand, pouvant aider au développement de nouveaux antifolates plus efficaces pour le traitement de diverses maladies. De plus, ces travaux ont généré de nouveaux gènes de résistance pouvant être utilisés en tant que marqueurs de sélection en biologie cellulaire.
Resumo:
Ce projet découle du Canadian Sport Centre Dietary Study qui avait pour objectif d’évaluer les habitudes de consommation de suppléments alimentaires chez les athlètes canadiens et de déterminer si des différences régionales existaient. Un nombre de sujets était prédéterminé pour chaque province en considération du nombre d’athlètes identifiés comme Excellence, Élite ou Relève par les Centres d’entraînement nationaux et les organismes gouvernementaux. Pour ce mémoire, seules les données associées aux athlètes du Québec ont été considérées. Quarante-trois athlètes ont répondu à un questionnaire sur l’utilisation des suppléments alimentaires, 71 ont fourni un journal alimentaire de trois jours et 42 parmi ces derniers ont remis les deux documents. La prévalence d’utilisation des suppléments alimentaires était de 90,7%. Les utilisateurs consommaient en moyenne 3,35 produits différents, particulièrement des boissons énergétiques (48,8%), des multivitamines-minéraux (37,2%), des produits de santé naturels (37,2%) et des suppléments de protéines en poudre (34,9%). Les athlètes souhaitaient maintenir leur santé (27,9%) et améliorer leur niveau d’énergie (27,9%) ou leur récupération (25,6%). Les sources d’information citées étaient les entraîneurs physiques (25,6%), la famille ou les amis (16,3%) et les coéquipiers (16,3%). Les sujets se procuraient ces produits dans les épiceries (16,3%), les pharmacies (14,0%) et les magasins spécialisés (9,3%). Soixante-dix pour cent des sujets croyaient que l’arrêt de l’utilisation des suppléments alimentaires n’aurait aucun impact sur leurs performances ou ne savaient pas comment cela les influencerait. Ils démontraient un vif intérêt au sujet de l’efficacité (69,8%), la légalité (55,8%) et la sécurité (53,5%) de ces produits. Des sujets qui utilisaient un supplément de protéines, 81% présentaient un apport alimentaire supérieur à leurs besoins. L’utilisation de suppléments de multivitaminesminéraux permettait de combler l’apport insuffisant en calcium et en folate, mais pas en potassium. Nos résultats soulignent que ces utilisateurs présentaient des apports dépassant l’apport maximal tolérable pour le sodium, le magnésium, la niacine, le folate, la vitamine A et le fer. Nous pouvons donc conclure que ces deux types de suppléments alimentaires n’étaient pas utilisés d’une façon pertinente.
Resumo:
Résumé Dans la présente thèse, nous avons étudié la déformation anisotrope par bombardement ionique de nanoparticules d'or intégrées dans une matrice de silice amorphe ou d'arséniure d’aluminium cristallin. On s’est intéressé à la compréhension du mécanisme responsable de cette déformation pour lever toute ambigüité quant à l’explication de ce phénomène et pour avoir une interprétation consistante et unique. Un procédé hybride combinant la pulvérisation et le dépôt chimique en phase vapeur assisté par plasma a été utilisé pour la fabrication de couches nanocomposites Au/SiO2 sur des substrats de silice fondue. Des structures à couches simples et multiples ont été obtenues. Le chauffage pendant ou après le dépôt active l’agglomération des atomes d’Au et par conséquent favorise la croissance des nanoparticules. Les nanocomposites Au/AlAs ont été obtenus par implantation ionique de couches d’AlAs suivie de recuit thermique rapide. Les échantillons des deux nanocomposites refroidis avec de l’azote liquide ont été irradiés avec des faisceaux de Cu, de Si, d’Au ou d’In d’énergie allant de 2 à 40 MeV, aux fluences s'étendant de 1×1013 à 4×1015 ions/cm2, en utilisant le Tandem ou le Tandetron. Les propriétés structurales et morphologiques du nanocomposite Au/SiO2 sont extraites en utilisant des techniques optiques car la fréquence et la largeur de la résonance plasmon de surface dépendent de la forme et de la taille des nanoparticules, de leur concentration et de la distance qui les séparent ainsi que des propriétés diélectriques du matériau dans lequel les particules sont intégrées. La cristallinité de l’arséniure d’aluminium est étudiée par deux techniques: spectroscopie Raman et spectrométrie de rétrodiffusion Rutherford en mode canalisation (RBS/canalisation). La quantité d’Au dans les couches nanocomposites est déduite des résultats RBS. La distribution de taille et l’étude de la transformation de forme des nanoparticules métalliques dans les deux nanocomposites sont déterminées par microscopie électronique en transmission. Les résultats obtenus dans le cadre de ce travail ont fait l’objet de trois articles de revue. La première publication montre la possibilité de manipuler la position spectrale et la largeur de la bande d’absorption des nanoparticules d’or dans les nanocomposites Au/SiO2 en modifiant leur structure (forme, taille et distance entre particules). Les nanoparticules d’Au obtenues sont presque sphériques. La bande d’absorption plasmon de surface (PS) correspondante aux particules distantes est située à 520 nm. Lorsque la distance entre les particules est réduite, l’interaction dipolaire augmente ce qui élargit la bande de PS et la déplace vers le rouge (602 nm). Après irradiation ionique, les nanoparticules sphériques se transforment en ellipsoïdes alignés suivant la direction du faisceau. La bande d’absorption se divise en deux bandes : transversale et longitudinale. La bande correspondante au petit axe (transversale) est décalée vers le bleu et celle correspondante au grand axe (longitudinale) est décalée vers le rouge indiquant l’élongation des particules d’Au dans la direction du faisceau. Le deuxième article est consacré au rôle crucial de la déformation plastique de la matrice et à l’importance de la mobilité des atomes métalliques dans la déformation anisotrope des nanoparticules d’Au dans les nanocomposites Au/SiO2. Nos mesures montrent qu'une valeur seuil de 2 keV/nm (dans le pouvoir d'arrêt électronique) est nécessaire pour la déformation des nanoparticules d'or. Cette valeur est proche de celle requise pour la déformation de la silice. La mobilité des atomes d’Au lors du passage d’ions est confirmée par le calcul de la température dans les traces ioniques. Le troisième papier traite la tentative de formation et de déformation des nanoparticules d’Au dans une matrice d’arséniure d’aluminium cristallin connue pour sa haute résistance à l’amorphisation et à la déformation sous bombardement ionique. Le résultat principal de ce dernier article confirme le rôle essentiel de la matrice. Il s'avère que la déformation anisotrope du matériau environnant est indispensable pour la déformation des nanoparticules d’or. Les résultats expérimentaux mentionnés ci-haut et les calculs de températures dans les traces ioniques nous ont permis de proposer le scénario de déformation anisotrope des nanoparticules d’Au dans le nanocomposite Au/SiO2 suivant: - Chaque ion traversant la silice fait fondre brièvement un cylindre étroit autour de sa trajectoire formant ainsi une trace latente. Ceci a été confirmé par la valeur seuil du pouvoir d’arrêt électronique. - L’effet cumulatif des impacts de plusieurs ions conduit à la croissance anisotrope de la silice qui se contracte dans la direction du faisceau et s’allonge dans la direction perpendiculaire. Le modèle de chevauchement des traces ioniques (overlap en anglais) a été utilisé pour valider ce phénomène. - La déformation de la silice génère des contraintes qui agissent sur les nanoparticules dans les plans perpendiculaires à la trajectoire de l’ion. Afin d’accommoder ces contraintes les nanoparticules d’Au se déforment dans la direction du faisceau. - La déformation de l’or se produit lorsqu’il est traversé par un ion induisant la fusion d’un cylindre autour de sa trajectoire. La mobilité des atomes d’or a été confirmée par le calcul de la température équivalente à l’énergie déposée dans le matériau par les ions incidents. Le scénario ci-haut est compatible avec nos données expérimentales obtenues dans le cas du nanocomposite Au/SiO2. Il est appuyé par le fait que les nanoparticules d’Au ne se déforment pas lorsqu’elles sont intégrées dans l’AlAs résistant à la déformation.
Resumo:
Peu de femmes atteignent la recommandation internationale d’un allaitement exclusif d’une durée minimale de 6 mois malgré ses nombreux bienfaits pour l’enfant et pour la mère. Une raison fréquemment mentionnée pour la cessation précoce de l’allaitement ou l’introduction de préparations commerciales pour nourrissons est l’insuffisance de lait. L’origine de cette perception maternelle demeure toujours inexpliquée bien que sa prévalence dans les écrits soit bien documentée. L’insuffisance lactée relève-t-elle de pratiques d’allaitement qui contreviennent au processus physiologique de la lactation ou relève-t-elle d’un manque de confiance maternelle dans sa capacité d’allaiter? Une meilleure compréhension des déterminants de la perception d’insuffisance lactée (PIL) s’avère primordiale, un manque d’interventions infirmières permettant de prévenir, dépister et soutenir les femmes allaitant percevant une insuffisance lactée ayant été identifié. Cette étude visait à déterminer l’apport explicatif de variables biologiques et psychosociales de 252 femmes primipares allaitant sur une PIL. Une modélisation de facteurs associés à la PIL a été développée à l’aide de l’approche synthèse théorique comportant les variables suivantes: les événements entourant la naissance, les capacités infantiles et maternelles, la supplémentation, le sentiment maternel d’efficacité en allaitement, la PIL et les pratiques d’allaitement. Afin de mieux comprendre comment se développe et évolue la PIL, un devis prédictif confirmatif longitudinal a été privilégié de la naissance à la 6e semaine postnatale. Au T1, soit le premier 24 heures suivant la naissance, les participantes ont complété un questionnaire concernant leur intention d’initier et de maintenir un allaitement exclusif pour une durée de 6 mois. Au T2, soit la 3e journée postpartum, les femmes complétaient un 2e questionnaire regroupant les différentes mesures utilisées pour l’étude des variables de la modélisation PIL, incluant le prélèvement d’un échantillon de lait maternel. À la 2e semaine, soit le T3, les femmes complétaient un questionnaire similaire à celui du T2, lequel était envoyé par la poste. Finalement, au T4, soit à la 6e semaine, une entrevue téléphonique semi-dirigée concernant les pratiques d’allaitement a été réalisée. La vérification des hypothèses s’est faite principalement à l’aide de tests de corrélations de Pearson, d’analyses de régressions et d’équations structurelles. Les résultats indiquent une influence simultanée des capacités infantiles et du sentiment maternel d’efficacité en allaitement sur la PIL au T2 et au T3; le sentiment maternel d’efficacité en allaitement exerçant de surcroit un effet médiateur entre les capacités infantiles et la perception d’insuffisance lactée au T2 et au T3. Au T2, la fréquence des tétées est associée à une diminution du taux de Na+ du lait maternel, marqueur biologique de l’établissement de la lactogenèse II. Des interventions ciblant le développement d’un sentiment maternel élevé d’efficacité en allaitement devraient être privilégiées.
Resumo:
Les accouchements prématurés constituent un problème médical majeur en constante augmentation et ce, malgré tous les efforts mis en œuvre afin de contrer le déclenchement des contractions avant terme. Cette thèse relate du ''design'' rationnel d'un nouvel agent thérapeutique (i.e., tocolytique) qui serait capable de 1) arrêter les contractions, et 2) prolonger la gestation. Pour ce faire, une nouvelle cible, la prostaglandine F2α et son récepteur ont été sélectionnés et le peptidomimétisme a été choisi afin de résoudre cette problématique. L'introduction contient un historique rapide de la conception à la synthèse (''drug design'') du peptide parent, le PDC113, premier peptide a avoir démontré des aptitudes tocolytiques suffisantes pour faire du peptidomimétisme. La deuxième partie de l'introduction présente les concepts du peptidomimétisme appliqués au PDC113 qui ont permis d'accéder au PDC113.824, inhibiteur allostérique du récepteur de la prostaglandine F2α, et explique comment ce mime nous a permis d'élucider les mécanismes de signalisation intracellulaire impliqués dans la contraction musculaire lisse. Cette thèse présente la conception, la synthèse et l'étude structure-activité de mimes de repliement de tour β au sein du mime peptidique original (PDC113.824) dans lequel nous avons remplacé l'azabicycloalkane central (l'indolizidin-2-one) par une série d'autres azabicycloalcanes connus et des acides aza-aminés dont nous avons élaboré la synthèse. Dans un premier temps, une nouvelle stratégie de synthèse en solution de l'aza-glycyl-proline à partir de la diphényle hydrazone et du chloroformate de p-nitrophényle a été réalisée. Cette stratégie a permis d'éliminer les réactions secondaires de cyclisation intramoléculaires communément obtenues lors de l'introduction d'acides aza-aminés avec les protections traditionnelles de type carbamate en présence de phosgène, mais aussi de faciliter l'accès en une étape à des dérivés peptidiques du type aza-glycyle. L'élongation de l'aza-glycyl-proline en solution nous a permis d'accéder à un nouveau mime tetrapeptidique du Smac, un activateur potentiel de l'apoptose au sein de cellules cancéreuses. Par la suite, nous avons développé une stratégie de diversification sélective de l'azote α du résidu azaglycine en utilisant différents types d'halogénures d'alkyle en présence de tert-butoxyde de potassium. Afin de valider le protocole d'alkylation de l'aza-dipeptide, différents halogénures d'alkyle ont été testés. Nous avons également démontré l'utilité des aza-dipeptides résultants en tant que ''building block'' afin d'accéder à une variété d'azapeptides. En effet, l'aza-dipeptide a été déprotégée sélectivement soit en N-terminal soit en C-terminal, respectivement. D'autre part, la libération de l'amine de l'ester méthylique de l'aza-alkylglycyl-proline a conduit à une catégorie de composés à potentiel thérapeutique, les azadicétopipérazines (aza-DKP) par cyclisation intramoléculaire. Enfin, notre intérêt quant au développement d'un nouvel agent tocolytique nous a amené à développer une nouvelle voie de synthèse en solution du PDC113.824 permettant ainsi d'élucider les voies de signalisation intracellulaires du récepteur de la prostaglandine F2α. Afin de valider l'importance de la stéréochimie et d'étudier la relation structure/ activité du mime, nous avons remplacé l'indolizidin-2-one (I2aa) centrale du PDC113.824 par une série d'autres azabicycloalcanes et azadipeptides. Les azabicycloalcanes D-I2aa, quinolizidinone, et indolizidin-9-one ont été synthétisés et incorporés au sein du dit peptide ne donnant aucune activité ni in vitro ni ex vivo, validant ainsi l'importance du tour β de type II' pour le maintien de l'activité biologique du PDC113.824. Finalement, l'insertion d'une série de dérivés aza(alkyl)glycyl-prolyles a mené à de nouveaux inhibiteurs allostériques du récepteur de la PGF2α, l'un contenant l'azaglycine et l'autre, l'azaphénylalanine. Cette thèse a ainsi contribué, grâce à la conception et l'application de nouvelles méthodes de synthèse d'aza-peptides, au développement de nouveaux composés à potentiel thérapeutique afin d'inhiber le travail prématuré.
Resumo:
La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.
Resumo:
Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.
Resumo:
En 1939, la France et la Grande-Bretagne réalisent que, pour arrêter les agressions d’Hitler en Europe, il va leur falloir constituer un front commun. Cette recherche d’alliés les mène à courtiser l’Union soviétique. Malgré plus de quatre mois de négociations anglo-franco-soviétiques, aucune entente n’intervient entre les parties. Cet échec est d’autant plus douloureux que le 23 août un pacte de non-agression est signé entre Berlin et Moscou et, qu’une semaine plus tard, l’Allemagne envahit la Pologne. La Seconde Guerre mondiale est commencée. Depuis les années 1990, plusieurs historiens ont affirmé que l’historiographie occidentale concernant l’échec des négociations tripartites de 1939 a été influencée par la propagande de la Guerre froide et qu’elle avait propagé l’idée que les Soviétiques n’avaient jamais eu l’intention de s’allier avec l’Entente. Toutefois, après l’analyse des études publiées entre 1961 et 2011 par les historiens français et britanniques, ce mémoire démontre que, depuis 1961, en Grande-Bretagne et en France, l’interprétation du rôle de l’Union soviétique dans cet échec est beaucoup plus libre d’aprioris idéologiques qu’on pourrait le croire. La publication de l’ouvrage d’A.J.P. Taylor, The Origins of the Second World War, et la controverse qu’il va causer ont radicalement modifié la nature du débat et permis l’ascendant de thèses en tous points semblables à celles qui ont cours en Occident depuis le démantèlement de l’Union soviétique. Celles-ci soutiennent que les dirigeants soviétiques ont priorisé une alliance avec l’Entente au moins jusqu’à la fin du mois de juillet et que ce sont les politiques étrangères de la France et, plus particulièrement, de la Grande-Bretagne, qui ont causé l’échec des négociations tripartites de 1939.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.