986 resultados para Tour de taille
Resumo:
UANL
Resumo:
Le béryllium (Be) est un métal dont les propriétés physiques et mécaniques sont très recherchées, notamment dans les secteurs spatial, énergétique et électronique. Les principaux effets associés à l’exposition au Be sont la sensibilisation et la bérylliose chronique. La prévalence des effets associés au Be suggère que les risques sont, entre autres, fonction de sa spéciation. Par ailleurs, il semble que les particules fines constituent la fraction d’intérêt pour l’occurrence de tels effets. Dans cette étude nous avons vérifié l’hypothèse que la forme chimique et la taille des particules du Be jouent un rôle majeur au niveau de la toxicité et de l’apparition d’effets spécifiques à une exposition au Be. Les effets spécifiques se traduisent, entre autres, par la formation de granulomes inflammatoires pulmonaire, par la prolifération de lymphocytes TCD4+ et la production de cytokines de type Th1. Pour chacune des trois formes chimiques visées par la présente étude (le Be métallique ou Be, l’oxyde de Be ou BeO et l’alliage Be aluminium ou BeAl), la toxicité a été évaluée à la suite d’une exposition subchronique par inhalation oro-nasale à des particules fines (F) et totales (T). À cette fin, un modèle animal (souris) a été utilisé. Au total, 245 souris ont été utilisées. Elles ont été subdivisées en sept groupes de 35 souris. Un groupe a servi de contrôle, alors que chacun des six autres a été exposé soit à des particules fines soit à des particules totales, pour chacune des trois formes chimiques de Be (Be-F, Be-T, BeO-F, BeO-T, BeAl-F, BeAl-T). La durée d’exposition pour chacun des groupes s’est étendue sur 3 semaines, 5 jours par semaine, 6 heures par jour. Le niveau d’exposition des souris était de 250 µg/m3. L‘urine des souris a été recueillie avant et durant l’exposition. Au moment du sacrifice, plusieurs tissus (poumon, rate, foie et reins) ainsi que des échantillons de sang ont été prélevés puis immédiatement congelés jusqu’à leur analyse pour la détermination de leur teneur en Be. De plus, certains poumons et rates ont été analysés pour l’évaluation de la sensibilité immunologique et de l'inflammation pulmonaire. Cette étude d’exposition subchronique est la première étude murine qui étudie les effets toxiques de différentes tailles particulaires sur les changements pathologique et immunologique similaires à ceux observés chez l’humain. Cette étude a permis de constater qu’il existait des différences importantes au niveau de la toxicité du Be d’après les différentes tailles particulaires à l’étude. Ces différences seraient reliées au dépôt des particules de Be dans les voies respiratoires et également à la capacité des voies respiratoires à les éliminer totalement ou partiellement. La clairance respiratoire est fonction, notamment, du site de déposition et du caractère soluble ou non des particules. Cette recherche aura également permis de démontrer que les souris C3H/HeJ représentent un bon modèle pour l’étude des effets toxicologiques et immunologiques d’une exposition au Be. De plus, nos résultats démontrent que la sévérité des lésions pulmonaires causées par le Be, tel que l’infiltration interstitielle de lymphocytes et la formation de granulomes non-caséeux, augmente avec le temps de résidence pulmonaire des particules de Be. Combinés à d’autres résultats, nos résultats contribueront à guider les actions de prévention relativement à l’exposition au Be, incluant éventuellement la révision de la valeur limite de l’exposition et possiblement l’établissement de valeurs limites en fonction de la forme chimique et de la taille des particules.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Objectif : L’objectif principal de cette thèse est d’examiner les déterminants de l’utilisation des services de soins pour des raisons de santé mentale dans le sud-ouest de Montréal. Données et méthodes : L’étude utilise les données de la première phase du projet portant sur « le développement d’une zone circonscrite d’études épidémiologiques en psychiatrie dans le sud-ouest de Montréal ». Les données ont été collectées entre mai 2007 et août 2008 auprès d’un échantillon de 2434 personnes sélectionnées au hasard dans tout le territoire de l’étude. De cet échantillon, nous avons sélectionné un sous-échantillon de personnes ayant eu au moins un diagnostic de santé mentale au cours de la dernière année. 423 personnes ont rencontrées ce critère et constituent l’échantillon pour les analyses de la présente thèse. Le modèle comportemental d’Andersen a servi de cadre pour le choix des variables à analyser. Parce que l’approche socio-spatiale a été privilégiée pour modéliser les déterminants de l’utilisation des services, les analyses ont été effectuées à l’aide de quatre logiciels distincts à savoir : SPSS, AMOS, ArcGIS et MlWin. Résultats : Les résultats montrent que 53,66% de notre échantillon ont utilisés au moins un service de santé pour des raisons de santé mentale. On constate néanmoins que les déterminants de l’utilisation des services en santé mentale sont à la fois complexes et spatialement inégalement réparties. En ce qui concerne les caractéristiques sociodémographiques et cliniques, les femmes et ceux qui perçoivent la stigmatisation envers les personnes ayant un problème de santé mentale utilisent plus les services. Le nombre de diagnostics de santé mentale est aussi associé à l’utilisation des services. L’augmentation du nombre de diagnostics entraîne une augmentation de l’utilisation des services (=0,38; p<0,001). D’autres variables comme l’âge, le statut matrimonial, la taille du ménage, le soutien social et la qualité de vie influencent indirectement l’utilisation des services. À titre illustratif toute augmentation de l’âge entraîne une augmentation du soutien social de (=0,69; p<0,001) qui à son tour fait diminuer la détresse psychiatrique (= -0,09 (p<0,05). Or, toute augmentation d’une unité de détresse psychiatrique entraîne une augmentation de l’utilisation des services (=0,58 (p<0,001). Sur le plan spatiale, il existe une corrélation positive entre l’utilisation des services et la défavorisation matérielle, la défavorisation sociale et le nombre d’immigrants récents sur un territoire. Par contre, la corrélation entre la prévalence de la santé mentale et l’utilisation des services est négative. Les analyses plus poussées indiquent que le contexte de résidence explique 12,26 % (p<0,05) de la variation totale de l’utilisation des services. De plus, lorsqu’on contrôle pour les caractéristiques individuelles, vivre dans un environnement stable augmente l’utilisation des services (O.R=1,24; p<0,05) tandis que les contextes défavorisés du point de vue socioéconomique ont un effet néfaste sur l’utilisation (O.R=0,71; p<0,05). Conclusion : Les résultats de l’étude suggèrent que si on veut optimiser l’utilisation des services en santé mentale, il est important d’agir prioritairement au niveau de la collectivité. Plus spécifiquement, il faudrait mener des campagnes de sensibilisation auprès de la population pour combattre la stigmatisation des personnes ayant un problème de santé mentale. Sur le plan de la planification des soins de santé, on devrait augmenter l’offre des services dans les territoires défavorisés pour en faciliter l’accès aux habitants.
Resumo:
Cette thèse s'intéresse à des aspects du tournage, de la projection et de la perception du cinéma stéréo panoramique, appelé aussi cinéma omnistéréo. Elle s'inscrit en grande partie dans le domaine de la vision par ordinateur, mais elle touche aussi aux domaines de l'infographie et de la perception visuelle humaine. Le cinéma omnistéréo projette sur des écrans immersifs des vidéos qui fournissent de l'information sur la profondeur de la scène tout autour des spectateurs. Ce type de cinéma comporte des défis liés notamment au tournage de vidéos omnistéréo de scènes dynamiques, à la projection polarisée sur écrans très réfléchissants rendant difficile l'estimation de leur forme par reconstruction active, aux distorsions introduites par l'omnistéréo pouvant fausser la perception des profondeurs de la scène. Notre thèse a tenté de relever ces défis en apportant trois contributions majeures. Premièrement, nous avons développé la toute première méthode de création de vidéos omnistéréo par assemblage d'images pour des mouvements stochastiques et localisés. Nous avons mis au point une expérience psychophysique qui montre l'efficacité de la méthode pour des scènes sans structure isolée, comme des courants d'eau. Nous proposons aussi une méthode de tournage qui ajoute à ces vidéos des mouvements moins contraints, comme ceux d'acteurs. Deuxièmement, nous avons introduit de nouveaux motifs lumineux qui permettent à une caméra et un projecteur de retrouver la forme d'objets susceptibles de produire des interréflexions. Ces motifs sont assez généraux pour reconstruire non seulement les écrans omnistéréo, mais aussi des objets très complexes qui comportent des discontinuités de profondeur du point de vue de la caméra. Troisièmement, nous avons montré que les distorsions omnistéréo sont négligeables pour un spectateur placé au centre d'un écran cylindrique, puisqu'elles se situent à la périphérie du champ visuel où l'acuité devient moins précise.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
En partant de quelques difficultés observées autour des aspects de la conceptualisation technoscientifique et de l’intégration de la de la théorie et la pratique dans l’apprentissage de la physiologie animale chez les étudiants du programme de Zootechnie de l’Université Nationale de Colombie, siège Medellín, cette recherche propose une stratégie didactique s’appuyant sur la méthode de l’Apprentissage Basé sur les Problèmes (ABP), appliquée spécifiquement aux sujets de thermorégulation et stress physiologique des animaux domestiques. Dans cette étude de cas on a travaillé avec un échantillon de huit étudiants à qui on a présenté dès la première session un problème didactique pour être résolu à travers le cours. Afin d’évaluer le processus on a réalisé trois enquêtes nommées Épreuves de Niveau de Formulation (NF) réalisées à différents moments de l’essai : l’une avant de commencer avec le sujet (NF 1), l’autre après la troisième classe théorique donnée et avant de faire la pratique sur le terrain (NF 2), et l’autre à la fin du processus (NF 3). Finalement on a réalisé des entretiens individuels avec chaque étudiant afin de connaître sa perception concernant la méthode. L’information obtenue a été soumise à une analyse qualitative et par des correspondances, par le biais du programme QDA Miner à travers de la révision et codification des textes provenants des enquêtes et de l’entretien individuel, complétés à leur tour par des observations sur le terrain, en analysant le changement conceptuel, la relation théorie-pratique et les correspondances entre les variables et les catégories établies. Parmi les principaux résultats obtenus on souligne le fait qu’après avoir appliqué l’ABP dans ce cours de Physiologie Animale le changement conceptuel a été favorisé et le problème formulé a servi comme connecteur entre la théorie et la pratique. En outre, on a observé la fusion des connaissances préalables avec les nouveaux acquis, l’apprentissage significatif, l’amélioration du niveau de formulation et l’augmentation de la scientificité des définitions; également il a mené à la solution viii de problèmes et à surmonter les obstacles épistémologiques comme la pluridisciplinarité et la non-linéarité. Il reste comme recommandation celle d’évaluer cette méthode dans d’autres sujets de la Physiologie Animale, dans d’autres sciences, dans des échantillons d’une taille majeure, ainsi comme approcher le sujet de l’évaluation appliquée directement à cette méthode.
Resumo:
Les accouchements prématurés constituent un problème médical majeur en constante augmentation et ce, malgré tous les efforts mis en œuvre afin de contrer le déclenchement des contractions avant terme. Cette thèse relate du ''design'' rationnel d'un nouvel agent thérapeutique (i.e., tocolytique) qui serait capable de 1) arrêter les contractions, et 2) prolonger la gestation. Pour ce faire, une nouvelle cible, la prostaglandine F2α et son récepteur ont été sélectionnés et le peptidomimétisme a été choisi afin de résoudre cette problématique. L'introduction contient un historique rapide de la conception à la synthèse (''drug design'') du peptide parent, le PDC113, premier peptide a avoir démontré des aptitudes tocolytiques suffisantes pour faire du peptidomimétisme. La deuxième partie de l'introduction présente les concepts du peptidomimétisme appliqués au PDC113 qui ont permis d'accéder au PDC113.824, inhibiteur allostérique du récepteur de la prostaglandine F2α, et explique comment ce mime nous a permis d'élucider les mécanismes de signalisation intracellulaire impliqués dans la contraction musculaire lisse. Cette thèse présente la conception, la synthèse et l'étude structure-activité de mimes de repliement de tour β au sein du mime peptidique original (PDC113.824) dans lequel nous avons remplacé l'azabicycloalkane central (l'indolizidin-2-one) par une série d'autres azabicycloalcanes connus et des acides aza-aminés dont nous avons élaboré la synthèse. Dans un premier temps, une nouvelle stratégie de synthèse en solution de l'aza-glycyl-proline à partir de la diphényle hydrazone et du chloroformate de p-nitrophényle a été réalisée. Cette stratégie a permis d'éliminer les réactions secondaires de cyclisation intramoléculaires communément obtenues lors de l'introduction d'acides aza-aminés avec les protections traditionnelles de type carbamate en présence de phosgène, mais aussi de faciliter l'accès en une étape à des dérivés peptidiques du type aza-glycyle. L'élongation de l'aza-glycyl-proline en solution nous a permis d'accéder à un nouveau mime tetrapeptidique du Smac, un activateur potentiel de l'apoptose au sein de cellules cancéreuses. Par la suite, nous avons développé une stratégie de diversification sélective de l'azote α du résidu azaglycine en utilisant différents types d'halogénures d'alkyle en présence de tert-butoxyde de potassium. Afin de valider le protocole d'alkylation de l'aza-dipeptide, différents halogénures d'alkyle ont été testés. Nous avons également démontré l'utilité des aza-dipeptides résultants en tant que ''building block'' afin d'accéder à une variété d'azapeptides. En effet, l'aza-dipeptide a été déprotégée sélectivement soit en N-terminal soit en C-terminal, respectivement. D'autre part, la libération de l'amine de l'ester méthylique de l'aza-alkylglycyl-proline a conduit à une catégorie de composés à potentiel thérapeutique, les azadicétopipérazines (aza-DKP) par cyclisation intramoléculaire. Enfin, notre intérêt quant au développement d'un nouvel agent tocolytique nous a amené à développer une nouvelle voie de synthèse en solution du PDC113.824 permettant ainsi d'élucider les voies de signalisation intracellulaires du récepteur de la prostaglandine F2α. Afin de valider l'importance de la stéréochimie et d'étudier la relation structure/ activité du mime, nous avons remplacé l'indolizidin-2-one (I2aa) centrale du PDC113.824 par une série d'autres azabicycloalcanes et azadipeptides. Les azabicycloalcanes D-I2aa, quinolizidinone, et indolizidin-9-one ont été synthétisés et incorporés au sein du dit peptide ne donnant aucune activité ni in vitro ni ex vivo, validant ainsi l'importance du tour β de type II' pour le maintien de l'activité biologique du PDC113.824. Finalement, l'insertion d'une série de dérivés aza(alkyl)glycyl-prolyles a mené à de nouveaux inhibiteurs allostériques du récepteur de la PGF2α, l'un contenant l'azaglycine et l'autre, l'azaphénylalanine. Cette thèse a ainsi contribué, grâce à la conception et l'application de nouvelles méthodes de synthèse d'aza-peptides, au développement de nouveaux composés à potentiel thérapeutique afin d'inhiber le travail prématuré.
Resumo:
Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.
Resumo:
En raison de leur petite taille, les nanoparticules (NP) (< 100 nm) peuvent coaguler très rapidement ce qui favorise leur pénétration dans l’organisme sous forme d’agglomérats. L’objectif de cette recherche est d’étudier l’influence de l’état d’agglomération de NP de dioxyde de titane (TiO2) de trois tailles de départ différentes, 5, 10-30 ou 50 nm sur la toxicité pulmonaire chez le rat mâle (F344) exposé à des aérosols de 2, 7 ou 20 mg/m3 pendant 6 heures. Dans une chambre d’inhalation, six groupes de rats (n = 6 par groupe) ont été exposés par inhalation aiguë nez-seulement à des aérosols ayant une taille primaire de 5 nm, mais produits sous forme faiblement (< 100 nm) ou fortement (> 100 nm) agglomérée à 2, 7 et 20 mg/m3. De façon similaire, quatre autres groupes de rats ont été exposés à 20 mg/m3 à des aérosols ayant une taille primaire de 10-30 et 50 nm. Les différents aérosols ont été générés par nébulisation à partir de suspensions ou par dispersion à sec. Pour chaque concentration massique, un groupe de rats témoins (n = 6 par groupe) a été exposé à de l’air comprimé dans les mêmes conditions. Les animaux ont été sacrifiés 16 heures après la fin de l’exposition et les lavages broncho-alvéolaires ont permis de doser des marqueurs d’effets inflammatoires, cytotoxiques et de stress oxydant. Des coupes histologiques de poumons ont également été analysées. L’influence de l’état d’agglomération des NP de TiO2 n’a pu être discriminée à 2 mg/m3. Aux concentrations massiques de 7 et 20 mg/m3, nos résultats montrent qu’une réponse inflammatoire aiguë est induite suite à l'exposition aux aérosols fortement agglomérés. En plus de cette réponse, l’exposition aux aérosols faiblement agglomérés à 20 mg/m3 s’est traduite par une augmentation significative de la 8-isoprostane et de la lactate déshydrogénase. À 20 mg/m3, les effets cytotoxiques étaient plus importants suite à l’exposition aux NP de 5 nm faiblement agglomérées. Ces travaux ont montré dans l'ensemble que différents mécanismes de toxicité pulmonaire peuvent être empruntés par les NP de TiO2 en fonction de la taille de départ et de l’état d’agglomération.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.