928 resultados para modeling and visualization


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Heikkenevä kysyntä sekä koveneva hintakilpailu erityisesti painopaperin markkinoilla on luonut paperinvalmistajalle haasteita kustannusten alentamisen sekä kannattavuuden parantamisen osalta. Sijaintinsa vuoksi yritys on halunnut erityisesti parantaa kustannustehokkuuttaan logistiikan osalta, minkä tueksi tämä diplomityö on tehty. Tutkimuksen tarkoituksena on analysoida paperitehtaan toimitusketjuja kustannusjohtamisen näkökulmasta. Tavoitteena on ollut arvioida kahden vaihtoehtoisen toimitusketjun, suoran ja välivarasto-toimituksen, vaikutusta syntyvien kustannusten, ketjuun sitoutuneen pääoman sekä asiakaskannattavuuden kautta. Tutkimus toteutettiin case-tutkimuksen kaltaisena soveltuvin osin, hyödyntämällä kvantitatiivisia menetelmiä. Projektia varten valittiin paperinvalmistajan painopaperin tuloslinjalta kymmenen kohdeasiakasta, joille vaihtoehtoisia toimitusketjuja voidaan soveltaa. Toimitusketjut rajattiin käsittämään valmiin tuotteen asiakastoimitukset ja niistä aiheutuvat kuluerät. Kustannus- ja pääoma-analyysin suunnittelussa hyödynnettiin toimitusketjuihin sekä kustannusjohtamiseen liittyvää teoreettista kirjallisuutta. Ensisijaisena viitekehyksenä kustannusten analysoinnissa sovellettiin toimintolaskentaa ja pääoman sitoutumisen arvioinnissa kiertoajan tunnuslukuja. Käsiteltävä informaatio kerättiin yrityksen sisäisistä raporteista sekä toiminnanohjausjärjestelmästä taulukkolaskentaohjelmaan, jossa laskelmat tehtiin. Tutkimuksen avaintuloksena kahdeksan case-asiakkaan kohdalla suora toimitus osoittautui kustannuksiltaan välivaraston kautta kulkevaa edullisemmaksi. Lisäksi havaittiin suoran toimituksen nopeuttavan teoriassa pääoman kiertoa toimitusketjussa lyhyemmän läpimenoajan ansiosta. Johtopäätöksenä kustannus- ja pääomahyötyjen vaikutuksen vuoksi suorien toimitusten hyödyntäminen on edullista soveltuvien asiakkaiden kohdalla. Tutkimuksessa kustannusinformaation kerääminen kokonaisvaltaisesti osoittautui haasteelliseksi, sillä kaikkien toimitusketjun kustannuserien tietoja ei ollut laajasti saatavilla. Toimeksiantajan näkökulmasta merkittävät kohteet jatkotutkimukselle ovat kustannusten oikeellisuuteen ja kohdistamiseen sekä asiakkaiden maksukäytäntöihin ja ehtoihin liittyvä seuranta.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Almost identical polyglutamine-containing proteins with unknown structures have been found in human, mouse and rat genomes (GenBank AJ277365, AF525300, AY879229). We infer that an identical new gene (RING) finger domain of real interest is located in each C-terminal segment. A three-dimensional (3-D) model was generated by remote homology modeling and the functional implications are discussed. The model consists of 65 residues from terminal position 707 to 772 of the human protein with a total length of 796 residues. The 3-D model predicts a ubiquitin-protein ligase (E3) as a binding site for ubiquitin-conjugating enzyme (E2). Both enzymes are part of the ubiquitin pathway to label unwanted proteins for subsequent enzymatic degradation. The molecular contact specificities are suggested for both the substrate recognition and the residues at the possible E2-binding surface. The predicted structure, of a ubiquitin-protein ligase (E3, enzyme class number 6.3.2.19, CATH code 3.30.40.10.4) may contribute to explain the process of ubiquitination. The 3-D model supports the idea of a C3HC4-RING finger with a partially new pattern. The putative E2-binding site is formed by a shallow hydrophobic groove on the surface adjacent to the helix and one zinc finger (L722, C739, P740, P741, R744). Solvent-exposed hydrophobic amino acids lie around both zinc fingers (I717, L722, F738, or P765, L766, V767, V733, P734). The 3-D structure was deposited in the protein databank theoretical model repository (2B9G, RCSB Protein Data Bank, NJ).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tämän pro gradu -tutkielman tavoitteena oli standardoida ja kehittää hankinnan prosesseja systemaattisesti. Prosessien standardoiminen edesauttaa organisaation itseohjautuvuutta ja parantaa organisaation kyvykkyyttä. Tämä tutkielma tuottaa uutta tutkimustietoa tutkimusaukkoon hankinnan prosessien systemaattisesta kehittämisestä. Tutkielman teoriaosassa käsitellään prosessiajattelua, ISO 9001 standardin vaikutusta hankintatoimintaan, tunnistetaan hankinnan prosesseja ja esitetään erilaisia hankinnan prosesseihin soveltuvia LEAN Six Sigma kehitystyökaluja. Tutkielman empiirinen osio on toteutettu toimeksiantona suurelle teollisuusyritykselle. Tämän tutkielman empiirisessä osiossa on yhdistelty kvalitatiiviselle ja kvantitatiiviselle tutkimukselle ominaisia tutkimusmetodologioita. Tutkimusmetodologioiden yhdisteleminen tuottaa lisäarvoa tutkielman toteutukselle ja parantaa työn luotettavuutta. Tässä tutkielmassa käytetyt tutkimusmenetelmät koostuvat kvantitatiiviselle tutkimukselle ominaisesta kyselystä hankinnan prosessien nykytilan selvittämiseksi sekä kvalitatiivisen tutkimuksen tutkimusmenetelmille ominaisesta tapaustutkimuksesta. Kyselyn avulla muodostettiin analyysi hankinnan prosessien nykytilasta, jonka pohjalta toimeksiantajayritykselle ehdotettiin kehitettäviä hankinnan prosesseja. Lopulliseksi kehityskohteeksi valittu prosessi määriteltiin aivoriihessä kerätyn tiedon perusteella kehityspotentiaalin esille tuovasta nelikentästä. Kehitettävä prosessi asemoitui samalla tapaustutkimuksella tutkittavaksi tapaukseksi. Kehitettäväksi prosessiksi valittiin saapuvan tavaran vastaanotto ja visuaalinen tarkastaminen. Prosessia kehitettiin mallintamalla ja LEAN Six Sigma menetelmiä hyödyntäen. Prosessimallinnuksen sekä LEAN Six Sigma menetelmien tueksi kerättiin tietoa aivoriihistä ja teemahaastatteluista. Tutkielman tuloksena toimeksiantajayritys sai kokonaiskuvan hankinnan prosessien nykytilasta, kehitetyn tavoiteprosessin ja työohjeen saapuvan tavaran vastaanotolle ja visuaaliselle tarkastukselle sekä jatkossa hankinnan prosessien standardoimista ja kehittämistä helpottavan hankinnan prosessin systemaattisen kehittämismallin. Hankinnan prosessin systemaattinen kehittämismalli on uutta tutkimustietoa, joka asemoituu hankinnan prosessien kehittämisen tutkimusaukkoon. Hankinnan prosessin systemaattista kehittämismallia ei tämän tutkielman pohjalta voida yleistää, koska tutkielma on toteutettu toimeksiantajayrityksen lähtökohdista. Johtopäätöksenä voidaan todeta, että toimeksiantajayritys, muut organisaatiot sekä tutkimuskenttä tarvitsevat lisää tietoa hankinnan prosessien kehittämisestä. Hankinnan prosessien kehittämistä tulisi tutkia enemmän ja erityisesti tässä tutkielmassa esitettyä kehittämismallia tulisi jatkossa testata niin, että kehittämismallin toimivuus voitaisiin yleistää.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cloud Computing paradigm is continually evolving, and with it, the size and the complexity of its infrastructure. Assessing the performance of a Cloud environment is an essential but strenuous task. Modeling and simulation tools have proved their usefulness and powerfulness to deal with this issue. This master thesis work contributes to the development of the widely used cloud simulator CloudSim and proposes CloudSimDisk, a module for modeling and simulation of energy-aware storage in CloudSim. As a starting point, a review of Cloud simulators has been conducted and hard disk drive technology has been studied in detail. Furthermore, CloudSim has been identified as the most popular and sophisticated discrete event Cloud simulator. Thus, CloudSimDisk module has been developed as an extension of CloudSim v3.0.3. The source code has been published for the research community. The simulation results proved to be in accordance with the analytic models, and the scalability of the module has been presented for further development.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The two central goals of this master's thesis are to serve as a guidebook on the determination of uncertainty in efficiency measurements and to investigate sources of uncertainty in efficiency measurements in the field of electric drives by a literature review, mathematical modeling and experimental means. The influence of individual sources of uncertainty on the total instrumental uncertainty is investigated with the help of mathematical models derived for a balance and a direct air cooled calorimeter. The losses of a frequency converter and an induction motor are measured with the input-output method and a balance calorimeter at 50 and 100 % loads. A software linking features of Matlab and Excel is created to process measurement data, calculate uncertainties and to calculate and visualize results. The uncertainties are combined with both the worst case and the realistic perturbation method and distributions of uncertainty by source are shown based on experimental results. A comparison of the calculated uncertainties suggests that the balance calorimeter determines losses more accurately than the input-output method with a relative RPM uncertainty of 1.46 % compared to 3.78 - 12.74 % respectively with 95 % level of confidence at the 93 % induction motor efficiency or higher. As some principles in uncertainty analysis are open to interpretation the views and decisions of the analyst can have noticeable influence on the uncertainty in the measurement result.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This study concentrates on developing a suitable business model for Finnish biobanks, with particular emphasis on value creation to stakeholders. The sub-objective of this thesis are to map the commercial possibilities of biobanks and potential barriers for business development. The study approaches the subject from the biobanks’ as well as the stakeholders’ point of view, integrating their hopes and needs considering current and future co-operation into the findings. In 2013 the Biobank Act came into effect, after which six biobanks have been established and several other pending biobank projects are in process. There is relatively little research in regard to the commercial opportunities of this newcomer of the biomedical industry, and particularly in the Finnish markets. Therefore, the aim of this study is to partially fill the research gap of the commercial potential of biobanks and particularly outline the problematic elements in developing business. The theoretical framework consists of a few select theories, which depict business modeling and value creation of organizations. The theories are combined to form a synthesis, which best adapts to biobanks, and acts as a backbone for interviews. The empirical part of the study was conducted mainly by seven face-to-face interviews, and complemented by two phone interviews and an e-mail questionnaire with four responses. The findings consist mainly of the participants’ reflections on the potential products and services enabled by consumer genomics, as well as perceptions on different obstacles for biobanks’ business development. The nature of the study is tentative, as biobanks are relatively new organizations in Finland, and their operation models and activities are still molding. The aim is to bring to surface the hopes and concerns of biobanks’ representatives, as well as the representatives of stakeholders, in order to transparently discuss the current situation and suggestions for further development. The study concludes that in principle, the interviewees’ agree on the need for development in order not to waste the potential of biobanks; regardless, the participants emphasize different aspects and subsequently lean on differing methods.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Erilaisten paikkatietoon ja karttoihin perustuvien palveluiden määrä on viime vuosina kasvanut suuresti. Eräänä mahdollistajana tähän lienee Euroopan Unionin Inspire-direktiivi, jonka tavoitteena on tehostaa paikkatietoaineistojen käyttöä, laajentaa viranomaisten välistä yhteistyötä, sekä edistää monipuolisten kansalaispalveluiden syntymistä. Toisena tekijänä lienee mobiiliverkkojen tiedonsiirtokapasiteetin kasvu. Tämä diplomityö keskittyy geneerisen karttakomponentin kehitykseen. Työssä tutustutaan erilaisiin paikkatiedon välityksessä käytettäviin tiedonsiirtotekniikoihin ja paikkatiedon visuaalisen esityksen mahdollistaviin työkaluihin. Tekniikoiden esittelyn jälkeen selvitetään mitä käytettävyydellä ja geneerisyydellä tarkoitetaan kirjallisuuslähteitä apuna käyttäen. Työn seuraavassa vaiheessa toteutetaan prototyyppi uudelleenkäytettävästä karttakomponentista, sekä selvitetään hyvä tallennusratkaisu erilaisille kartalle tehtäville merkinnöille. Viimeisessä vaiheessa analysoidaan toteutusta ja valittuja ratkaisuja. Työn tuloksina saadaan uudelleenkäytettävän karttakomponentin prototyyppi sekä yrityksen tuotteisiin sopiva tallennusratkaisu karttamerkinnöille. Lisäksi prototyypin analysoinnista saatavat tulokset edesauttavat paremman tuotantoversion kehittämisessä.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Most of the applications of airborne laser scanner data to forestry require that the point cloud be normalized, i.e., each point represents height from the ground instead of elevation. To normalize the point cloud, a digital terrain model (DTM), which is derived from the ground returns in the point cloud, is employed. Unfortunately, extracting accurate DTMs from airborne laser scanner data is a challenging task, especially in tropical forests where the canopy is normally very thick (partially closed), leading to a situation in which only a limited number of laser pulses reach the ground. Therefore, robust algorithms for extracting accurate DTMs in low-ground-point-densitysituations are needed in order to realize the full potential of airborne laser scanner data to forestry. The objective of this thesis is to develop algorithms for processing airborne laser scanner data in order to: (1) extract DTMs in demanding forest conditions (complex terrain and low number of ground points) for applications in forestry; (2) estimate canopy base height (CBH) for forest fire behavior modeling; and (3) assess the robustness of LiDAR-based high-resolution biomass estimation models against different field plot designs. Here, the aim is to find out if field plot data gathered by professional foresters can be combined with field plot data gathered by professionally trained community foresters and used in LiDAR-based high-resolution biomass estimation modeling without affecting prediction performance. The question of interest in this case is whether or not the local forest communities can achieve the level technical proficiency required for accurate forest monitoring. The algorithms for extracting DTMs from LiDAR point clouds presented in this thesis address the challenges of extracting DTMs in low-ground-point situations and in complex terrain while the algorithm for CBH estimation addresses the challenge of variations in the distribution of points in the LiDAR point cloud caused by things like variations in tree species and season of data acquisition. These algorithms are adaptive (with respect to point cloud characteristics) and exhibit a high degree of tolerance to variations in the density and distribution of points in the LiDAR point cloud. Results of comparison with existing DTM extraction algorithms showed that DTM extraction algorithms proposed in this thesis performed better with respect to accuracy of estimating tree heights from airborne laser scanner data. On the other hand, the proposed DTM extraction algorithms, being mostly based on trend surface interpolation, can not retain small artifacts in the terrain (e.g., bumps, small hills and depressions). Therefore, the DTMs generated by these algorithms are only suitable for forestry applications where the primary objective is to estimate tree heights from normalized airborne laser scanner data. On the other hand, the algorithm for estimating CBH proposed in this thesis is based on the idea of moving voxel in which gaps (openings in the canopy) which act as fuel breaks are located and their height is estimated. Test results showed a slight improvement in CBH estimation accuracy over existing CBH estimation methods which are based on height percentiles in the airborne laser scanner data. However, being based on the idea of moving voxel, this algorithm has one main advantage over existing CBH estimation methods in the context of forest fire modeling: it has great potential in providing information about vertical fuel continuity. This information can be used to create vertical fuel continuity maps which can provide more realistic information on the risk of crown fires compared to CBH.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This study concentrates on developing a suitable business model for Finnish biobanks, with particular emphasis on value creation to stakeholders. The sub-objective of this thesis are to map the commercial possibilities of biobanks and potential barriers for business development. The study approaches the subject from the biobanks’ as well as the stakeholders’ point of view, integrating their hopes and needs considering current and future co-operation into the findings. In 2013 the Biobank Act came into effect, after which six biobanks have been established and several other pending biobank projects are in process. There is relatively little research in regard to the commercial opportunities of this newcomer of the biomedical industry, and particularly in the Finnish markets. Therefore, the aim of this study is to partially fill the research gap of the commercial potential of biobanks and particularly outline the problematic elements in developing business. The theoretical framework consists of a few select theories, which depict business modeling and value creation of organizations. The theories are combined to form a synthesis, which best adapts to biobanks, and acts as a backbone for interviews. The empirical part of the study was conducted mainly by seven face-to-face interviews, and complemented by two phone interviews and an e-mail questionnaire with four responses. The findings consist mainly of the participants’ reflections on the potential products and services enabled by consumer genomics, as well as perceptions on different obstacles for biobanks’ business development. The nature of the study is tentative, as biobanks are relatively new organizations in Finland, and their operation models and activities are still molding. The aim is to bring to surface the hopes and concerns of biobanks’ representatives, as well as the representatives of stakeholders, in order to transparently discuss the current situation and suggestions for further development. The study concludes that in principle, the interviewees’ agree on the need for development in order not to waste the potential of biobanks; regardless, the participants emphasize different aspects and subsequently lean on differing methods.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the theoretical part of this master’s thesis business process management and process modeling and the benefits and challenges related are discussed. The empirical part consists of two parts. The first one is a case study about process management and modeling and the second one presents the outcomes from a modeling project that was executed for the employer of this thesis. In the project the target mill unit’s business processes were identified, a process map was conducted and process architecture for further use was established. In the outcomes of the study challenges and possibilities of process management and modeling as well as possible reasons for these prejudices are discussed based on the case study and the modeling project. From the research of this thesis a framework for successful process modeling is established. The framework highlights four most important sectors that an organization should evaluate before and during the modeling project.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The standard squirrel-cage induction machine has nearly reached its maximum efficiency. In order to further increase the energy efficiency of electrical machines, the use of permanent magnets in combination with the robust design and the line start capability of the induction machine is extensively investigated. Many experimental designs have been suggested in literature, but recently, these line-start permanent-magnet machines (LSPMMs) have become off-the-shelf products available in a power range up to 7.5 kW. The permanent magnet flux density is a function of the operating temperature. Consequently, the temperature will affect almost every electrical quantity of the machine, including current, torque, and efficiency. In this paper, the efficiency of an off-the-shelf 4-kW three-phase LSPMM is evaluated as a function of the temperature by both finite-element modeling and by practical measurements. In order to obtain stator, rotor, and permanent magnet temperatures, lumped thermal modeling is used.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The prediction of proteins' conformation helps to understand their exhibited functions, allows for modeling and allows for the possible synthesis of the studied protein. Our research is focused on a sub-problem of protein folding known as side-chain packing. Its computational complexity has been proven to be NP-Hard. The motivation behind our study is to offer the scientific community a means to obtain faster conformation approximations for small to large proteins over currently available methods. As the size of proteins increases, current techniques become unusable due to the exponential nature of the problem. We investigated the capabilities of a hybrid genetic algorithm / simulated annealing technique to predict the low-energy conformational states of various sized proteins and to generate statistical distributions of the studied proteins' molecular ensemble for pKa predictions. Our algorithm produced errors to experimental results within .acceptable margins and offered considerable speed up depending on the protein and on the rotameric states' resolution used.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

For the past 20 years, researchers have applied the Kalman filter to the modeling and forecasting the term structure of interest rates. Despite its impressive performance in in-sample fitting yield curves, little research has focused on the out-of-sample forecast of yield curves using the Kalman filter. The goal of this thesis is to develop a unified dynamic model based on Diebold and Li (2006) and Nelson and Siegel’s (1987) three-factor model, and estimate this dynamic model using the Kalman filter. We compare both in-sample and out-of-sample performance of our dynamic methods with various other models in the literature. We find that our dynamic model dominates existing models in medium- and long-horizon yield curve predictions. However, the dynamic model should be used with caution when forecasting short maturity yields

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Jusqu’à maintenant, la prison a surtout été analysée à partir du point de vue des détenus et celui des surveillants comme si le vécu de l’enfermement et la relation détenus-surveillants étaient les seuls points de vue permettant d’en apprendre sur ce qu’elle est et d’en saisir le fonctionnement. Nous pensons, pour notre part, que d’autres points de vue sont possibles, voire même souhaitables. C’est le cas, notamment, de celui des enseignants qui exercent leur métier en prison. Bien que théoriquement en mesure d’offrir un complément intéressant aux fonctions de dissuasion et de réinsertion sociale que la prison remplit difficilement à elle seule, le projet éducatif carcéral constitue une activité plus ou moins marginalisée qui est ramenée au niveau des autres activités pénitentiaires. Au premier chef, c’est à la prison que nous sommes tentés d’en imputer la responsabilité et, de fait, elle y est pour quelque chose. D’abord conçue pour neutraliser des criminels, il lui est difficile de les éduquer en même temps. Mais cette marginalisation, nous le verrons, n’est pas le seul fait de la prison. Elle tient aussi beaucoup au mandat qu’ils se donnent et à la façon dont les enseignants se représentent leur travail. S’étant eux-mêmes défini un mandat ambitieux de modelage et de remodelage de la personnalité de leurs élèves délinquants détenus, prérequis, selon eux, à un retour harmonieux dans la collectivité, les enseignants déplorent qu’on ne leur accorde pas toute la crédibilité qui devrait leur revenir. Cette situation est d’autant plus difficile à vivre, qu’à titre de travailleurs contractuels pour la plupart, ils sont déjà, aux yeux du personnel correctionnel, objets d’une méfiance qui sera d’autant plus grande que, pour effectuer leur travail, ils doivent se faire une représentation du délinquant et du délit peu compatibles avec celles qui prévalent dans le milieu. C’est ainsi qu’à la marginalisation comme fait organisationnel se superpose une auto-marginalisation, incontournable, qui est le fait des enseignants eux-mêmes et qui se traduit par leur attitude de réserve à l’égard de la prison. La chose est d’autant plus paradoxale que le mandat que se donnent les enseignants, bien qu’ils s’en gardent de le dire, correspond tout à fait au projet correctionnel. Mais la prison, davantage préoccupée par la gestion du risque que par la réinsertion sociale des détenus, n’a d’intérêt pour l’éducation en milieu carcéral que dans la mesure où elle permet une socialisation à l’idéologie pénitentiaire et contribue à consolider la paix à l’intérieur des murs avec la complicité des enseignants eux-mêmes. Du reste, ces derniers ne sont pas dupes et lui en font grief, encore qu’il soit permis de nous demander si on ne lui reproche pas, plus simplement, de ne pas leur donner toute la place qu’ils croient leur revenir et de les laisser suspendus dans le vide carcéral.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.