937 resultados para ISE and ITSE optimization
Resumo:
Tutkielmassa selvitettiin UPM-Kymmene Oyj:n liiketoimintaportfolion muodostamia synergioita julkisiin lähteisiin pohjautuen. Synergioiden määrittämistä varten muodostettiin malli, jonka avulla määritettiin synergiat montaa eri liiketoimintaa harjoittavalle yhtiölle. Synergianäkemystä hyödynnettiin portfolion optimoinnissa uudella lähestymistavalla. Synergian mittausmallissa arvotettavan yhtiön liiketoiminta-alueille valittiin vertailuyhtiöt, joiden taloudellista suoriutumista arvioimalla pystyttiin määrittämään arvio synergian määristä. Tutkielman aihe synergioiden muodostumisesta ja mittaamisesta on tärkeä, sillä montaa liiketoimintaa harjoittavat yhtiöt oikeuttavat olemassa olonsa vetoamalla liiketoimintojen välillä syntyviin hyötyihin ja synergioihin. Synergiat ja portfolion optimointi ovat johdolle tärkeä aihe, sillä portfolion hallinta on yrityksen liiketoiminnan jatkuvuuden, taloudellisen suoriutumisen ja olemassa olon kannalta erittäin keskeistä Tutkielman tulosten perusteella UPM:n liiketoimintaportfoliossa muodostuvien synergioiden voidaan arvioida olevan vuosittain 44 miljoonasta eurosta 117 miljoonaan euroon. Portfolion optimoinnin tuloksena ainoastaan paperin ja vaneriliiketoimintojen suhteellista painoarvoa tulee laskea, mikä johtuu lähinnä näiden liiketoimintojen jatkuvasta huonosta taloudellisesta suoriutumisesta.
Resumo:
Batch chromatography is a widely used separation technique in a variety of fields meeting difficult separations. Several technologies for improving the performance of chromatography have been studied, including mixed-recycle steady state recycling (MR-SSR) chromatography. Design of MR-SSR has been commonly limited on 100 % purity constraint cases and empirical work. In this study a predictive design method was used to optimize feed pulse size and design a number of experimental MR-SSR separations for a solution of 20 % sulfuric acid and 100 g/L glucose. The design was under target product fraction purities of 98.7 % for H2SO4 and 95 % for glucose. The experiments indicate a maximum of 59 % increase in sulfuric acid productivity and 82 % increase for glucose when compared to corresponding batch separation. Eluent consumption was lowered by approximately 50 % using recycling chromatography. Within this study the target purities and yields set in design were not completely met, and further optimization of the process is deemed necessary.
Resumo:
Työ esittelee suomessa lämmöntuotantoon käytettävät polttoaineet, niiden verotuksen, hinnan kehityksen ja kustannusten optimoinnin. Polttoaineista maakaasu on käsitelty kattivimmin. Työssä perehdytään syihin, joista polttoaineiden hinnan vaihtelut johtuvat ja miten ne tiedostamalla voidaan vaikuttaa kustannuksiin. Työssä käydään läpi lämmöntuotannon rakenteen ja käytetyn tekniikan vaikutukset erilaisten polttoaineiden käyttöön.
Resumo:
The understanding and engineering of bismuth (Bi) containing semiconductor surfaces are signi cant in the development of novel semiconductor materials for electronic and optoelectronic devices such as high-e ciency solar cells, lasers and light emitting diodes. For example, a Bi surface layer can be used as a surfactant which oats on a III-V compound-semiconductor surface during the epitaxial growth of IIIV lms. This Bi surfactant layer improves the lm-growth conditions if compared to the growth without the Bi layer. Therefore, detailed knowledge of the properties of the Bi/III-V surfaces is needed. In this thesis, well-de ned surface layers containing Bi have been produced on various III-V semiconductor substrates. The properties of these Bi-induced surfaces have been measured by low-energy electron di raction (LEED), scanning-tunneling microscopy and spectroscopy (STM), and synchrotron-radiation photoelectron spectroscopy. The experimental results have been compared with theoretically calculated results to resolve the atomic structures of the studied surfaces. The main ndings of this research concern the determination of the properties of an unusual Bi-containing (2×1) surface structure, the discovery and characterization of a uniform pattern of Bi nanolines, and the optimization of the preparation conditions for this Bi-nanoline pattern.
Resumo:
The general purpose of the thesis was to describe and explain the particularities of inbound marketing methods and the key advantages of those methods. Inbound marketing can be narrowed down to a set of marketing strategies and techniques focused on pulling prospects towards a business and its products on the Internet by producing useful and relevant content to prospects. The main inbound marketing methods and channels were identified as blogging, content publishing, search engine optimization and social media. The best way to utilise these methods is producing great content that should cover subjects that interest the target group, which is usually a composition of buyers, existing customers and influencers, such as analysts and media The study revealed increase in Lainaaja.fi traffic and referral traffic sources that was firmly confirmed as statistically significant, while number of backlinks and SERP placement were clearly positively correlated, but not statistically significant. The number of new registered users along with new loan applicants and deposits did not show correlation with increased content producing. The conclusion of the study shows inbound marketing campaign clearly increasing website traffic and plausible help on getting better search engine results compared to control period. Implications are clear; inbound marketing is an activity that every business should consider implementing. But just producing content online is not enough; equal amount of work should be put into turning the visitors into customers. Further studies are recommended on using inbound marketing combined with monitoring of landing pages and conversion optimization to incoming visitors.
Resumo:
The pumping processes requiring wide range of flow are often equipped with parallelconnected centrifugal pumps. In parallel pumping systems, the use of variable speed control allows that the required output for the process can be delivered with a varying number of operated pump units and selected rotational speed references. However, the optimization of the parallel-connected rotational speed controlled pump units often requires adaptive modelling of both parallel pump characteristics and the surrounding system in varying operation conditions. The available information required for the system modelling in typical parallel pumping applications such as waste water treatment and various cooling and water delivery pumping tasks can be limited, and the lack of real-time operation point monitoring often sets limits for accurate energy efficiency optimization. Hence, alternatives for easily implementable control strategies which can be adopted with minimum system data are necessary. This doctoral thesis concentrates on the methods that allow the energy efficient use of variable speed controlled parallel pumps in system scenarios in which the parallel pump units consist of a centrifugal pump, an electric motor, and a frequency converter. Firstly, the suitable operation conditions for variable speed controlled parallel pumps are studied. Secondly, methods for determining the output of each parallel pump unit using characteristic curve-based operation point estimation with frequency converter are discussed. Thirdly, the implementation of the control strategy based on real-time pump operation point estimation and sub-optimization of each parallel pump unit is studied. The findings of the thesis support the idea that the energy efficiency of the pumping can be increased without the installation of new, more efficient components in the systems by simply adopting suitable control strategies. An easily implementable and adaptive control strategy for variable speed controlled parallel pumping systems can be created by utilizing the pump operation point estimation available in modern frequency converters. Hence, additional real-time flow metering, start-up measurements, and detailed system model are unnecessary, and the pumping task can be fulfilled by determining a speed reference for each parallel-pump unit which suggests the energy efficient operation of the pumping system.
Resumo:
Tämän diplomityön tarkoituksena on tunnistaa UPM Kymin telahiomon tuotannon läpimenoaikaan sekä laatuun vaikuttavia tekijöitä ja löytää keinot niiden optimoimiseksi, jotta hiontatuotannon kustannustehokkuus parantuisi. Tutkimusmenetelminä työssä käytetään Kymin telahiomon tuotannon läpimenoaikojen telakohtaista mittaamista ja hionnasta tehtyjen mittausraporttien, pinnoituksista ja hionnoista tehtyjen ostotilauksien sekä SAP R/3-toiminnanohjausjärjestelmästä saatavan kunnossapitodatan tutkintaa. Tiedon lähteenä on käytetty myös kirjallisuutta ja UPM henkilöstön sekä toimittajien haastatteluita. Muiden telahiomojen aikaansaamaan laatuun ja tuotannon läpimenoaikaan verrattuna Kymin telahiomon keskimääräiset hiontatuotannon läpimenoajat ovat telasta riippuen kaksinkertaisia tai jopa lähes nelinkertaisia, vaikka pinnankarheus jää osassa teloista alle asetetun tavoitteen. Telahiomojen muototoleransseissa ei ole niin merkittäviä eroja, mitkä selittäisivät Kymin pidemmät hiontatuotannon läpimenoajat. Tämän takia muototoleransseja ei ole päädytty muuttamaan työn aikana, mutta käyttökokemusten mukaan pinnankarheusvaatimusta voidaan laskea. Telahiontaprosessin muotohiontavaihe on suurin hiontatuotannon läpimenoaikaan ja kustannuksiin vaikuttava tekijä. Hiontamenetelmien ja hionta-arvojen optimoimisella, hiontatyökalujen lastuamiskyvyn ylläpitämisellä, telahiontatuotannon yliprosessoinnin ehkäisyllä ja laatutoleransseihin tyytymisellä voidaan lyhentää kymmeniä tunteja telahiomon tuotannon läpimenoaikaa. Mittausraporttien mukaan merkittävin muutos telahiontaprosessin kustannuksiin ja hiontatuotannon läpimenoaikaan saadaan noudattamalla laatutoleransseja. Telojen kunnossapitoon liittyviä kustannuksia syntyy turhaan lisää, kun vaihdetaan ja hiotaan käyttökelpoisia teloja sekä uudelleen pinnoitetaan teloja, joiden pinnoitepaksuus on vielä riittävä. Pinnoitepaksuuden seurannalla voidaan minimoida telojen ennenaikaiset uudelleenpinnoitukset. Mittalaitteiden avulla pystyy optimoimaan telojen hiontavälit. Hiontavälien optimointi lyhentää myös hiontajonoa. Tällöin voidaan hyödyntää suunnitellun hiontajärjestyksen tuomia etuja tehokkaammin ja saavuttaa nopeampia tuotannon läpimenoaikoja.
Resumo:
The accelerating adoption of electrical technologies in vehicles over the recent years has led to an increase in the research on electrochemical energy storage systems, which are among the key elements in these technologies. The application of electrochemical energy storage systems for instance in hybrid electrical vehicles (HEVs) or hybrid mobile working machines allows tolerating high power peaks, leading to an opportunity to downsize the internal combustion engine and reduce fuel consumption, and therefore, CO2 and other emissions. Further, the application of electrochemical energy storage systems provides an option of kinetic and potential energy recuperation. Presently, the lithium-ion (Li-ion) battery is considered the most suitable electrochemical energy storage type in HEVs and hybrid mobile working machines. However, the intensive operating cycle produces high heat losses in the Li-ion battery, which increase its operating temperature. The Li-ion battery operation at high temperatures accelerates the ageing of the battery, and in the worst case, may lead to a thermal runaway and fire. Therefore, an appropriate Li-ion battery cooling system should be provided for the temperature control in applications such as HEVs and mobile working machines. In this doctoral dissertation, methods are presented to set up a thermal model of a single Li-ion cell and a more complex battery module, which can be used if full information about the battery chemistry is not available. In addition, a non-destructive method is developed for the cell thermal characterization, which allows to measure the thermal parameters at different states of charge and in different points of cell surface. The proposed models and the cell thermal characterization method have been verified by experimental measurements. The minimization of high thermal non-uniformity, which was detected in the pouch cell during its operation with a high C-rate current, was analysed by applying a simplified pouch cell 3D thermal model. In the analysis, heat pipes were incorporated into the pouch cell cooling system, and an optimization algorithm was generated for the estimation of the optimalplacement of heat pipes in the pouch cell cooling system. An analysis of the application of heat pipes to the pouch cell cooling system shows that heat pipes significantly decrease the temperature non-uniformity on the cell surface, and therefore, heat pipes were recommended for the enhancement of the pouch cell cooling system.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.
Resumo:
L-glutaminases (L—glutamine amidohydrolase EC.3.5.l.2) is proposed as a prospective candidate for enzyme therapy cnf cancer and also as zui important additive during enzymatic digestion of shoyu koji since it could enhance glutamate content of soysauce. Commercial production of glutaminase could make possible its wide application in these areas, which would demand availability of potential sources and suitable fermentation techniques. The ‘present investigation highlighted marine environment as a potential source of efficient glutaminase producing bacteria mainly species of pseudomonas, aeromonas ,vibrio,alcaligenes, acinetobacter bacillus and planococci.Among them pseudomonas fluorescens ACMR 267 and v.cholerae ACMR 347 were chosen as the ideal strains for glutaminase production.Extracellular glutaminase fraction from all strains were in higher titres than intracellular enzymes during growth in mineral media, nutrient broth and nutrient broth added with glutamine.Glutaminase from all strains were purified employing (NH4)2SO4 fractionation followed tnr dialysis and ion exchange chromatography. The purified glutaminase from all strains were observed to be active and stable over a wide range of gfii and temperature.Optimization studies cflf environmental variables that normally influence time yiehi of glutaminase indicated that the optimal requirements of these bacteria for maximal glutaminase production remained stable irrespective of the medium, they are provided with for enzyme production. However, solid state fermentation technique was observed to be the most suitable process for the production of Glutaminase.