964 resultados para Near-optimal solutions


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Executive Summary The unifying theme of this thesis is the pursuit of a satisfactory ways to quantify the riskureward trade-off in financial economics. First in the context of a general asset pricing model, then across models and finally across country borders. The guiding principle in that pursuit was to seek innovative solutions by combining ideas from different fields in economics and broad scientific research. For example, in the first part of this thesis we sought a fruitful application of strong existence results in utility theory to topics in asset pricing. In the second part we implement an idea from the field of fuzzy set theory to the optimal portfolio selection problem, while the third part of this thesis is to the best of our knowledge, the first empirical application of some general results in asset pricing in incomplete markets to the important topic of measurement of financial integration. While the first two parts of this thesis effectively combine well-known ways to quantify the risk-reward trade-offs the third one can be viewed as an empirical verification of the usefulness of the so-called "good deal bounds" theory in designing risk-sensitive pricing bounds. Chapter 1 develops a discrete-time asset pricing model, based on a novel ordinally equivalent representation of recursive utility. To the best of our knowledge, we are the first to use a member of a novel class of recursive utility generators to construct a representative agent model to address some long-lasting issues in asset pricing. Applying strong representation results allows us to show that the model features countercyclical risk premia, for both consumption and financial risk, together with low and procyclical risk free rate. As the recursive utility used nests as a special case the well-known time-state separable utility, all results nest the corresponding ones from the standard model and thus shed light on its well-known shortcomings. The empirical investigation to support these theoretical results, however, showed that as long as one resorts to econometric methods based on approximating conditional moments with unconditional ones, it is not possible to distinguish the model we propose from the standard one. Chapter 2 is a join work with Sergei Sontchik. There we provide theoretical and empirical motivation for aggregation of performance measures. The main idea is that as it makes sense to apply several performance measures ex-post, it also makes sense to base optimal portfolio selection on ex-ante maximization of as many possible performance measures as desired. We thus offer a concrete algorithm for optimal portfolio selection via ex-ante optimization over different horizons of several risk-return trade-offs simultaneously. An empirical application of that algorithm, using seven popular performance measures, suggests that realized returns feature better distributional characteristics relative to those of realized returns from portfolio strategies optimal with respect to single performance measures. When comparing the distributions of realized returns we used two partial risk-reward orderings first and second order stochastic dominance. We first used the Kolmogorov Smirnov test to determine if the two distributions are indeed different, which combined with a visual inspection allowed us to demonstrate that the way we propose to aggregate performance measures leads to portfolio realized returns that first order stochastically dominate the ones that result from optimization only with respect to, for example, Treynor ratio and Jensen's alpha. We checked for second order stochastic dominance via point wise comparison of the so-called absolute Lorenz curve, or the sequence of expected shortfalls for a range of quantiles. As soon as the plot of the absolute Lorenz curve for the aggregated performance measures was above the one corresponding to each individual measure, we were tempted to conclude that the algorithm we propose leads to portfolio returns distribution that second order stochastically dominates virtually all performance measures considered. Chapter 3 proposes a measure of financial integration, based on recent advances in asset pricing in incomplete markets. Given a base market (a set of traded assets) and an index of another market, we propose to measure financial integration through time by the size of the spread between the pricing bounds of the market index, relative to the base market. The bigger the spread around country index A, viewed from market B, the less integrated markets A and B are. We investigate the presence of structural breaks in the size of the spread for EMU member country indices before and after the introduction of the Euro. We find evidence that both the level and the volatility of our financial integration measure increased after the introduction of the Euro. That counterintuitive result suggests the presence of an inherent weakness in the attempt to measure financial integration independently of economic fundamentals. Nevertheless, the results about the bounds on the risk free rate appear plausible from the view point of existing economic theory about the impact of integration on interest rates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this project was to determine the optimal hole pattern needed for undersealing work, and also to determine if it is feasible to underseal a roadway with existing longitudinal subdrains without plugging the subdrain system. At the test site the hole pattern had little effect on the grout distribution. It was found that the hole pattern, to be effective, must locate existing voids and that holes must extend at least 2 in. (5 cm) below the underside of the pavement. It appeared that pavements can be undersealed without significant damage to the existing subdrains, but special care is needed to assure that excess grout is not injected into the drainage system. Recommendations are made concerning the hole pattern, grout efflux time, and procedures for minimizing the risk of plugging the subdrains with grout.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tässä tutkimuksessa tarkastellaan kahden yleisen, veden ympäristökuormitusta aiheuttavan kemikaaliryhmän, ligniinin ja humusaineiden, fotokatalyyttistahapetusta (photocatalytic oxidation, PCO) vesiliuoksessa. Fotokatalyyttina käytettiin titaanidioksidia, jota säteilytettiin ultraviolettivalolla. Työssä selvitettiin useiden eri olosuhdeparametrien vaikutusta fotokatalyysiin. Tutkittavia parametreja olivat mm. kontaminanttien alkukonsentraatio, pH, vetyperoksidilisäys, rauta-ionien lisäys, fotokatalyysimenetelmä, fotokatalyytin pintakonsentraatioja titaanidioksidin määrä lasisissa mikropartikkeleissa. Ultraviolettivalon lähteinä käytettiin sekä keinovaloa että auringonvaloa. Katalyytin kantoaineena käytettiin huokoisia lasisia mikropartikkeleita, joiden pintaan kiinnittynyt titaanidioksidi pystyi hyvin vähentämään kontaminanttien määrää vedessä. Fotokatalyysin tehokkuus kasvoi humusaine- ja ligniinikonsentraatioiden kasvaessa. Korkeimmat hapetustehokkuudet kumallakin kontaminantilla saavutettiin neutraaleissa jalievästi emäksisissä olosuhteissa huolimatta siitä, että paras adsorboituminen tapahtui happamissa olosuhteissa. Tämän perusteella voidaan olettaa, että humusaineiden ja ligniinin hapetus tapahtuu pääosin radikaalimekanismilla. Vetyperoksidin lisääminen humusaineliuokseen lisäsi hapettumisnopeutta, vaikka näennäinen hapetustehokkuus ei muuttunut. Tämän perusteella vetyperoksidi hapetti myös humusaineita referenssinäytteessä. Ligniinin fotokatalyyttinen hapettuminen parani vetyperoksidilisäyksellä happamissa olosuhteissa johtuen lisääntyneestä OH-radikaalien muodostumisesta. Ligniini ei hapettunut vetyperoksidilla, jos fotokatalyyttiä ei¿ollut läsnä. Rauta-ionit eivät lisänneet humushappojen fotokatalyyttistähapettumista, mutta Fe2+-ionien lisäys aina konsentraatioon 0.05 mM johti ligniinin hapettumistehokkuuden voimakkaaseen kasvuun. Rauta-ionikonsentraation kasvattaminen edelleen johti ligniinin hapetustehokkuuden alenemiseen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A wide variety of whole cell bioreporter and biosensor assays for arsenic detection has been developed over the past decade. The assays permit flexible detection instrumentation while maintaining excellent method of detection limits in the environmentally relevant range of 10-50 μg arsenite per L and below. New emerging trends focus on genetic rewiring of reporter cells and/or integration into microdevices for more optimal detection. A number of case studies have shown realistic field applicability of bioreporter assays.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Logistiikkapalveluiden markkinat ovat viime vuosina muuttuneet. Kilpailtu toimiala ja asiakasvaatimusten muuttuminen ovat pakottaneet yritykset pyrkimään entistä tehokkaampaan jakeluketjuun. Työn tarkoituksena oli tutkia sähköisten asiakasliittymien toimivuutta asiakkaan näkökulmasta Euro Express tuotannossa ja prosessissa. Tarkoituksena oli selvittää eri sidosryhmien vaatimukset prosessille huomioiden sähköisen liiketoiminnan tuomat edut ja ominaispiirteet. Tavoitteena oli kuvata olemassa oleva prosessi ja tutkia prosessin rajapinnat –asiakas, tuotanto ja ulkoiset sidosryhmät. Tutkielmassa sähköisten ratkaisujen ominaispiirteet on käyty läpi ja tulevaisuuden kehitysnäkökulmista keskusteltu. Kehittyneiden tietoteknisten ratkaisujen avulla jatkuva prosessien uudistaminen (Business Process Reengineering) on mahdollista. Yleisesti epäolennaisuudet asiakasrajapinnassa, informaation kulussa ja yhteyksissä eri järjestelmien välillä aiheuttavat ongelmia sähköisten ratkaisujen toteuttamisessa. Tulevaisuudessa logistiikka yritykset ottavat entistä enemmän käyttöönsä uudenaikaisia teknologisia ratkaisuja tilaukseen, tuotantoon ja asiakaspalveluun. Näiden uudenlaisten ratkaisujen kehittämisestä on hyötyä sekä käyttäjälle että tarjoajalle, mutta ne ovat myös pakollisia palveluntarjoajalle kehittyäkseen markkinoilla. Tulevaisuudessa kilpailun tiivistyessä ja asiakkaiden vaatimusten kasvaessa on kiinnitettävä entistä suurempaa huomiota koko prosessiketjun toimivuuteen. Uudet teknologiset ratkaisut ja niiden käyttäminen tehokkaasti tuovat yrityksille kilpailuetuja, joita ei muuten olisi saavutettavissa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Que ce soit d'un point de vue, urbanistique, social, ou encore de la gouvernance, l'évolution des villes est un défi majeur de nos sociétés contemporaines. En offrant la possibilité d'analyser des configurations spatiales et sociales existantes ou en tentant de simuler celles à venir, les systèmes d'information géographique sont devenus incontournables dans la gestion et dans la planification urbaine. En cinq ans la population de la ville de Lausanne est passée de 134'700 à 140'570 habitants, alors que les effectifs de l'école publique ont crû de 12'200 à 13'500 élèves. Cet accroissement démographique associé à un vaste processus d'harmonisation de la scolarité obligatoire en Suisse ont amené le Service des écoles à mettre en place et à développer en collaboration avec l'université de Lausanne des solutions SIG à même de répondre à différentes problématiques spatiales. Établies en 1989, les limites des établissements scolaires (bassins de recrutement) ont dû être redéfinies afin de les réadapter aux réalités d'un paysage urbain et politique en pleine mutation. Dans un contexte de mobilité et de durabilité, un système d'attribution de subventions pour les transports publics basé sur la distance domicile-école et sur l'âge des écoliers, a été conçu. La réalisation de ces projets a nécessité la construction de bases de données géographiques ainsi que l'élaboration de nouvelles méthodes d'analyses exposées dans ce travail. Cette thèse s'est ainsi faite selon une dialectique permanente entre recherches théoriques et nécessités pratiques. La première partie de ce travail porte sur l'analyse du réseau piéton de la ville. La morphologie du réseau est investiguée au travers d'approches multi-échelles du concept de centralité. La première conception, nommée sinuo-centralité ("straightness centrality"), stipule qu'être central c'est être relié aux autres en ligne droite. La deuxième, sans doute plus intuitive, est intitulée centricité ("closeness centrality") et exprime le fait qu'être central c'est être proche des autres (fig. 1, II). Les méthodes développées ont pour but d'évaluer la connectivité et la marchabilité du réseau, tout en suggérant de possibles améliorations (création de raccourcis piétons). Le troisième et dernier volet théorique expose et développe un algorithme de transport optimal régularisé. En minimisant la distance domicile-école et en respectant la taille des écoles, l'algorithme permet de réaliser des scénarios d'enclassement. L'implémentation des multiplicateurs de Lagrange offre une visualisation du "coût spatial" des infrastructures scolaires et des lieux de résidence des écoliers. La deuxième partie de cette thèse retrace les aspects principaux de trois projets réalisés dans le cadre de la gestion scolaire. À savoir : la conception d'un système d'attribution de subventions pour les transports publics, la redéfinition de la carte scolaire, ou encore la simulation des flux d'élèves se rendant à l'école à pied. *** May it be from an urbanistic, a social or from a governance point of view, the evolution of cities is a major challenge in our contemporary societies. By giving the opportunity to analyse spatial and social configurations or attempting to simulate future ones, geographic information systems cannot be overlooked in urban planning and management. In five years, the population of the city of Lausanne has grown from 134'700 to 140'570 inhabitants while the numbers in public schools have increased from 12'200 to 13'500 students. Associated to a considerable harmonisation process of compulsory schooling in Switzerland, this demographic rise has driven schooling services, in collaboration with the University of Lausanne, to set up and develop GIS capable of tackling various spatial issues. Established in 1989, the school districts had to be altered so that they might fit the reality of a continuously changing urban and political landscape. In a context of mobility and durability, an attribution system for public transport subventions based on the distance between residence and school and on the age of the students was designed. The implementation of these projects required the built of geographical databases as well as the elaboration of new analysis methods exposed in this thesis. The first part of this work focuses on the analysis of the city's pedestrian network. Its morphology is investigated through multi-scale approaches of the concept of centrality. The first conception, named the straightness centrality, stipulates that being central is being connected to the others in a straight line. The second, undoubtedly more intuitive, is called closeness centrality and expresses the fact that being central is being close to the others. The goal of the methods developed is to evaluate the connectivity and walkability of the network along with suggesting possible improvements (creation of pedestrian shortcuts).The third and final theoretical section exposes and develops an algorithm of regularised optimal transport. By minimising home to school distances and by respecting school capacity, the algorithm enables the production of student allocation scheme. The implementation of the Lagrange multipliers offers a visualisation of the spatial cost associated to the schooling infrastructures and to the student home locations. The second part of this thesis recounts the principal aspects of three projects fulfilled in the context of school management. It focuses namely on the built of an attribution system for public transport subventions, a school redistricting process and on simulating student pedestrian flows.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Production and generation of electrical power is evolving to more environmental friendly technologies and schemes. Pushed by the increasing cost of fossil fuels, the operational costs of producing electrical power with fossil fuels and the effect in the environment, like pollution and global warming, renewable energy sources gain con-stant impulse into the global energy economy. In consequence, the introduction of distributed energy sources has brought a new complexity to the electrical networks. In the new concept of smart grids and decen-tralized power generation; control, protection and measurement are also distributed and requiring, among other things, a new scheme of communication to operate with each other in balance and improve performance. In this research, an analysis of different communication technologies (power line communication, Ethernet over unshielded twisted pair (UTP), optic fiber, Wi-Fi, Wi-MAX, and Long Term Evolution) and their respective characteristics will be carried out. With the objective of pointing out strengths and weaknesses from different points of view (technical, economical, deployment, etc.) to establish a richer context on which a decision for communication approach can be done depending on the specific application scenario of a new smart grid deployment. As a result, a description of possible optimal deployment solutions for communication will be shown considering different options for technologies, and a mention of different important considerations to be taken into account will be made for some of the possible network implementation scenarios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Varsinais-Suomen ELY-keskuksen toteuttamassa VELHO-hankkeessa kehitettiin kustannustehokkaita ratkaisuja ranta-alueiden umpeenkasvun aiheuttamiin ongelmiin luomalla uusi konsepti ranta-alueiden monikäyttösuunnitteluun, edistämällä järviruo’on hyötykäyttöä ja valmistelemalla esityksiä uuteen maaseudun kehittämisohjelmaan. Tässä julkaisussa esitellään työn tulokset ja johtopäätökset. Hankkeessa laadittiin kolme ranta-alueiden monikäyttösuunnitelmaa: Mynälahden Sarsalanaukko ja Musta-aukko, Oukkulanlahti – Naantalinaukko ja Eurajoen - Luvian rannikko. Suunnitelmissa sovitettiin yhteen ranta-alueiden eri käyttömuotoja ja pyrittiin löytämään optimaalinen verkosto hyötykäyttöön leikattavien ruovikoiden, avoimena pidettävien merenrantaniittyjen ja säilytettävien ruovikoiden välille. Kustannustehokkuuteen pyrittiin kohdentamalla hoitotoimet laajoihin kokonaisuuksiin sekä järviruo’on hyötykäytöllä. Suunnitelmat laadittiin laajassa osallistavassa prosessissa. Hankkeessa laadituissa ranta-alueiden monikäyttösuunnitelmissa esitettiin erilaisia maankäyttötavoitteita ja hoitosuosituksia yli 2000 hehtaarille. Ruovikoiden ja rantaniittyjen lisäksi suunnittelun kohteena olivat myös rantojen läheiset peltoalueet, reunavyöhykkeet ja muut perinnebiotoopit. Hoitotoimilla tavoitellaan alueiden luonnon monimuotoisuuden ja vesien tilan paranemista, maiseman avartumista ja virkistyskäytön helpottumista. Ruovikoiden erilaisia leikkuumenetelmiä (talvileikkuut, vesileikkuut, maaleikkuut) testattiin 90 hehtaarin alalla. Rantaniittyjen kunnostuksessa testattiin maaleikkuun lisäksi ruovikon niittomurskausta. Ruokomassan hyötykäyttökokeissa testattiin kahden eri ruokolaadun eli tuoreen kesäruo’on ja kuivan talviruo’on esikäsittelyä ja hyötykäyttöä energiantuotannossa (poltto, biokaasutus) ja maataloudessa (maanparannusaine, viherlannoite, kuivike, katemateriaali). Maaseudun kehittämisohjelmaan tehtiin esityksiä tukimuotojen kehittämiseksi: rantaniittyjen kunnostuksen lisääminen ja hoidon laadun parantaminen, ruovikoiden vesileikkuut ravinteiden poistajina sekä ruokomassojen käyttö maan orgaanisen aineen lisääjänä. Hankkeen kokemusten mukaan yksi kustannustehokkaimmista hoito- ja käyttöketjuista on ruovikon leikkuu loppukesällä ja siitä kertyvän massan käyttö ranta-alueiden läheisillä pelloilla viherlannoitteena ja maanparannusaineena. Yhden hehtaarin ruovikon kesäleikkuulla poistetaan keskimäärin 80 kg typpeä ja 7 kg fosforia. Vesiensuojelullisten hyötyjen lisäksi leikkuulla parannetaan umpeenkasvusta kärsivien lajien elinoloja, lisätään rantojen vetovoimaisuutta ja edistetään luonnonhoitoyrittäjyyden edellytyksiä. Peltokäytössä käsittelyketju on lyhyt eikä se vaadi pitkiä kuljetusmatkoja. Ruokomassa kierrättää ravinteita takaisin pelloille ja parantaa maan rakennetta. Järviruo’on hyötykäytöllä ei pystytä kattamaan koko leikkuu- ja käyttöketjun kustannuksia. Leikkuusta ja hyötykäytöstä saatavien monien eri aineellisten ja aineettomien ekosysteemipalveluhyötyjen vuoksi toimintaan on tarpeen suunnata yhteiskunnan tukea ja luoda käytännön toteutusta edistäviä tukimuotoja. Kustannustehokkuutta voidaan edelleen parantaa laitteita ja menetelmiä kehittämällä.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malaria continues to infect millions and kill hundreds of thousands of people worldwide each year, despite over a century of research and attempts to control and eliminate this infectious disease. Challenges such as the development and spread of drug resistant malaria parasites, insecticide resistance to mosquitoes, climate change, the presence of individuals with subpatent malaria infections which normally are asymptomatic and behavioral plasticity in the mosquito hinder the prospects of malaria control and elimination. In this thesis, mathematical models of malaria transmission and control that address the role of drug resistance, immunity, iron supplementation and anemia, immigration and visitation, and the presence of asymptomatic carriers in malaria transmission are developed. A within-host mathematical model of severe Plasmodium falciparum malaria is also developed. First, a deterministic mathematical model for transmission of antimalarial drug resistance parasites with superinfection is developed and analyzed. The possibility of increase in the risk of superinfection due to iron supplementation and fortification in malaria endemic areas is discussed. The model results calls upon stakeholders to weigh the pros and cons of iron supplementation to individuals living in malaria endemic regions. Second, a deterministic model of transmission of drug resistant malaria parasites, including the inflow of infective immigrants, is presented and analyzed. The optimal control theory is applied to this model to study the impact of various malaria and vector control strategies, such as screening of immigrants, treatment of drug-sensitive infections, treatment of drug-resistant infections, and the use of insecticide-treated bed nets and indoor spraying of mosquitoes. The results of the model emphasize the importance of using a combination of all four controls tools for effective malaria intervention. Next, a two-age-class mathematical model for malaria transmission with asymptomatic carriers is developed and analyzed. In development of this model, four possible control measures are analyzed: the use of long-lasting treated mosquito nets, indoor residual spraying, screening and treatment of symptomatic, and screening and treatment of asymptomatic individuals. The numerical results show that a disease-free equilibrium can be attained if all four control measures are used. A common pitfall for most epidemiological models is the absence of real data; model-based conclusions have to be drawn based on uncertain parameter values. In this thesis, an approach to study the robustness of optimal control solutions under such parameter uncertainty is presented. Numerical analysis of the optimal control problem in the presence of parameter uncertainty demonstrate the robustness of the optimal control approach that: when a comprehensive control strategy is used the main conclusions of the optimal control remain unchanged, even if inevitable variability remains in the control profiles. The results provide a promising framework for the design of cost-effective strategies for disease control with multiple interventions, even under considerable uncertainty of model parameters. Finally, a separate work modeling the within-host Plasmodium falciparum infection in humans is presented. The developed model allows re-infection of already-infected red blood cells. The model hypothesizes that in severe malaria due to parasite quest for survival and rapid multiplication, the Plasmodium falciparum can be absorbed in the already-infected red blood cells which accelerates the rupture rate and consequently cause anemia. Analysis of the model and parameter identifiability using Markov chain Monte Carlo methods is presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Symmetry group methods are applied to obtain all explicit group-invariant radial solutions to a class of semilinear Schr¨odinger equations in dimensions n = 1. Both focusing and defocusing cases of a power nonlinearity are considered, including the special case of the pseudo-conformal power p = 4/n relevant for critical dynamics. The methods involve, first, reduction of the Schr¨odinger equations to group-invariant semilinear complex 2nd order ordinary differential equations (ODEs) with respect to an optimal set of one-dimensional point symmetry groups, and second, use of inherited symmetries, hidden symmetries, and conditional symmetries to solve each ODE by quadratures. Through Noether’s theorem, all conservation laws arising from these point symmetry groups are listed. Some group-invariant solutions are found to exist for values of n other than just positive integers, and in such cases an alternative two-dimensional form of the Schr¨odinger equations involving an extra modulation term with a parameter m = 2−n = 0 is discussed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIF : Déterminer les principales solutions qui facilitent la pratique optimale des médecins dans le traitement de l’asthme, incluant la prescription d’un médicament de contrôle à long terme et l’utilisation de plans d’action écrits. MÉTHODOLOGIE: Des entrevues individuelles semi-structurées ont été menées avec des médecins de différentes spécialités (médecins de famille, pédiatres, urgentologues, pneumologues et allergologues). Ces entrevues ont été transcrites puis analysées qualitativement de manière indépendante par deux chercheures qualifiées. RÉSULTATS : Quarante-deux médecins ont été interviewés. Un total de 867 facilitateurs et solutions ont été exprimés, répondant à trois de leurs besoins: (1) avoir du soutien dans la prestation de soins optimaux, (2) être habileté à aider et motiver les patients à suivre leurs recommandations et (3) avoir l’opportunité d’offrir des services efficients. À partir de ces données, une taxonomie de facilitateurs et de solutions comprenant dix catégories a également été développée. CONCLUSION : Les médecins ont proposé une multitude de facilitateurs et de solutions pour soutenir la pratique optimale. Ils varient essentiellement selon la spécialité et le comportement visé (prescription de médicaments de contrôle à long terme, utilisation de plans d’autogestion écrits et la gestion générale de l’asthme). Cela fait ressortir l’importance d’effectuer le choix des interventions en étroite collaboration avec les utilisateurs de connaissances afin d’obtenir des solutions qui soient perçues comme faisables et applicables, ayant ainsi potentiellement plus de chances de mener à un changement de pratique. La nouvelle taxonomie offre la possibilité d’utiliser un langage commun pour classifier les facilitateurs et les solutions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The accurate transport of an ion over macroscopic distances represents a challenging control problem due to the different length and time scales that enter and the experimental limitations on the controls that need to be accounted for. Here, we investigate the performance of different control techniques for ion transport in state-of-the-art segmented miniaturized ion traps. We employ numerical optimization of classical trajectories and quantum wavepacket propagation as well as analytical solutions derived from invariant based inverse engineering and geometric optimal control. The applicability of each of the control methods depends on the length and time scales of the transport. Our comprehensive set of tools allows us make a number of observations. We find that accurate shuttling can be performed with operation times below the trap oscillation period. The maximum speed is limited by the maximum acceleration that can be exerted on the ion. When using controls obtained from classical dynamics for wavepacket propagation, wavepacket squeezing is the only quantum effect that comes into play for a large range of trapping parameters. We show that this can be corrected by a compensating force derived from invariant based inverse engineering, without a significant increase in the operation time.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this expository arti le is to present a self- ontained overview of some results on the hara terization of the optimal value fun tion of a sto hasti target problem as (dis ontinuous) vis osity solution of a ertain dynami programming PDE and its appli ation to the problem of hedging ontingent laims in the presen e of portfolio onstraints and large investors

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Our ability to identify thin non-stoichiometric and amorphous layers beneath mineral surfaces has been tested by undertaking X-ray photoelectron spectroscopy (XPS) and transmission electron microscopy (TEM) work on alkali feldspars from pH 1 dissolution experiments. The outcomes of this work were used to help interpret XPS and TEM results from alkali feldspars weathered for <10,000 years in soils overlying the Shap Granite (north-west England). The chemistry of effluent solutions indicates that silica-rich layers a few nanometers in thickness formed during the pH I experiments. These layers can be successfully identified by XPS and have lower Al/Si, Na/Si, K/Si and Ca/Si values than the outermost similar to 9 nm of unweathered controls. Development of Al-Si non-stoichiometry is coupled with loss of crystal structure to produce amorphous layers that are identifiable by TEM where >similar to 2.5 nm thick, whereas the crystallinity of albite is retained despite leaching of Na to depths of tens to hundreds on nanometers. Integration of XPS data over the outermost 6-9 nm of naturally weathered Shap feldspars shows that they have stoichiometric Al/Si and K/Si ratios, which is consistent with findings of previous TEM work on the same material that they lack amorphous layers. There is some XPS evidence for loss of K from the outermost couple of nanometers of Shap orthoclase, and the possibility of leaching of Na from albite to greater depths cannot be excluded using the XPS or TEM results. This study demonstrates that the leached layer model, as formulated from laboratory experiments, is inapplicable to the weathering of alkali feldspars within acidic soils, which is an essentially stoichiometric reaction. (C) 2008 Elsevier Ltd. All rights reserved.