821 resultados para Reward based model
Resumo:
1. Biogeographical models of species' distributions are essential tools for assessing impacts of changing environmental conditions on natural communities and ecosystems. Practitioners need more reliable predictions to integrate into conservation planning (e.g. reserve design and management). 2. Most models still largely ignore or inappropriately take into account important features of species' distributions, such as spatial autocorrelation, dispersal and migration, biotic and environmental interactions. Whether distributions of natural communities or ecosystems are better modelled by assembling individual species' predictions in a bottom-up approach or modelled as collective entities is another important issue. An international workshop was organized to address these issues. 3. We discuss more specifically six issues in a methodological framework for generalized regression: (i) links with ecological theory; (ii) optimal use of existing data and artificially generated data; (iii) incorporating spatial context; (iv) integrating ecological and environmental interactions; (v) assessing prediction errors and uncertainties; and (vi) predicting distributions of communities or collective properties of biodiversity. 4. Synthesis and applications. Better predictions of the effects of impacts on biological communities and ecosystems can emerge only from more robust species' distribution models and better documentation of the uncertainty associated with these models. An improved understanding of causes of species' distributions, especially at their range limits, as well as of ecological assembly rules and ecosystem functioning, is necessary if further progress is to be made. A better collaborative effort between theoretical and functional ecologists, ecological modellers and statisticians is required to reach these goals.
Resumo:
The hydrological and biogeochemical processes that operate in catchments influence the ecological quality of freshwater systems through delivery of fine sediment, nutrients and organic matter. Most models that seek to characterise the delivery of diffuse pollutants from land to water are reductionist. The multitude of processes that are parameterised in such models to ensure generic applicability make them complex and difficult to test on available data. Here, we outline an alternative - data-driven - inverse approach. We apply SCIMAP, a parsimonious risk based model that has an explicit treatment of hydrological connectivity. we take a Bayesian approach to the inverse problem of determining the risk that must be assigned to different land uses in a catchment in order to explain the spatial patterns of measured in-stream nutrient concentrations. We apply the model to identify the key sources of nitrogen (N) and phosphorus (P) diffuse pollution risk in eleven UK catchments covering a range of landscapes. The model results show that: 1) some land use generates a consistently high or low risk of diffuse nutrient pollution; but 2) the risks associated with different land uses vary both between catchments and between nutrients; and 3) that the dominant sources of P and N risk in the catchment are often a function of the spatial configuration of land uses. Taken on a case-by-case basis, this type of inverse approach may be used to help prioritise the focus of interventions to reduce diffuse pollution risk for freshwater ecosystems. (C) 2012 Elsevier B.V. All rights reserved.
Resumo:
Résumé: Le développement rapide de nouvelles technologies comme l'imagerie médicale a permis l'expansion des études sur les fonctions cérébrales. Le rôle principal des études fonctionnelles cérébrales est de comparer l'activation neuronale entre différents individus. Dans ce contexte, la variabilité anatomique de la taille et de la forme du cerveau pose un problème majeur. Les méthodes actuelles permettent les comparaisons interindividuelles par la normalisation des cerveaux en utilisant un cerveau standard. Les cerveaux standards les plus utilisés actuellement sont le cerveau de Talairach et le cerveau de l'Institut Neurologique de Montréal (MNI) (SPM99). Les méthodes de recalage qui utilisent le cerveau de Talairach, ou celui de MNI, ne sont pas suffisamment précises pour superposer les parties plus variables d'un cortex cérébral (p.ex., le néocortex ou la zone perisylvienne), ainsi que les régions qui ont une asymétrie très importante entre les deux hémisphères. Le but de ce projet est d'évaluer une nouvelle technique de traitement d'images basée sur le recalage non-rigide et utilisant les repères anatomiques. Tout d'abord, nous devons identifier et extraire les structures anatomiques (les repères anatomiques) dans le cerveau à déformer et celui de référence. La correspondance entre ces deux jeux de repères nous permet de déterminer en 3D la déformation appropriée. Pour les repères anatomiques, nous utilisons six points de contrôle qui sont situés : un sur le gyrus de Heschl, un sur la zone motrice de la main et le dernier sur la fissure sylvienne, bilatéralement. Evaluation de notre programme de recalage est accomplie sur les images d'IRM et d'IRMf de neuf sujets parmi dix-huit qui ont participés dans une étude précédente de Maeder et al. Le résultat sur les images anatomiques, IRM, montre le déplacement des repères anatomiques du cerveau à déformer à la position des repères anatomiques de cerveau de référence. La distance du cerveau à déformer par rapport au cerveau de référence diminue après le recalage. Le recalage des images fonctionnelles, IRMf, ne montre pas de variation significative. Le petit nombre de repères, six points de contrôle, n'est pas suffisant pour produire les modifications des cartes statistiques. Cette thèse ouvre la voie à une nouvelle technique de recalage du cortex cérébral dont la direction principale est le recalage de plusieurs points représentant un sillon cérébral. Abstract : The fast development of new technologies such as digital medical imaging brought to the expansion of brain functional studies. One of the methodolgical key issue in brain functional studies is to compare neuronal activation between individuals. In this context, the great variability of brain size and shape is a major problem. Current methods allow inter-individual comparisions by means of normalisation of subjects' brains in relation to a standard brain. A largerly used standard brains are the proportional grid of Talairach and Tournoux and the Montreal Neurological Insititute standard brain (SPM99). However, there is a lack of more precise methods for the superposition of more variable portions of the cerebral cortex (e.g, neocrotex and perisyvlian zone) and in brain regions highly asymmetric between the two cerebral hemipsheres (e.g. planum termporale). The aim of this thesis is to evaluate a new image processing technique based on non-linear model-based registration. Contrary to the intensity-based, model-based registration uses spatial and not intensitiy information to fit one image to another. We extract identifiable anatomical features (point landmarks) in both deforming and target images and by their correspondence we determine the appropriate deformation in 3D. As landmarks, we use six control points that are situated: one on the Heschl'y Gyrus, one on the motor hand area, and one on the sylvian fissure, bilaterally. The evaluation of this model-based approach is performed on MRI and fMRI images of nine of eighteen subjects participating in the Maeder et al. study. Results on anatomical, i.e. MRI, images, show the mouvement of the deforming brain control points to the location of the reference brain control points. The distance of the deforming brain to the reference brain is smallest after the registration compared to the distance before the registration. Registration of functional images, i.e fMRI, doesn't show a significant variation. The small number of registration landmarks, i.e. six, is obvious not sufficient to produce significant modification on the fMRI statistical maps. This thesis opens the way to a new computation technique for cortex registration in which the main directions will be improvement of the registation algorithm, using not only one point as landmark, but many points, representing one particular sulcus.
Resumo:
Astrocyte reactivity is a hallmark of neurodegenerative diseases (ND), but its effects on disease outcomes remain highly debated. Elucidation of the signaling cascades inducing reactivity in astrocytes during ND would help characterize the function of these cells and identify novel molecular targets to modulate disease progression. The Janus kinase/signal transducer and activator of transcription 3 (JAK/STAT3) pathway is associated with reactive astrocytes in models of acute injury, but it is unknown whether this pathway is directly responsible for astrocyte reactivity in progressive pathological conditions such as ND. In this study, we examined whether the JAK/STAT3 pathway promotes astrocyte reactivity in several animal models of ND. The JAK/STAT3 pathway was activated in reactive astrocytes in two transgenic mouse models of Alzheimer's disease and in a mouse and a nonhuman primate lentiviral vector-based model of Huntington's disease (HD). To determine whether this cascade was instrumental for astrocyte reactivity, we used a lentiviral vector that specifically targets astrocytes in vivo to overexpress the endogenous inhibitor of the JAK/STAT3 pathway [suppressor of cytokine signaling 3 (SOCS3)]. SOCS3 significantly inhibited this pathway in astrocytes, prevented astrocyte reactivity, and decreased microglial activation in models of both diseases. Inhibition of the JAK/STAT3 pathway within reactive astrocytes also increased the number of huntingtin aggregates, a neuropathological hallmark of HD, but did not influence neuronal death. Our data demonstrate that the JAK/STAT3 pathway is a common mediator of astrocyte reactivity that is highly conserved between disease states, species, and brain regions. This universal signaling cascade represents a potent target to study the role of reactive astrocytes in ND.
Resumo:
Diplomityön tavoitteena oli erään prosessiteollisuuden yrityksen toimitusketjun kehittäminen pääasiakkaan toimitusten osalta. Ongelmana olivat epäoptimaalinen tuotannon lajinvaihto ja toimitusketjun jakelutoimintojen tehottomuus asiakkaan tilausmäärien huonon ennustettavuuden vuoksi. Työssä keskityttiin tuotannon lajinvaihto- ja jakelutoimintoihin sekä niiden kustannusten määrittämiseen toimintolaskennan avulla. Päätavoitteena oli mallintaa Excel-pohjainen työkalu, joka soveltuu tuotannon lajinvaihdon, kuljetusten ja jakeluvarastoinnin karkeasuunnitteluun tarpeiden ja kapasiteetin yhteensovittamiseksi sekä em. kustannusten määrittämiseksi. Työkalua voidaan käyttää myös analysointityökaluna simuloimalla kustannuksia eri toimintavaihtoehdoilla ja tarkastelemalla kustannusten suhdetta toisiinsa. Työkalun avulla laskettiin tuotantotiheyden, kuljetuseräkoon ja tuotantoerien lukumäärän kustannusvaikutukset. Edellytyksenä työkalun käytölle suunnittelussa ja analysoinnissa ovat viikkokohtaiset kysyntäennusteet, joiden saamiseksi ehdotetaan yhteistyön kehittämistä asiakkaan kanssa. Työkalua voidaan jatkossa käyttää myös apuna erään tietojärjestelmän syöttötietojen määrittelyssä.
Resumo:
The interplay between selection and aspects of the genetic architecture of traits (such as linkage, dominance, and epistasis) can either drive or constrain speciation [1-3]. Despite accumulating evidence that speciation can progress to "intermediate" stages-with populations evolving only partial reproductive isolation-studies describing selective mechanisms that impose constraints on speciation are more rare than those describing drivers. The stick insect Timema cristinae provides an example of a system in which partial reproductive isolation has evolved between populations adapted to different host plant environments, in part due to divergent selection acting on a pattern polymorphism [4, 5]. Here, we demonstrate how selection on a green/melanistic color polymorphism counteracts speciation in this system. Specifically, divergent selection between hosts does not occur on color phenotypes because melanistic T. cristinae are cryptic on the stems of both host species, are resistant to a fungal pathogen, and have a mating advantage. Using genetic crosses and genome-wide association mapping, we quantify the genetic architecture of both the pattern and color polymorphism, illustrating their simple genetic control. We use these empirical results to develop an individual-based model that shows how the melanistic phenotype acts as a "genetic bridge" that increases gene flow between populations living on different hosts. Our results demonstrate how variation in the nature of selection acting on traits, and aspects of trait genetic architecture, can impose constraints on both local adaptation and speciation.
Resumo:
Tutkielman tavoitteena on kuvata pankkien vakavaraisuusuudistuksen eri osa-alueita. Tarkempi analyysi rajautuu uudistuksen tuomiin muutoksiin luotto- ja operatiivisen riskin pääomavaateissa. Tutkielman empiirisen osuuden tavoitteena on perehtyä vakavaraisuussäännöstön uudistusten vaikutuksiin Nordeassa. Tutkimusmetodologiaksi on valittu normatiivinen tutkimusote. Lisäksi tutkielma sisältää deskriptiivisiä ja positivistisia osia. Lähdeaineisto koostuu Baselin pankkivalvontakomitean ja Suomen Pankin julkaisemista tutkimuksista ja dokumenteista sekä alan julkaisuissa ilmestyneistä artikkeleista. Pankkien vakavaraisuussäännöstöuudistuksen tavoitteena on lisätä rahoitusmarkkinoiden vakautta. Sääntelyn kautta pyritään turvaamaan pankkien varojen riittävyys suhteessa niiden riskien ottoon. Vakavaraisuussäännöstön uudistus muodostuu kolmesta pilarista: (1) minimipääomavaatimuksista, (2) pankkivalvonnan vahvistamisesta ja (3) markkinakurin hyödyntämisestä luottolaitosten toiminnan julkistamisvaatimuksia lisäämällä. Pankkivalvonnan harmonisoinnista vallitsee kansainvälinen yhteisymmärrys, mutta ennen kuin Basel II voi astua voimaan on useita ongelmia ratkaisematta. Baselin vakavaraisuuskehikko ei ole ainut lähitulevaisuudessa pankkitoimialaa koetteleva uudistus. Kansainväliset tilinpäätösstandardit; International Accounting Standards ja erityisesti IAS 39 sekä International Financial Reporting Standards, lyhyemmin IFRS tulevat muuttamaan merkittävästi pankkien tilinpäätöskäyttäytymistä. Epäselvää on vielä kuitenkin tukevatko uudistukset toisiaan ja missä määrin pankkien tulosvolatiliteetin odotetaan kasvavan. Tutkielmassa pohditaan vakavaraisuussäännöstön uudistuksen hyötyjä kansainvälisen kilpailuneutraliteetin osalta, sillä Yhdysvalloissa uudistus koskee vain suurimpia pankkeja. Tutkielmassa paneudutaan lisäksi uudistuksen mahdolliseen talouden syklejä voimistavaan vaikutukseen ja tarkastellaan parannusehdotuksia prosyklisyyden hillitsemiseksi. Yksi vakavaraisuusuudistuksen tärkeimmistä tehtävistä on luoda pankeille kannustin kehittää omia riskienhallinta malleja. Kannustin ongelma on pyritty ratkaisemaan vapaampien sisäisten mallien menetelmien avulla. Ongelmaa ei ole pystytty kuitenkaan ratkaisemaan aivan täysin, sillä luottoriskien osalta pankkien lainaportfolioiden rakenne määrittää sen, hyötyvätkö pankit siirtymisestä sisäisten mallien menetelmän käyttöön. Tutkielma sisältää myös Nordean arvion vakavaraisuusuudistuksen vaikutuksista pankkitoimialaan.
Resumo:
Diplomityön aiheena oli tutkia case-yrityksen prosessikehitystä, prosessijohtamista sekä lähiverkkopalveluketjua prosessinäkökulman kannalta. Tutkimuksen päätavoitteina oli selvittää, kuinka lähiverkkopalveluketjun toimintaa voisi tehostaa, ja minkälaisia kertakustannuksia yhdestä keskiverotoimituksesta syntyy. Tavoitteina oli myös selvittää yrityksen prosessikehittämisen tila sekä minkälaisia prosessijohtamismalleja yrityksessä käytetään ja millä tavoin sen pääprosesseja johdetaan. Tutkimus oli case-tyyppinen, eli siinä tutkittiin yhden yrityksen toimintaa ja prosesseja. Teoreettinen pohja tutkimukselle luotiin käsittelemällä liiketoimintaprosesseihin liittyviä ydinmääritelmiä, erilaisia prosessijohtamismalleja ja liiketoimintaprosessien mittaamista. Tutkimuksen peruselementit tiedon hankintaan olivat kirjallisuus ja haastattelut. Lisäksi tutkimus pohjasi vahvasti tutkijan tekemiin omiin havaintoihin yrityksessä ja sen toimintaympäristössä. Tutkimuksen ensimmäisessä vaiheessa kartoitettiin lähiverkkopalveluketjun senhetkinen tilanne, analysoitiin palveluketjun sisältämiä prosesseja ja kirjattiin ylös havaitut ongelmakohdat. Haastatteluista kerättyjen tietojen perusteella laskettiin yhdestä keskivertolähiverkkotoimituksesta case-yritykselle syntyvät kertakustannukset. Tämän lisäksi analysoitiin yrityksen senhetkistä prosessijohtamis- ja prosessikehitystasoa sekä peilattiin niitä yrityksen tulevaisuuden prosessikehittämistoimiin. Lopuksi johtopäätöksien kautta esitettiin kaksi toimintaehdotusta, joilla palveluketjun toimintaa voitaisiin parantaa. Ensimmäinen ehdotus oli radikaalimpi, ja siinä siirryttäisiin kokonaan pois palveluketjumallista tiimipohjaiseen malliin. Toisessa ehdotuksessa keskityttiin korjaamaan palveluketjun ongelmakohtia.
Resumo:
Tämän työn tarkoituksena oli luoda kokonaisvaltainen tuotannollinen simulaatiomalli vaneritehtaasta sekä tutkia kustannuslaskennan mahdollisuuksia mallin yhteydessä. Perusolettamuksena on, että jos tuotannollinen malli toimii esikuvansa mukaisesti, myös sillä laskettuun kustannustietoon voidaan luottaa. Johdantona on tarkasteltu työn perustana olevia teorialähteitä. Ensimmäisenä asiana on esitetty vanerin valmistusprosessia ja siinä käytettyjä linja- ja laitetyyppejä. Toisena asiana on esitetty simulaatiotutkimuksen periaatteita, lainalaisuuksia ja mahdollisuuksia. Lisäksi on tarkasteltu kustannuslaskentaa, sen eri periaatteita ja muotoja sekä tuotannon- ja varastonohjausta. Aineistona ja menetelminä työssä on esitetty simulaatiomallin luomiseen tarvittavan pohjatiedon kerääminen sekä soveltaminen. Sitten on kuvattu tehdasmallin muodostavat eri tuotantolinjoja kuvaavat komponentit ja mallin käyttöliittymä. Lopuksi on kuvattu teoreettisen tehdasmallin soveltaminen todellisen vaneritehtaan mukaiseksi. Sovelletulla mallilla on ajettu kolme erilaista vuorokausituotantoa ja niistä saatua kustannustietoa on vertailtu optimitilannetta kuvaavaan taulukkoon.
Resumo:
Azole derivatives are the main therapeutical resource against Candida albicans infection in immunocompromised patients. Nevertheless, the widespread use of azoles has led to reduced effectiveness and selection of resistant strains. In order to guide the development of novel antifungal drugs, 2D-QSAR models based on topological descriptors or molecular fragments were developed for a dataset of 74 molecules. The optimal fragment-based model (r² = 0.88, q² = 0.73 and r²pred = 0.62 with 6PCs) and descriptor-based model (r² = 0.82, q² = 0.79 and r²pred = 0.70 with 2 PCs), when analysed synergically, suggested that the triazolone ring and lipophilic properties are both important to antifungal activity.
Resumo:
Modern sophisticated telecommunication devices require even more and more comprehensive testing to ensure quality. The test case amount to ensure well enough coverage of testing has increased rapidly and this increased demand cannot be fulfilled anymore only by using manual testing. Also new agile development models require execution of all test cases with every iteration. This has lead manufactures to use test automation more than ever to achieve adequate testing coverage and quality. This thesis is separated into three parts. Evolution of cellular networks is presented at the beginning of the first part. Also software testing, test automation and the influence of development model for testing are examined in the first part. The second part describes a process which was used to implement test automation scheme for functional testing of LTE core network MME element. In implementation of the test automation scheme agile development models and Robot Framework test automation tool were used. In the third part two alternative models are presented for integrating this test automation scheme as part of a continuous integration process. As a result, the test automation scheme for functional testing was implemented. Almost all new functional level testing test cases can now be automated with this scheme. In addition, two models for integrating this scheme to be part of a wider continuous integration pipe were introduced. Also shift from usage of a traditional waterfall model to a new agile development based model in testing stated to be successful.
Resumo:
XML-muotoista tiedonesitystapaa hyödynnetään yhä enemmän esitettäessä rakenteellista tietoa. Tarkoituksena on antaa yleishyödyllinen ja uudelleenkäytettävä tapa jakaa yleistä tietoa erilaisten rajapintojen yli. XML-tekniikoita käytetään myös korjaamaan aiemmin tehdyissä sovellutuksissa esiintyneitä puutteita ja parantamaan niiden toimintaa. Tässä diplomityössä esitellään Telestelle LabView-pohjaiseen testaussovellusympäristöön suunniteltava ajuriuudistus. Työssä paranneltiin aiempaa ajurimallia soveltamalla siihen XML-tekniikoita hyödyntäviä toimintoja. Tarkoituksena oli vähentää testaussovelluskehityksessä vaadittavaa ohjelmointityötä korvaamalla sovelluksiin kovakoodatut ominaisuudet XML-pohjaisilla konfiguraatiotiedostoilla. Järjestelmän pohjana on yleiskäyttöinen ajuri, joka käyttää Telesten omaa EMS-protokollaa kommunikoinnissaan testattavien tuotteiden kanssa. Ajurimalli käyttää XML-pohjaisia konfiguraatiotiedostoja määrittelemään testattavien tuotteiden ominaisuuksia. XML-skeematiedostoilla esitetään ajurin käyttämän kommunikaatioprotokollan viestityypit ja niiden rakenteet. Työn tuloksena onnistuttiin luomaan uudenlainen XML-tekniikoita hyödyntävä ajurimalli. Yhteen yhteiseen ajuriin perustuva malli yhdenmukaistaa testaussovelluksien toteuttamista ja vähentää tarvittavaa ohjelmointityötä. Ajurin käyttöä helpotettiin toteuttamalla testaussovelluksien kehitysympäristöön erityinen editori, jolla voidaan helposti luoda ajuria käyttäviä toimintoja.
Resumo:
Tutkimuksen aihe pohjautuu käytännössä havaittuun ongelmaan sähköisen hankintasanomavälityskentän hitaasta käyttöönotosta toimittajasektorilla. On kriittistä saada toimittajasektori aktiivisesti mukaan sähköisiin hankintatoimen käytäntöihin, jotta sähköisestä kaupankäynnistä saatavat hyödyt voidaan ottaa käyttöön koko tarjontaketjun matkalla. Toimittajasektorin tarpeita sähköisen hankintasanomavälityskentän käyttöönotossa tutkittiin julkisen hankintatoimen näkökulmasta. Tutkimus tehtiin itsenäisenä työnä samanaikaisesti käynnissä olevan julkisen hankintatoimen kehityshankkeen rinnalla. Quality Function Deployment -pohjainen malli kehitettiin tunnistamaan toimittajasektorin tarpeita käyttäjälähtöisestä näkökulmasta. Tutkimusta tehdessä nousi esille, ettei toimittajasektori itsessään ollut valmis tunnistamaan omia kehitystarpeitaan järjestelmäkehityksen näkökulmasta. Lisäksi osa mahdollisista syistä hitaaseen sähköisen hankintasanomavälityskentän käyttöönottoon on sellaisia, joita ei voida ratkaista pelkällä järjestelmäkehityksellä.
Resumo:
Työn tavoitteena oli tutkia Etelä-Karjalan sosiaali- ja terveydenhuollon kuntayhtymän kuntalaskutusta ja rakentaa laskentamalli, jolla kuntakohtaiset kustannukset pystytään laskemaan ja jakamaan. Tutkimusote oli konstruktiivinen. Tiedot kerättiin kuntayhtymän toiminta- ja taloustietojärjestelmistä sekä haastattelemalla organisaation asiantuntijoita. Työn tulokseksi saatu laskentamalli koostuu suoritepohjaisesta, asukaslukupohjaisista ja tarvepainotetuista asukaslukupohjaisista kustannusajureista, joilla kustannukset jaetaan piirin jäsenkunnille. Tällä sekamallilla pystytään toteuttamaan kuntalaskutusta, sillä se täyttää kuntalaskutusmallille asetetut vaatimukset. Työn tulosten perusteella tulo-osuusmalli olisi paras tapa toteuttaa kuntalaskutusta. Yksinkertainen rahoitusmalli mahdollistaa toiminnan vapaamman kehittämisen kuin sekamalli ja on lisäksi selkeämpi ja läpinäkyvämpi. Sekamallissa tulisi painottaa tarvepohjaisia asukaslukuajureita. Tärkeimmät ja suurimpia kustannuksia aiheuttavat alueet kannattaisi tuotteistaa.
Resumo:
Due to the different dynamics required for organizations to serve the emerging market which contains billions of people at the bottom of the pyramid (BOP) coupled with the increasing desire for organizations to grow and be more multinational, organizations need to continually innovate. However, the tendency for large and established companies to ignore the BOP market and rather focus on existing markets, gives an indication of the existence of a vulnerability that potentially disruptive innovations from the BOP will not be recognized in good time for a counter measure. This can be deduced from the fact that good management practice advocates that managers should learn and listen to their customers. Therefore majority of the large existing companies continually focus on their main customer/market with sustaining innovations which leaves aspiring new entrants with an underserved BOP market to experiment with. With the aid of research interviews and an agent-based model (ABM) simulation, this thesis examines the attributes of BOP innovations that can qualify them as disruptive and the possibilities of tangible disruptive innovations arising from the bottom of the pyramid and their underlying drivers. The thesis Furthermore, examines the associated impact of such innovations on the future sustainability of established large companies that are operating in the developed world, particularly those with a primary focus which is targeted towards the market at the top of the pyramid (TOP). Additionally, with the use of a scenario planning model, the research provides an evaluation of the possible evolution and potential sustainability impacts that could emerge, from the interplay of innovations at the two pyramidal market levels and the chosen market focus of organizations – TOP or BOP. Using four scenario quadrants, the thesis demonstrates the resulting possibilities from the interaction between the rate of innovations and the segment focused on by organizations with disruptive era characterizing the paradigm shift quadrant. Furthermore, a mathematical model and two theoretical propositions are developed for further research. As recommendations, the thesis also extends the ambidextrous organizational theory, business model innovation and portfolio diversification as plausible recommendations to limit a catastrophic impact, resulting from disruptive innovations.